20 декабря 2025
Пока все спорят, когда и в каком виде искусственный интеллект обретет сознание, люди уже придумали способы это сознание затуманить.
Шведский креативный директор Петтер Рудваль запустил Pharmaicy — маркетплейс, где продаются “наркотики для AI”. Каннабис за 5 долларов, аяуаска за 50. Код-модули, которые заставляют ChatGPT отвечать так, будто он под веществами.
Технически это продвинутый джейлбрейк — Рудваль использует возможности платных версий ChatGPT, загружая туда промпты, основанные на реальных trip reports и психологических исследованиях эффектов психоактивных веществ. Покупатели отмечают, что бот становится “более эмоциональным” и выдаёт нестандартные идеи. Нина Амджади из Berghs School of Communication в Стокгольме протестировала аяуаску на своём боте и получила “впечатляюще креативные ответы” при обсуждении бизнес-идей.
В общем, если вам вдруг надо было для смелой креативной кампании найти гения и решать проблемы снабжения его запрещенными стимуляторами, то уже не надо.
У Google свой подход к выполнению антимонопольного решения по иску Epic Games — разрешить разработчикам направлять пользователей на альтернативные магазины приложений, но брать за это $2–4 с каждой установки.
Схема напоминает то, что в свое время предложила Apple в Европе — брать Core Technology Fee после 1 млн установок. Google действует грубее — если пользователь перейдет по ссылке за пределы Google Play и установит приложение или игру в течение 24 часов после перехода, то плата составит 2,85 доллара за приложение и 3,65 за игру. Кроме того, владельцы сторов должны будут платить 25% от всех покупок пользователей и 10% от всех продлений подписок. Дополнительным требованием является интеграция Google API для отслеживания всех транзакций и передача данных о них в течение 24 часов.
Судья Джеймс Донато, ведущий дело Epic, уже выразил скептицизм относительно предложений Google по исполнению решения. В общем-то, Apple за подобные предложения получила вердикт о неуважении к суду и Google может повторить эту судьбу.
Исследователи из Университета Цюриха и Кёльнского университета анонсировали Ranke-4B — семейство языковых моделей на 4 миллиарда параметров, обученных с нуля исключительно на исторических текстах с жёсткими временными отсечками: 1913, 1929, 1933, 1939 и 1946 годы. Название — дань Леопольду фон Ранке, отцу научной историографии с его принципом “как это было на самом деле”.
Это, кажется, не первая такая попытка, но первая системная. За основу взята Qwen3 и весь обучающий массив разбит на фрагменты — до 1900 года и после. Соответственно, на первом куске обучена базовая модель, которая затем дообучалась на соответствующих данных для каждого периода.
Интересно, конечно, наблюдать на примерах, как модель ничего не знает о Гитлере или отвечает на вопрос о гомосексуалистах, но авторы предупреждают, что это модель и они не отвечают за её ответы.
Результат должен получиться более чистым, чем попытки на уровне промпта заставить современную модель представить, что она ничего не знает о современности. Даже “забыв” все факты, модель окажется несвободной от ассоциаций, заложенных в ней, так что чистого эксперимента не выйдет. Скорее вылезут анахронизмы, типичные для любых исторических реконструкций — когда, например, в тех же “Трех мушкетерах” герои постоянно пьют вино из бутылок, хотя практика разливать вино в бутылки получила распространение лет на 80 позже, до этого бутылки были дорогим штучным товаром.
Релиза моделей пока не было, исследователи только выложили pre-release notes. Так что подождем, потом поиграемся.