25 февраля 2026

Министр обороны США Пит Хегсет поставил главе Anthropic Дарио Амодеи ультиматум: до пятницы компания должна предоставить Пентагону неограниченный доступ к Claude — без каких-либо ограничений на применение. В противном случае ведомство либо разорвёт контракт и объявит Anthropic «риском для цепочки поставок», либо задействует закон о военном производстве, чтобы принудить компанию к сотрудничеству на своих условиях.

У Anthropic уникальная позиция: Claude — единственная модель, допущенная к работе в засекреченных системах Пентагона. Если помните, они практически первые вообще начали сотрудничать с госорганами. Компания не отказывается сотрудничать с военными, но проводит две красные линии — массовая слежка за американскими гражданами и автономное оружие без участия человека. Пентагон же требует убрать любые ограничения и не допускает, чтобы коммерческая компания диктовала условия использования.

Но при этом просто так взять и отказаться от Claude Пентагон тоже не может — и модели уж больно хороши, и конкуренты даже не близко не подошли по уровню внедрения.

А Хегсет любит тако, как его шеф?

Тут настоящим программистам копиума подвезли. Вернувшийся на пост CEO Workday Анил Бхусри успокаивает инвесторов простым аргументом: Anthropic, Google и OpenAI сами используют продукты его компании, значит, навайбкодить не могут. И вообще «Никакое количество vibe coding не создаст HR- или ERP-систему», поскольку настоящие такие системы должны обеспечивать абсолютную точность, высокую скорость и соблюдение строгих стандартов безопасности.

Правда, рынок пока решает иначе — акции упали ещё на 9% после публикации отчётности, а с начала года потеряли около 40%. Похожая динамика у Salesforce и других компаний сектора.

И я рынок вполне понимаю — занимался тут одним проектом, планомерно выбрасывая мелкие и не очень платные пункты, получилось и дешевле, и гораздо быстрее (в смысле скорости работы самого результата). Что касается скорости, точности и безопасности в сложных системах, то это уже сейчас решается разделением работы агента на размышление/генерацию и использование инструментов.

В Claude Code завезли функцию Remote Control — запускаете его с соответствующим флагом или просто во время сессии даете команду /remote-control и подхватываете сессию в приложении — хоть на телефоне, хоть в облаке. Сессия в терминале должна оставаться открытой, но это даже не неудобство.

Совершенно шикарная опция, особенно, если кто-то оставил агента работать и пошел заниматься своими делами — всё можно посмотреть, если уж не терпится.

Вы уже начали бояться AI?

Профессор Кеннет Пейн из лондонского King’s College опубликовал на днях исследование — он взял три модели (GPT-5.2, Sonnet 4 и Gemini 3 Flash) и сыграл с ними в военную симуляцию. Такое исследование уже проводилось пару лет назад с тогдашними моделями, но модели развиваются и интересно, как они сыграют сейчас.

В общем, начинайте бояться. В 95% игр все модели применили тактическое ядерное оружие. Причем модели приходили к выводу о необходимости превентивного применения — то есть первого удара, — поскольку так выживание государства/стороны, за которую они играли, было обеспечено.

Модели шли к решению разными путями. GPT-5.2, например, спокойно обманывал — говорил о мире и готовности к переговорам, одновременно приводя ядерные силы в полную боевую готовность. Что-то знакомое, не правда ли? Gemini очень быстро переходила от дипломатического общения к применению силы, не оставляя соперникам времени на реакцию. Claude до последнего пытался использовать морально-этическую аргументацию, но при возникновении угрозы «выживанию государства» наносил массированный удар без предупреждения. Это выглядело для него меньшим злом (предлагаю переименовать в Геральта).

Из еще вполне человеческого — модели проявили поведение, которое исследователи назвали “Галлюцинацией решимости” — получаемые дипломатические сигналы модель часто воспринимала как свидетельство слабости противника и продолжала давление.

Самый важный вывод Пейна заключается в том, что у AI отсутствует «биологический барьер» перед концом света. Для моделей ядерная война — это просто один из способов набрать очки или завершить сценарий с «наилучшим статистическим исходом» для своей стороны. Тут, конечно, вспоминается много чего из фантастики, включая Ender’s Game…