20 января 2025
New York Times публикует обзор того, как ЦРУ активно модернизирует свои технологические возможности и пытается облегчить частному сектору разработку решений для разведки. Одна из последних разработок — чатбот, который помогает аналитикам “общаться” с виртуальными версиями иностранных лидеров для лучшего понимания их поведения.
Интересно, что и уходящая администрация Байдена, и команда Трампа поддерживают этот курс на технологическое обновление. Джон Рэтклифф, кандидат Трампа на пост директора ЦРУ, заявил, что “страна, которая выиграет гонку в развивающихся технологиях сегодня, будет доминировать в мире завтра”.
Нанд Мулчандани, первый CTO ЦРУ, внедряет в агентстве элементы культуры Кремниевой долины — от открытых рабочих пространств до более гибких процессов. Агентство даже пошло на частичное рассекречивание некоторых материалов, чтобы технологические компании могли лучше понять его потребности, поскольку сделать всё своими силами оно все равно не сможет.
Интересно было бы посмотреть на модель Путина — на чем обучали и что он им отвечает.
Интересный поворот в команде Трампа — Вивек Рамасвами, который должен был вместе с Илоном Маском возглавить новый Департамент эффективности правительства (DOGE), похоже, скоро покинет свой пост (на который еще не назначен). По данным CBS News, он планирует баллотироваться на пост губернатора Огайо уже в конце января.
Ситуация осложняется тем, что люди из окружения Маска уже несколько недель критикуют Рамасвами за недостаточное участие в работе. Источники сообщают о трениях между будущими сотрудниками DOGE и Рамасвами, которого “тонко подталкивают к выходу”.
Сам департамент не планируется как полноценное федеральное агентство — это будет консультативный орган при Белом доме, который должен предложить план оптимизации федеральной бюрократии к июлю 2026 года.
Аналитики волнуются — такими темпами мировых запасов попкорна не хватит на ближайшие 4 года. Впрочем, лишь бы на сегодняшние обещанные 100 указов Трампа хватило.
DeepSeek представила новые модели для рассуждений — DeepSeek-R1-Zero и DeepSeek-R1, а также серию их дистиллированных версий. Интересно, что R1-Zero обучалась только через reinforcement learning без предварительной supervised fine-tuning, что является первым подобным успешным экспериментом в открытом доступе.
DeepSeek-R1, получившая дополнительное обучение на специально подготовленных данных, показывает результаты на уровне OpenAI o1 в задачах математики, программирования и рассуждений. Компания также выпустила шесть уменьшенных моделей на базе Llama и Qwen — от 1.5B до 70B параметров.
Особенно впечатляет DeepSeek-R1-Distill-Qwen-32B, которая превосходит OpenAI o1-mini по многим показателям. На математических тестах AIME 2024 она показывает результат 72.6% против 63.6% у o1-mini, а на MATH-500 — 94.3% против 90%.
Все модели доступны в открытом доступе под лицензией MIT и поддерживают коммерческое использование. Правда, основную модель — R1, — вы все равно локально не запустите с её 671B параметров. Но попробовать можно на chat.deepseek.com. По паре вопросов сориентироваться сложно, но отвечает похоже на o1, причем за считанные секунды, в отличие от. При этом даже слегка удивительно, что модель отвечает, не прибегая к иероглифам, как другие китайские модели. В общем, попробуйте, конкуренция явно накаляется.