29 сентября 2025

Физики из Caltech сообщают о создании крупнейшего нейтрально-атомного компьютера, в котором использованы 6,100 атомов цезия. Время когерентности — 13 секунд, точность операций — 99.98%. Для сравнения: предыдущие эксперименты удерживали кубиты стабильными около полутора секунд.

Как уточняется в новости, важно не только время стабильности кубитов, но и длительность одной операции. Правда, обычный процессор делает одну ошибку на 100 квадриллионов операций, квантовым компьютерам до этих показателей далеко.

Нейтрально-атомные системы интересны физической реконфигурируемостью — атомы можно перемещать во время вычислений, используя мобильные оптические ловушки. У жестких архитектур такой гибкости нет. Caltech пока представляет только результаты экспериментов, без практических вычислений, но ученые полны оптимизма.

А криптографы, соответственно, настораживаются — не случайно новость я беру с сайта о крипте.

Huawei планирует удвоить производство топовых AI-чипов Ascend 910C до 600 тысяч единиц в следующем году. К 2026 году общий выпуск линейки достигнет 1,6 млн кристаллов, сообщает Bloomberg со ссылкой на источники. Для сравнения: Nvidia продала в Китае около миллиона чипов H20 в 2024-м, но в последнем квартале уже не зафиксировала продаж — Пекин блокирует американские чипы из соображений безопасности.

Технологический разрыв остается драматичным. SMIC производит кристаллы для Huawei на усовершенствованной версии 7-нанометрового процесса, в то время как последние GPU Nvidia делает TSMC по 4nm — разница в два поколения. По оценкам, грядущий Ascend 950 предложит лишь 6% производительности от Nvidia VR200. Huawei пытается компенсировать отставание через advanced packaging: текущий 910C упаковывает два кристалла в один чипсет, а планируемый на конец 2026 года преемник будет содержать четыре. Процесс сложный, выход годных кристаллов остаётся невысоким.

Alibaba и Tencent пока используют чипы Huawei только для inference. Компания работает над более мощным чипом на еще более улучшенном 7nm процессе, который может подойти для обучения, но это не близкие планы.

К тому же напомню обзор SemiAnalysis, в котором хорошо показано, что узким местом в ближайшее время останется производство высокопроизводительной памяти. По крайней мере, еще примерно год.

Electronic Arts подтвердили слухи о продаже — стоимость компании составит 55 млрд долларов. Акционеры получат $210 за акцию, премия 25% к цене до слухов о сделке.

Структура финансирования агрессивная: $36 млрд собственных средств и $20 млрд долга от JPMorgan, 18 из которых будут уплачены при закрытии сделки в 1 квартале 2027-го финансового года. Это можно назвать экстремальными условиями — после сделки соотношение долговой нагрузки и EBITDA может превысить 10х, хотя для leveraged buyout оно обычно составляет 4-6x. Напоминает сделку Маска по покупке Twitter, когда были привлечены 13 млрд от консорциума банков, но там и сумма была меньше и финансирование выдавалось самому богатому человеку в мире. Да и радости у банков в итоге было немного — если помните, они два года ждали победы Трампа и политического взлета Маска, чтобы наконец выпустить под этот долг облигации.

Так что в новой жизни у EA быстрого счастья не будет. А точно будет как минимум оптимизация за счет не очень удачных релизов.

Новая новая моделька от DeepSeek для интересующихся.

Модель тренировали свежей V3.1-Terminus, но слегка изменив механизм внимания, DeepSeek Sparse Attention. Если очень вкратце, то теперь каждый токен обращает внимание на 2048 других, а не все предыдущие, и на основе слегка по-другому посчитанного произведения Q и K. Замена уже применявшегося механизма на новый не требует обучения с нуля — V3.2 это та же V3.1, дообученная на примерно триллионе токенов.

Получается существенно снизить затраты на поддержание длинного контекста — что очень важно в эпоху рассуждающих моделей; Я думаю, что скорее всего главная причина движения в этом направлении — более длинные цепочки рассуждений для задач, требующих сотни вызовов инструментов.

За миллион сгенерированных токенов у новой модели будут просить $0.42 (вместо $1.68 на V3.1).

По метрикам показывают, что качество не страдает.

Статья с техническими подробностями того, как работает новый Attention, тут. Интересное в ней, кроме Sparse Attention, тоже есть: теперь 3 отдельных шага RL-обучения (обучения рассуждениям) слили в один, и, наконец, используют GRM для оценки ответов в задачах без правильного ответа. Детальный разбор того, как это работает, делал тут.

Anthropic выпустила Claude Sonnet 4.5, самую лучшую модель для программирования, как говорится в релизе. Модель показывает 77.2% на SWE-bench Verified и может поддерживать фокус более 30 часов на многоступенчатых задачах.

В анонсе много данных бенчмарков — на OSWorld, тесте для реальных компьютерных задач, Sonnet 4.5 достиг 61.4% против 42.2% у версии четырехмесячной давности.

Но есть нюанс с безопасностью. Anthropic признает проблемы с CBRN-фильтрами (химическое, биологическое, радиологическое и ядерное оружие), которые иногда блокируют обычный контент. Компания уже уменьшила количество ложных срабатываний в 10 раз с момента первого описания проблемы, но пользователям предлагают переключаться на Sonnet 4 при прерывании диалога.

Обновлен также Claude Code до версии 2.0.0, где теперь по умолчанию включается Sonnet 4.5, а режим рассуждений включается через нажатие tab. Мне даже интересно — пару часов назад у меня вдруг забастовал Opus в Claude Code, а после переключения на Sonnet тот разрулил запутанную ошибку намного быстрее. Может, это уже была новая модель?

Обновлено также расширение для VS Code — теперь оно нативное. Кроме того, в Claude Code появились чекпойнты — точки, к которым можно вернуться при решении задачи, при этом изменения в коде также отменятся. Это неплохо, особенно, если будет работать без глюков, часто попытки с помощью CC что-то починить в процессе решения задачи ломают всё бесповоротно.

Ну, и опять привыкаем к режиму — “Opus мощнее, но Sonnet лучше”, которая была привычной с версиями 3/3.5 соответственно.

Вечер оказался богат на релизы — OpenAI запустила Instant Checkout, то есть возможность покупать товары прямо через ChatGPT. Пока работает только с продавцами Etsy в США, но компания обещает подключить миллион торговцев Shopify. Акции Etsy взлетели на 13%, Shopify — на 5%. OpenAI берет комиссию с транзакций, но размер не раскрывается.

OpenAI при этом открывает протокол для разработчиков. Правда, пока поддерживаются только single-item покупки. Позже будут и традиционные корзины, и другие ecommerce возможности. И будет очень интересно посмотреть на это, консьюмерское направление развития AI.

А вот прямо суперзапуск новых возможностей API Anthropic — context editing автоматически удаляет устаревшие результаты вызовов инструментов из контекстного окна, а memory tool сохраняет критически важную информацию вне его через файловую систему.

Memory tool работает полностью на стороне клиента через обычные вызовы tool. Claude может создавать, читать, обновлять и удалять файлы в хранилище разработчика. По сути, это гибрид RAG и встроенной памяти, но с полным контролем над данными.

Это интересный ход на фоне того, что основные конкуренты оперируют в разы большим размером контекста — у Gemini он составляет 1 млн токенов, у GPT-5 400 тысяч. С другой стороны, это классическая иллюстрация, что не размер важен, а то, как пользуетесь — как уже обсуждали при первых рекордах на размер контекста, далеко не всегда возможность запихать в память много информации гарантирует, что она будет доступна модели одинаково.