16 марта 2026
Интересные результаты получились у совместного акселератора Google и Accel в Индии. Все, конечно, цитируют, что 70% заявок отсеяно потому, что это были AI-wrapper-ы, то есть обертки вокруг популярных LLM. Но это можно рассмотреть и глубже — если учесть, что три четверти заявок пришлись на корпоративный софт в области продуктивности и разработки, то это скорее говорит, что авторы заявок не выходят за рамки модели аутсорсинга и IT-сервисов.
Джонатан Силбер из Google’s AI Futures Fund описал механизм обратной связи: если стартап выбирает чужую модель LLM, значит Google нужно доработать свою. Показателен итоговый состав финалистов: AI-агенты для ERP, голосовые решения для колл-центров, автоматизация производства. Ни один из пяти стартапов не работает в потребительском сегменте.
Nvidia фактически признала, что GPU недостаточно для оптимального инференса. На своей конференции GTC 2026 компания объявила о запуске Nvidia Groq 3 LPX — чипе на базе технологий компании Groq, сделка с которой обошлась в 20 млрд долларов и группу ведущих сотрудников с основателями Groq, перешедших в Nvidia. SRAM-память в LPU обеспечивает пропускную способность 150 ТБ/с на чип против 22 ТБ/с у HBM4 в Rubin GPU. Конечно, её заметно меньше — 500 мегабайт, а не 288 гигабайт, как у HBM4.
Фактически это отмена (или замена) для Rubin CPX. Полгода назад Nvidia представила этот чип как «новый класс GPU» для сложных задач инференса, пообещав серверную платформу NVL144 CPX к концу 2026 года. Теперь продукт отложен без внятных сроков, а его функциональную нишу занимает Groq 3 LPX.
Бизнес-логика тоже присутствует. Ян Бак, вице-президент Nvidia, утверждает, что комбинация чипов дает 45 долларов дохода для провайдеров моделей на каждый миллион токенов, то есть десятикратный рост выручки по сравнению с Blackwell NVL72 при скорости 500 токенов в секунду на пользователя. При этом компания планирует напрямую работать с разработчиками моделей масштаба 1 трлн параметров, не отдавая это OEM-партнерам.