19 января 2026

Micron, по данным Bloomberg, называет дефицит памяти для AI-инфраструктуры «беспрецедентным» и ожидает, что он продлится дольше 2026 года. Производство high-bandwidth memory (HBM) для ускорителей фактически «съедает» мощности всей отрасли, а удар приходится по массовым сегментам вроде смартфонов и ПК. Когда производители телефонов уже пытаются заранее забронировать поставки памяти на период после 2026-го, это похоже не на краткосрочный перекос, а на новую норму: AI тянет за собой цепочку компонентов, где память становится узким горлышком.

Как сообщает китайское издание Jiemian, Xiaomi, Oppo и Transsion пересматривают планы на 2026 год из-за роста цен на память, а Counterpoint ожидает снижение мировых поставок смартфонов в этом году.

Ответ Micron — ускоренная экспансия производства и перенос части DRAM в США. Ставка на проекты в Нью-Йорке, Айдахо и Вирджинии, поддержанные Chips Act и налоговыми кредитами, показывает, что дефицит памяти уже трактуется как вопрос промышленной политики, а не только рыночного цикла.

OpenAI опубликовала что-то вроде манифеста своей бизнес-модели и привела немного данных. Выручка выросла в 10 раз за два года: с $2 млрд в 2023 году до $20 млрд в 2025-м. Рост вычислительных мощностей почти идеально коррелирует с ростом доходов — компания прямо говорит, что больше compute означало бы еще больше денег.

Мне такая прямая зависимость напомнила что-то совсем свежее, и, если вы отмотаете выше, то тоже вспомните — неделю назад я упоминал об исследовании, которое показало, как качество ответов моделей растет практически прямо пропорционально увеличению вычислительной мощности.

И проблема теперь только в том, что обеспечить этот рост мощности сложно — всё это вышло на уровень, когда надо строить не только датацентры, но и энергетику. Где-то мне попадалось мнение, что одной из самых дефицитных специальностей уже становится работа электрика. А все только собрались и пришли в IT…