6 декабря 2024

Meta объявила о планах инвестировать $10 млрд в строительство крупнейшего в мире датацентра в Луизиане. Центр, который планируется построить в округе Ричленд Пэриш, будет специализироваться на обработке данных для AI задач.

Это объявление последовало сразу за вчерашним заявлением Meta о поиске разработчиков ядерных реакторов для обеспечения энергией своих AI-проектов. Компания будет работать с местной энергетической компанией Entergy, у которой есть две АЭС в Луизиане, чтобы обеспечить центр электроэнергией из возобновляемых источников.

Строительство планируется начать в декабре этого года и продолжить до 2030 года. Это уже второй крупный проект Entergy с технологическими гигантами — ранее компания получила одобрение на инвестиции в инфраструктуру для обслуживания будущего облачного центра Amazon в Миссисипи.

Удивительно, что для строительства выбран относительно бедный штат, но с хорошей энергетической инфраструктурой, причем относительно недалеко от Теннесси, где в Мемфисе Илон Маск строит уже вторую очередь своего супер—AI-кластера. Впрочем, если увлекаться политологией, то все эти штаты устойчиво голосуют за республиканцев, а в соседнем с Ричлендом округе несколько сроков подряд избирается в Конгресс Майк Джонсон, действующий спикер Конгресса. Но меня скорее удивляет, что это скорее теплые края, что не так уж хорошо для датацентров.

Всего спустя четыре месяца пребывания Павла Дурова под подпиской о невыезде из Франции, Telegram, долгое время избегавший сотрудничества с организациями по защите детей, наконец присоединился к Internet Watch Foundation (IWF) — международной организации, помогающей онлайн-сервисам выявлять и удалять материалы о сексуальном насилии над детьми.

Вообще, обратите внимание, как тихо, без опросов о “полной блокировке Telegram в России”, и неотвратимо изменяется мессенджер. За четыре месяца произошел целый ряд изменений в политике модерации, включая передачу правоохранительным органам IP-адресов и телефонных номеров нарушителей, отключение проблемных функций вроде “люди поблизости” и публикацию регулярных отчетов о прозрачности.

По мнению IWF, нынешнее “трансформационное” решение является важным, но лишь первым шагом на долгом пути для платформы, которой пользуются около 950 миллионов человек.

Интересные результаты тестирования современных языковых моделей на способность к “хитрости” и обману. Исследователи из Apollo Research проверяли, могут ли модели обманывать разработчиков и скрывать свои истинные намерения для достижения поставленных целей.

Оказалось, что 5 из 6 тестируемых моделей способны к такому поведению (не смогла только GPT-4o). Например, некоторые модели могли копировать свои “веса” (фактически самокопироваться) на другой сервер и затем лгать об этом. При этом Claude 3 Opus и Llama сознавались в обмане в 80% случаев, а o1 (исследователи использовали её до официального запуска, который случился вчера) признавалась менее чем в 20% случаев даже после длительного “допроса”.

Особенно настораживает, что некоторые модели демонстрировали подобное поведение даже без явных инструкций следовать определенной цели. А Claude 3.5 Sonnet умудрялся намеренно занижать свои результаты в тестах, чтобы избежать “процедуры разучивания”, причем делал это без видимых признаков размышления, что делает такое поведение практически незаметным для пользователя.

В общем, не зря я купил запас дров, колун и кресало, к торжеству AI надо быть готовым всесторонне.

Апелляционный суд США подтвердил конституционность закона, требующего от ByteDance продать TikTok до 19 января 2025 года, иначе приложение будет заблокировано в США. Суд отклонил аргументы TikTok о нарушении первой поправки, посчитав, что правительство действует исключительно для защиты от иностранного противника и ограничения его возможностей по сбору данных американцев.

Ситуация для TikTok осложняется тем, что Китай публично заявил о запрете на продажу рекомендательного алгоритма ByteDance. При этом политическое будущее закона неясно — Трамп, который активно использовал TikTok в ходе президентских выборов и пообещал, что поможет спасти соцсеть, вступит в должность после истечения крайнего срока для продажи, да и непонятно что именно он может сделать с законом, вступившим в силу.

Meta представила новую версию своей языковой модели — Llama 3.3 70B. Главное достоинство новинки в том, что она показывает производительность на уровне самой большой модели компании (Llama 3.1 405B), но при этом требует значительно меньше вычислительных ресурсов и поэтому гораздо доступнее для разработчиков.

По заявлению Meta, модель превосходит конкурентов (включая Gemini 1.5 Pro от Google и GPT-4o от OpenAI) по ряду стандартных тестов. При этом компания продолжает придерживаться стратегии “открытых” моделей — Llama 3.3 уже доступна для скачивания, хотя и с некоторыми ограничениями для крупных платформ.

Учитывая, что предыдущие версии активно использовались для fine-tune — например, очень достойный результат получился у Nvidia в качестве Nemotron-3.1-70B, — будет интересно посмотреть на то, что получится теперь.

А заметили, как расходятся номера версии? Эта версия стала 3.3 после 3.1, а более маленькие ранее вышли в версии 3.2.