19 мая 2025

Дженсен Хуанг на открытии Computex в Тайване представил NVLink Fusion, систему, которая впервые позволит использовать NVLilnk с чипами сторонних производителей.

До сих пор Nvidia предлагала только полностью закрытые системы со своими компонентами. Теперь клиенты дата-центров смогут использовать собственные процессоры с AI-чипами Nvidia или комбинировать технологии Nvidia с акселераторами других производителей. Партнерами NVLink Fusion уже стали MediaTek, Marvell Technology и Alchip Technologies, которые создадут кастомные AI-чипы, совместимые с оборудованием Nvidia.

Понятно, что основные клиенты этого новшества — Microsoft, Amazon, которые разрабатывают собственные чипы, да и OpenAI что-то такое планировал.

Хуанг также анонсировал выход систем нового поколения GB300 в третьем квартале этого года и представил новый RTX Pro Server, который, по его словам, в четыре раза производительнее флагманской системы H100 на рабочих нагрузках DeepSeek. Кроме того, генеральный директор Nvidia объявил о строительстве AI-суперкомпьютера для Тайваня в партнерстве с местными поставщиками и правительством острова.

Открылась конференция Microsoft Buid и пошли новости с главной презентации.

Microsoft выпустил исходный код Windows Subsystem for Linux (WSL) в открытый доступ на GitHub. В открытый доступ выложены командные утилиты (wsl.exe и wslg.exe), фоновые службы (wslservice.exe) и демоны на стороне Linux. Единственные компоненты, не ставшие открытыми — Lxcore.sys, драйвер ядра для WSL 1, а также P9rdr.sys и p9np.dll, используемые для перенаправления файловой системы “\wsl.localhost”.

Кроме этого, в Windows добавлена поддержка Model Context Protocol, а в Edge появится экспериментальный API, через который веб-приложения смогут получить доступ к моделям, встроенным в браузер, как, например, phi4-mini.

GitHub выложил в открытый доступ Copilot for VS Code и анонсировал запуск агента, который будет работать в Copilot — очевидный шаг, конечно, у кого теперь только нет агентов.

Исследователи из EPFL и Фонда Бруно Кесслера провели масштабный эксперимент, показавший, что GPT-4 может быть более убедительной в дебатах, чем люди, особенно при использовании персонализации. В ходе эксперимента 900 участников вели дебаты на социально-политические темы с оппонентами, не зная, общаются ли они с человеком или ИИ.

Ключевой вывод: когда GPT-4 имела доступ к личной информации собеседника (пол, возраст, этническая принадлежность, образование, политические взгляды), она оказалась на 81,2% эффективнее в убеждении, чем человек-оппонент. Без персонализации AI показал результаты на уровне людей.

Анализ текстов выявил различия в стилях аргументации: AI использовал более логичные и аналитические рассуждения, в то время как люди чаще использовали местоимения первого и второго лица, рассказывали истории и апеллировали к сходству с собеседником.

Примечательно, что участники распознавали AI-собеседника в трех из четырех случаев, но испытывали трудности с определением человека-оппонента. При этом люди охотнее соглашались с точкой зрения, которую, как они полагали, отстаивал AI.

Собственно, я недавно стал замечать, что люди в дискуссиях всё чаще используют цитаты из общения с LLM как аргументы. Видимо, показывают, что их в ChatGPT не забанили — как раньше в Google.