17 февраля 2025

Бастионы немного рушатся — The New York Times разрешает своим сотрудникам использовать AI-инструменты, включая собственную разработку Echo для создания кратких версий статей. Компания одобрила использование GitHub Copilot, Google Vertex AI, NotebookLM и API OpenAI (но не ChatGPT) для разработки продуктов и редакционных задач.

Журналистам разрешено применять AI для создания SEO-заголовков, анонсов для соцсетей, генерации вопросов для интервью и исследовательской работы. При этом есть четкие ограничения — нельзя использовать AI для написания или существенной переработки статей, работы с материалами третьих лиц, особенно конфиденциальной информацией источников, или публикации сгенерированных изображений.

Вы же помните, что это NYT обвиняет OpenAI в нарушениях авторских прав при обучении моделей на доступных материалах, в том числе и самой NY Times? Я не очень понимаю, как это работает — то есть обучаться на нас нельзя, но мы результатами ваших нарушений будем пользоваться?

Конечно, “некоторые” сотрудники NYT скептически относятся к использованию AI, опасаясь, что это может привести к “ленивым” заголовкам и неточной информации.

Южная Корея приостановила новые загрузки приложения DeepSeek после того, как китайский стартап признал, что не учел некоторые требования местного регулятора по защите персональных данных.

Это уже второй случай блокировки DeepSeek в феврале — ранее итальянский регулятор запретил работу чатбота в стране из-за проблем с политикой конфиденциальности.

МИД Китая в ответ заявил, что правительство уделяет большое внимание защите данных и никогда не будет требовать от компаний нарушать законы других стран. Впрочем, китайский стартап уже назначил юридических представителей в Южной Корее, и, вероятно, будет пробовать как-то решить проблему.

Веб-версия DeepSeek в Южной Корее доступна. Вероятно, опция блокировки сайтов используется регулятором гораздо реже, чем простое указание аппсторам.

В Европе запускается амбициозный проект OpenEuroLLM по созданию действительно открытых языковых моделей для всех 24 официальных языков ЕС, а также языков стран-кандидатов. Бюджет проекта составляет 37,4 млн евро, из которых 20 млн выделяет ЕС.

Консорциум из 20 организаций во главе с чешским лингвистом Яном Гайичем и руководителем финской AI-лаборатории Silo AI Петером Сарлином обещает первые результаты к середине 2026 года. Правда, французский AI-единорог Mistral AI отказался от участия, несмотря на попытки привлечь его к проекту.

Финальные результаты планируется получить к 2028 году. Проект использует наработки предыдущей инициативы HPLT, включая датасет объемом 4,5 петабайта. Основной фокус — на качестве моделей и сохранении лингвистического и культурного разнообразия.

Критики указывают на сложность координации такого количества участников и относительно небольшой бюджет по сравнению с корпоративными гигантами. Кроме того, существует параллельный проект EuroLLM с похожими целями. Однако руководители проекта уверены, что сочетание академической экспертизы и бизнес-фокуса, а также доступ к суперкомпьютерам EuroHPC позволят создать качественные модели.

Интересный вопрос — как создатели будут балансировать между открытостью и качеством. По словам Гайича, для достижения максимального качества придется использовать данные, которые нельзя будет открыто распространять. Хотя аудиторы смогут получить к ним доступ в соответствии с требованиями европейского AI Act.

Ну, посмотрим, практика — критерий истины. В итоге может получиться не самая мощная, но полностью европейская модель. И это выглядит как главная цель проекта — обеспечить цифровой суверенитет ЕС по части AI.