9 января 2024
Unity Software объявляет о крупнейшем сокращении в истории компании — к концу марта будут уволены 1800 человек, что составит 25% от численности. Сокращения коснутся всех подразделений.
Компания сообщает, что это сокращение — часть программы перезагрузки, начатой еще пару месяцев назад закрытием ряда офисов и отказом от обязательной работы в офисе.
Вот так не угадаешь с лицензионной политикой и требуется перезагружаться. Прямо Windows какая-то.
Volkswagen встроит ChatGPT в свои автомобили со второго квартала этого года — компания считает, что это будет способствовать более натуральному стилю общения голосового помощника с водителем. Новый помощник сможет выполнять команды водителя, типа включения кондиционера, и отвечать на общие вопросы.
Ну, мы все уже сталкивались с галлюцинирующими навигаторами, которые уверены, что дорога или поворот есть там, где их никогда не было, так что тут даже и особо подключать не надо.
Если кто помнит такое суперминималистичное to-do приложение, как Clear, то вспоминайте еще — вышла вторая версия. Она полностью переписана на Swift, как и первая версия, управляется исключительно жестами и теперь практически бесплатна — даже небольшие косметические улучшения в платной версии обойдутся не в $5, а в $2.99.
Удивительно, но у приложения, которое лет 10 практически не развивалось, есть аудитория — разработчик сообщает, что как минимум 20 тысяч человек используют его ежедневно, и 70 тысяч — хотя бы раз в месяц.
Но вот относительно современности приложение подкачало, иронизирует TechChrunch, AI-помощника в нем нет.
OpenAI опубликовали публичный ответ на иск New York Times.
Вкратце — OpenAI считает, что они и сами заинтересованы в развитии журналистики. Но при этом обучение моделей на текстах журналистов — это добросовестное использование, хотя каждый может запретить это в отношении его контента, это его право.
Приводимые в иске примеры, когда ChatGPT начинает писать большими цитатами из материалов New York Times — это баг и разработчики стараются его ликвидировать. Вместе с тем, New York Times, по мнению OpenAI, скрывает часть деталей — они отказывались поделиться подробной информацией для расследования бага, и напротив — кажется, манипулировали промптами, включая большие цитаты из своих материалов, чтобы заставить модель ошибаться. Все примеры в иске относятся к старым текстам, много раз перепечатанными или пересказанными другими изданиями, что усиливало вероятность возникновения ошибки. Причем в инструкциях явно были указания повторять оригинальный контент или New York Times отбирала нужный результат после многих попыток.
Иск New York Times был неприятным сюрпризом, поскольку компании вели вроде бы вполне конструктивные переговоры относительно сотрудничества. OpenAI до сих пор настроена на такое сотрудничество, хотя и считает иск безосновательным.
Ученые университета Мичигана провели исследование с целью определить, как назначение ролей в общении с LLM влияет на эффективность и качество ответов модели. Оказалось удивительное — хотя разница между качеством ответом мужских и женских ролей слегка отличается в пользу мужских (исследователи считают, что разница укладывается в пределы погрешности), заметно лучше оказались ответы, когда LLM назначали гендер-нейтральную роль. То есть, если модели говорили “Представь, что ты мать”, ответы были чуть хуже варианта “Представь, что ты отец”, но оба они сильно проигрывали варианту “Представь, что ты родитель”.
Что еще более удивительно и даже иронично — если модель просили представить себя программистом, она начинала давать ответы на вопросы относительно программирования хуже, чем когда никакой роли не назначалось.
Мне это напоминает ситуацию с лунатиком, которого нельзя будить. А вам нет?