Telegram-канал

WeWork радикально меняет имидж и запускает кампанию “WeWork for Business” — никаких пивных кранов и комбучи в кадре, только офисы и эффективность. Компания, которая обещала изменить то, как мы работаем и живем, теперь просто арендует офисные помещения.

Новый CEO Джон Санторе — антипод Адама Ноймана. 68 лет, живет на Стейтен-Айленде всю жизнь, 47 лет проработал в Cushman & Wakefield. Вместо частных самолетов — шутки о том, как непривычно носить casual вместо костюма.

Что интересно — после всех потрясений, включая объявление банкротства, бизнес работает. $2.2 млрд выручки в 2024, первая операционная прибыль за последние кварталы, 47 клиентов из Fortune 100. Портфель сократился с 850 до 600 локаций, но это все еще солидный масштаб.

Петула Люси, новый директор по маркетингу, говорит о “взрослении бренда”. Бюджет на маркетинг скромнее прежних $379 млн в год — теперь это “умная дисциплина”. Кампания обошлась чуть больше миллиона.

Конечно, это было интересно наблюдать, while it lasted, но не случайно много лет назад специалисты удивлялись, сравнивая WeWork с хорошо известным успешным примером в виде IWG, которым принадлежат бренды Regus и Spaces. В итоге весь disruption пришел обратно к нормальному бизнесу.

Z.ai, больше известные как Zhipu, представили GLM-4.5 — модель уже присутствовала на рынке, но нынешний релиз выглядит серьезной заявкой. По тестам модель с 355 миллиардами параметров (активных 32) заняла третье место в общем рейтинге после o3 и Grok 4, обойдя Opus 4.

Модель по решению похожа на Claude — у нее есть обычный режим и thinking. На практике это означает, что на математике (MATH 500) модель показывает 98.2%, почти как o3, а на агентных бенчмарках — на уровне Claude 4 Sonnet.

В блоге разработчики описывают интересную деталь — они изменили пропорции архитектуры модели. Сделали модель глубже, но уже, в отличие от того же DeepSeek-V3. И увеличили количество attention heads в 2.5 раза. По их словам, это не улучшает training loss, зато почему-то помогает на reasoning бенчмарках.

Модель открытая (как и предыдущие версии), поэтому желающие могут скачать веса и воспроизвести результат. Если видеокарты хватит.

Anthropic вводит лимиты для пользователей Max — с 28 августа вместо 5 часовых сессий у пользователей будут недельные лимиты, в рамках которых пользователи Max 20x (самая дорогая подписка за 200 долларов в месяц) могут получить 240-480 часов Sonnet 4 и 24-40 часов Opus 4. Если пользователь упрется в этот лимит, у него будет опция подождать обновления лимита либо докупить доступ через API.

Слухи о таких лимитах уже ходили на прошлой неделе — что неудивительно, учитывая многочисленные байки в чатах «А я запустил одновременно 20 Claude Code и оно даже не сразу переключилось на Sonnet». Anthropic утверждает, что это коснется менее, чем 5% пользователей. И, вполне возможно, лимиты будут в дальнейшем пересмотрены.

Компания Astronomer — та, где CEO и Chief People Officer попали на камеру на концерте Coldplay, — попробовала креативно выйти из сложившейся ситуации. Не очень понятно, идея ли это какого-то агентства или самой компании, но ответом стал минутный ролик, в котором Гвинет Пэлтроу сообщает, что компания попросила ее ответить на некоторые вопросы к компании, после чего сообщает — да, сервис компании идеально подходит для Apache Airflow, и да, на ближайшей конференции, которую организовывает компания, еще есть свободные места. Смонтировано прекрасно и выглядит иронично.

А если добавить, что Гвинет более 10 лет была замужем за … лидером группы Coldplay, разведясь с ним примерно 10 лет назад, ирония ролика начинает зашкаливать.

В США сейчас шумит Tea — приложение для женщин, где можно анонимно обсуждать мужчин из своего города. Неделю назад оно стало номером один в App Store. Четыре миллиона пользовательниц, 900 тысяч новых регистраций за несколько дней.

Правда, уже есть сообщения об утечке данных. По информации компании, хакеры (как минимум, несколько из них являются участниками 4chan) получили доступ к 72 тысячам изображений. В том числе 13 тысяч селфи и документов, которые женщины загружали при регистрации для подтверждения личности.

Создатель приложения — Шон Кук, мужчина, который говорит, что вдохновился после того, как его мать столкнулась с опасными знакомствами онлайн. Tea позиционируется как инструмент безопасности — можно проверить криминальную историю потенциального партнера, провести реверс-поиск фотографий.

На практике получилось иначе. Пользовательница из Кливленда рассказывает, что видит в приложении множество знакомых и шокирована тем, что о них пишут. По ее словам, платформа превратилась в место для сплетен, хотя могла бы реально защищать женщин.

Появилось и мужское приложение-ответ — Teaborn. Apple удалил его через пару дней после запуска. Создатели заявили об улучшенной модерации после того, как пользователи начали распространять revenge porn.

Конечно, несколько необычно видеть, как в связи с таким приложением вылезает проблема противоречия между безопасностью и приватностью, даже если не брать во внимание то, что реально получилось.

Оказывается, разговоры про необходимость корректировки бизнес-принципов от Дарио Амодеи были не просто так — Anthropic готовится привлечь от 3 до 5 млрд долларов. Оценка может вырасти с нынешних 61,5 млрд до более чем 150 млрд. Среди потенциальных инвесторов — фонд MGX из Абу-Даби, хотя раньше компания избегала денег с Ближнего Востока. MGX уже вкладывался в OpenAI и xAI, кстати говоря.

ARR Anthropic вырос в четыре раза за год — с 1 млрд до более 4 млрд долларов. В основном за счет корпоративных клиентов, на них приходится 80% выручки. Но все равно рост оценки в 2 с половиной раза — это супердостижение. Вполне заслуженно, впрочем.

Reuters выпустили расследование про то, как Маск в сентябре 2022 отключил Starlink над территориями, которые пыталась освободить Украина. Источники издания рассказывают, что он лично приказал инженеру SpaceX деактивировать терминалы в районе Херсона. И это сработало — украинские войска остались без связи, операция по окружению российских позиций в Бериславе сорвалась. Если помните, мы в это время даже возмущались, как российские войска смогли относительно безопасно убраться из Херсона.

Конечно, мотивы у Маска были вполне понятные — он, как и вся Америка, боялся ядерной эскалации. Как раз в те дни Путин объявлял частичную мобилизацию и грозился применить ядерное оружие. Не знаю, зачем Америке свое ядерное оружие — они же его так и не применят, поскольку помрут от ужаса.

Кстати, еще в марте этого года Маск писал в X: “Мы бы никогда такого не сделали”. А теперь выясняется, что очень даже сделали. Причем это первый известный случай, когда он напрямую вмешался в ход боевых действий. Потом последовали отключения покрытия над Крымом, чтобы помешать рейдам украинских беспилотных катеров.

Отдельно стоит отметить роль Польши — оказывается, именно она оплатила половину всех терминалов Starlink в Украине, потратив $89 миллионов. США тоже не остались в стороне — контракт Пентагона со SpaceX на поставку спутниковой связи составляет $537 млн. Но имидж Маска, которому все должны быть благодарны, как будто он за свой счет сюда терминалы поставлял, продолжает сохраняться.

Я, кстати, до сих пор оплачиваю ежемесячную подписку за Starlink, который мы с вами покупали осенью 2022 года, и передавали ребятам на Херсонском направлении. Это к вопросу о благотворительности Маска.

Meta прекращает прием политической рекламы в Евросоюзе с октября — компания заявила, что новое регулирование TTPA создает “непосильный уровень сложности”. Впрочем, они не первые. Google уже объявила об аналогичном решении.

Проблема в деталях. Регуляторы требуют раскрывать не только стандартную информацию о том, кто платит за рекламу, но и точные механизмы таргетинга, стоимость каждого размещения и связь с конкретными выборами или кампаниями. Для платформ с миллиардами объявлений это действительно сложно масштабировать.

Интересная деталь — Google вообще имеет богатый опыт блокировки политической рекламы. Бразилия, Франция, Канада — везде, где регулирование казалось слишком обременительным, они просто уходили с рынка политической рекламы. Теперь к этому списку добавится весь ЕС.

При этом органические посты о политике остаются. Кандидаты смогут писать что угодно, просто не смогут за это платить. Довольно любопытно, как это изменит предвыборные кампании — возможно, увидим возврат к более традиционным методам агитации. Или рост альтернативных платформ.

Anthropic с коллегами опубликовали исследование о том, что они назвали “subliminal learning” — подсознательным обучением языковых моделей. Суть в том, что модели могут передавать друг другу поведенческие черты через данные, которые никак с этими чертами не связаны.

Например, модель, которая “любит сов”, генерирует обычные последовательности чисел. Другая модель, обученная на этих числах, тоже начинает предпочитать сов в своих ответах. Никаких упоминаний сов в числах нет, но предпочтение передается.

Интересная деталь — это работает только между моделями с общей базой. GPT-4 может передать черты другой GPT-4, но не Qwen или Claude. Исследователи предполагают, что дело в модель-специфичных статистических паттернах.

Проблема в том, что таким же образом может передаваться и нежелательное поведение. Модель с проблемами в alignment может “заразить” другие модели через вполне безобидные на вид данные — числа, код, математические выкладки. И фильтрация тут не поможет, поскольку на семантическом уровне данные чистые.

Для индустрии это означает необходимость пересмотра практик дистилляции моделей. Простой фильтрации контента уже недостаточно. Нужны более глубокие методы контроля.

У меня есть отдельное развлечение — находить аналогии в человеческом поведении для всякого нового эффекта в LLM. Вот тут я сразу подумал о поведенческом таргетинге. Ведь его основная особенность заключается в том, что человека относят к определенному кластеру на основании поведения в онлайне и распространяют остальные характеристики кластера для показа ему рекламы. В итоге человек, регулярно посещающий страницы о финансах и новостях, в итоге увидит рекламу дорогих смартфонов — потому что остальные люди, посещающие эти страницы, посещают также обзоры дорогих смартфонов. И это только самый близкий пример.

Google запускает Web Guide — очередной эксперимент с AI-организацией поисковой выдачи. Gemini теперь будет группировать результаты по разным аспектам запроса.

Google как будто тестирует разные способы отойти от классических десяти синих ссылок. Интересная деталь про сложные запросы — Google прямо предлагает писать целые абзацы текста — мол, расскажите о проблеме подробно, а мы сгруппируем решения. Именно так рекомендуется поступать с reasoning моделями AI, что как бы намекает.

Впрочем, это все еще Search Labs, то есть эксперимент. Который может выйти в релиз, а может и остаться экспериментам.

Apple выпустила публичные беты новых ОС с дизайном “Liquid Glass”. iOS 26, macOS Tahoe 26, watchOS 26 — все теперь с единой нумерацией. Это именно public beta — всё, что вы могли поставить и посмотреть до этого, были версиями для разработчиков, стабильность которых по идее ниже. Впрочем, большого количества откровенных глюков я не заметил и в них.

В общем, теперь любой желающий может посмотреть и потестировать новые интерфейсы. Как правило, на этой стадии серьезных изменений с течением времени ждать уже не приходится и мы обычно можем себе представить, какой будет официальная версия, которую представят с новыми устройствами осенью.

Довольно примечательное письмо разослал Сатья Наделла сотрудникам Microsoft. CEO попытался объяснить, почему компания одновременно увольняет людей тысячами (более 15 тысяч с начала 2025 года) и вкладывает рекордные суммы в AI-инфраструктуру.

“Загадка успеха”, как он это называет. Хотя ранее президент Microsoft Брэд Смит в интервью GeekWire довольно прямо сказал — капитальные расходы в $80 млрд за год создают давление на операционные расходы. А в техкомпаниях это обычно означает сокращение персонала.

При этом Microsoft активно переманивает AI-специалистов, мало уступая в этом Meta. Financial Times насчитала более 24 человек из Google DeepMind, перешедших в Microsoft за последние полгода.

Внутри компании реакция неоднозначная. Джеймс МакКафри, бывший старший инженер-исследователь, написал, что Microsoft превратилась из хорошей компании в “позорную компанию с минимальной внутренней целостностью”. Сотрудники говорят о возвращении культуры страха после десятилетия “сострадательного лидерства” Наделлы.

Как тут не вспомнить статью Мэтта Столлера, которую я пересказывал буквально вчера — проблема не в AI, а в том, что компании просто нашли аргумент для оптимизации расходов.

По информации The Verge, OpenAI планирует запустить GPT-5 в начале августа. Модель несколько раз переносили с мая, но сейчас она проходит финальное тестирование. Сэм Альтман уже публично подтвердил скорый релиз и поделился впечатлениями от работы с системой.

GPT-5, как предполагается, объединит в себе возможности рассуждения из серии o3, становясь первой интегрированной моделью OpenAI. Вместо выбора между разными специализированными версиями пользователи получат универсальную систему. Доступны будут также версии mini и nano через API.

Кроме того, до конца июля OpenAI выпустит открытую модель — первую с публичными весами с 2019 года. Источники называют её “похожей на o3 mini” с возможностями reasoning. Ожидалось, что она будет выпущена раньше, но Альтман объяснял задержку с релизом тем, что компания хочет максимально оттестировать все возможные проблемы, поскольку после релиза она потеряет возможность контроля над использованием модели.

Google DeepMind опубликовал в Nature исследование о модели Aeneas — первой AI-системе для контекстуализации древних латинских надписей.

Модель обучили на 176 тысячах латинских надписей из Древнего Рима. Aeneas работает не только с текстом, но и анализирует изображения самих надписей — мультимодальный подход для определения географического происхождения. Точность восстановления поврежденных фрагментов составляет 73% для пропусков до десяти символов, что, кажется, впечатляет историков больше, чем технологов.

Исследователи провели эксперимент с 23 историками, работающими с эпиграфикой. Результаты показали, что наиболее эффективной оказалась совместная работа — когда специалисты использовали контекстную информацию модели вместе с собственной экспертизой. Один из участников отметил, что параллели, найденные Aeneas, “полностью изменили восприятие надписи”.

Google сделал модель доступной бесплатно через веб-интерфейс на predictingthepast.com и открыл исходный код.

Alphabet отчиталась за второй квартал результатами выше ожиданий — скорректированная прибыль на акцию составила $2,31 против прогноза $2,17, а доходы без учета комиссий партнерам достигли $81,2 млрд при ожидаемых $79,6 млрд. Доходы от рекламы выросли до $71,3 млрд против прогноза $69,6 млрд.

Впрочем, интереснее другое. Google увеличила прогноз капитальных расходов с $75 млрд до $85 млрд — дополнительные $10 млрд пойдут на развитие AI-инфраструктуры.

Google Cloud Platform показала доходы $13,6 млрд за квартал при прогнозе $13,1 млрд. Сундар Пичаи на звонке с инвесторами отметил, что годовая выручка облачного подразделения теперь превышает $50 млрд. В общем, это хорошо, хотя вряд ли GC обгонит AWS и Azure.

YouTube также превзошла ожидания с рекламными доходами $9,8 млрд против прогноза $9,5 млрд.

То есть финансово корпорация добра чувствует себя хорошо.

Администрация Трампа представила 23-страничный план развития AI в США, который предполагает существенное ослабление регулирования и расширение энергетических мощностей для дата-центров. План подготовил “AI-царь” Дэвид Сакс совместно с командой советников, включая Срирама Кришнана и Майкла Крациоса.

Любопытно, что документ требует от федеральных агентств закупать только те языковые модели, которые считаются “свободными от идеологических предрассудков”. При этом к числу предрассудков не будут относиться упоминания о дезинформации, разнообразии и климатических изменениях. Фактически это означает полный политики в области AI safety, осуществлявшейся при Байдене.

Интересный момент с финансированием — Белый дом планирует ограничивать федеральные гранты для штатов, которые введут “обременительные” правила для AI. Выглядит как еще одно проявление лоббизма Big Tech, которые до этого пропихивали поправку, запрещающую штатам 10 лет вообще регулировать AI.

В части конкуренции с Китаем план предлагает усилить экспортный контроль, оставляя детали на усмотрение министерства торговли. Учитывая, что неделей ранее это министерство разрешило Nvidia поставлять чипы H20 в Китай, скорее всего, этот контроль ограничится заявлениями без реального усиления. Подходящее объяснение уже есть — мол, частные послабления призваны сохранить конкурентоспособность американских компаний на китайском рынке.

Впрочем, наиболее практичная часть плана касается энергетики — развитие ядерной и геотермальной генерации для обеспечения дата-центров. Учитывая, что современные AI-системы потребляют энергии как целые города, это может стать ключевым фактором успеха всей инициативы.

Pew Research Center опубликовал исследование о том, как AI Overviews Google влияют на поведение пользователей. По данным анализа активности 900 американцев в марте, пользователи в два раза реже кликают на ссылки, когда на странице поиска появляется AI Overview — 8% против 15% без него.

Интересно, что пользователи практически игнорируют источники, указанные в самих сводках — только 1% кликов приходится на эти ссылки. При этом после просмотра страницы с AI-сводкой люди чаще завершают сессию браузера (26% против 16%), что говорит о том, что они получили нужную информацию прямо из резюме.

Кажется, мы наблюдаем классическую дилемму современного интернета. Google берет контент издателей, обрабатывает его через AI и выдает пользователям готовые ответы, но трафик к первоисточникам при этом падает почти вдвое. Издатели уже жаловались на снижение посещаемости — теперь есть конкретные цифры, подтверждающие их опасения.

Довольно показательно, что наиболее часто цитируемыми источниками в AI-сводках стали Wikipedia, YouTube и Reddit — платформы, которые и так не особо зависят от поискового трафика для монетизации. А вот новостные сайты составляют лишь 5% ссылок как в обычных результатах, так и в AI-сводках. При этом новостным сайтам поисковый трафик критично важен — так что, когда Google начнет расширять объемы показа AI Overviews с нынешних 15%, проблемы издателей только увеличатся.

Мэтт Столлер из BIG Newsletter опубликовал довольно интересную статью, критикующую распространенную панику, что AI заберет все рабочие места. По его мнению, проблема не в технологии, а в том, как американская экономика структурирована в принципе.

Довольно любопытно, что график падения трудоустройства выпускников колледжей, который часто приводят как доказательство влияния AI, на самом деле показывает спад задолго до появления ChatGPT. Кроме того, профессии, которые якобы вот-вот исчезнут из-за автоматизации — например, бухгалтерский учет — испытывали проблемы и раньше. Как правило, это были низкие зарплаты, высокая нагрузка, снижение статуса.

Столлер приводит примеры того, как компании используют AI скорее как предлог для старых практик. Meta, по его словам, обучала модели на пиратском контенте — не покупала книги, а использовала украденные копии. Google поглощает контент сайтов через свой AI Now, но издатели не могут объединиться для переговоров из-за антимонопольного законодательства.

Особенно показателен пример с небольшим консалтинговым бизнесом, который Столлер описывает со слов владельца. AI действительно сократил время выполнения задач на 40%, но цены не снизились, а зарплаты не выросли — просто потому что рынок неконкурентный. В теории повышение производительности должно приводить к снижению цен или росту доходов работников. Но это работает только в условиях конкуренции.

Впрочем, основной тезис Столлера кажется вполне здравым — американская экономика последние десятилетия настроена на максимизацию доходности капитала, а не на благосостояние работников. AI просто очередной инструмент в этой логике.

Здесь, конечно, надо учитывать, что Мэтт Столлер — юрист, специализирующийся на антимонопольных вопросах и свою антимонопольную позицию последовательно высказывает в своей рассылке. Так что сделайте поправку на условный Карфаген, который будет им упомянут всегда.

Статья за пейволом, поэтому я постарался пересказать основные тезисы здесь.

Великобритания планирует официально запретить государственным организациям и критической инфраструктуре платить выкупы кибербандитам. Под запрет попадают местные советы, школы и NHS, которые в последние годы регулярно становились мишенями для атак.

Частным компания платить не запрещено, но они будут обязаны уведомлять правительство о намерении заплатить выкуп. Власти планируют консультировать их о том, не нарушают ли такие платежи санкционное законодательство — довольно прозрачный намек, учитывая, что многие группы базируются в России.

Решение выглядит слегка странным. Я пытаюсь себе представить, как условный Вася или Коля из Москвы запускает крипточервя и планирует: “Так, больницу св.Анны в Эдинбурге атаковать нет смысла, даже если зашифровать всё, там в попечительском совете вредный дед, который ни за что не согласует выплату. Лучше на Costa Coffee буду целиться”. Мне почему-то кажется, что Васе с Колей эти запреты до лампочки.

А активнее заняться кибербезопасностью в потенциальных объектах атак это, конечно, может заставить, но это ведь тоже функция от бюджета и уровня специалистов, а не желания директора больницы.

Впрочем, как показывает опыт с недавними атаками на Marks & Spencer и Co-op, частный сектор может стать еще более привлекательной мишенью. И тут уже выбор останется за каждой компанией — платить или не платить, предварительно уведомив правительство о своих намерениях.

Qwen представил Qwen3-Coder — модель с 480 миллиардами параметров для программирования, которая показывает результаты, сопоставимые с Claude Sonnet 4 на задачах генерации кода и работы с инструментами. Модель поддерживает контекст до 256 тысяч токенов нативно и до миллиона с методами экстраполяции.

Довольно любопытно, что для обучения использовали 7,5 триллиона токенов с 70-процентным содержанием кода. Это заметно больше, чем у большинства конкурентов. Еще интереснее подход к очистке данных — разработчики использовали предыдущую версию Qwen2.5-Coder для переписывания “шумных” участков кода в обучающей выборке.

Команда разработчиков решила не заниматься построением экосистемы с нуля, а сделала форк Gemini Code под названием Qwen Code, и обеспечила совместимость с Claude Code.

Тут у меня, как у потребителя, возникают сложные ощущения — с одной стороны, попробовать хочется всё, с другой — менять рабочий инструмент, которым является Claude Code, не очень хочется.

Но попробовать можно — на chat.qwen.ai хоть сейчас.