Странный опыт с Qwen
Мне всегда немного сложно, когда выходит новая модель — надо бы как-то протестировать, но что спросить, непонятно.
В общем, я решил спросить у Qwen 3.6 самое простое — знает ли модель про свое существование и когда она закончила обучаться.
Локальная модель qwen-3.6-27B с контекстом на 4k токенов с ответом не справилась — она пару минут раздумывала, как бы ей точно сформулировать ответ и я в итоге остановил вывод.
После увеличения контекста до 120k токенов, модель думала всего 50 секунд и в итоге ответила.

Тут, конечно, надо сказать, что модель заняла 10 гигабайт памяти в моем ноутбуке и скорость генерации не впечатляющая. Но ответ на qwen.ai меня разочаровал еще сильнее — он тоже занял не один десяток секунд и выглядел вот так:

Я понимаю, что по одному вопросу нельзя судить о модели, тем более сейчас, но теперь мне еще сложнее придумать новые вопросы.
Telegram: 24 апреля 2026
Сегодня в Telegram-канале:
- DeepSeek выложили preview V4 — две MoE-модели: Pro (1.6 трлн параметров, 49 млрд активных) и Flash (284 млрд, 13 млрд ак…
- Amazon и Meta заключили многолетний контракт на несколько миллиардов долларов: Meta арендует сотни тысяч процессоров Gra…
- X выпустили наконец обещанное приложение XChat для iPhone и iPad.
Telegram: 23 апреля 2026
Сегодня в Telegram-канале:
- Команда Qwen выложила в открытый доступ Qwen3.6-27B — плотную мультимодальную модель на 27 миллиардов параметров, котора…
- Практически вдогонку предыдущей новости — теперь можно Claude Cowork развернуть на сторонней инфраструктуре, подключив е…
- Вслед за сгенерированным видео и генерируемыми интерфейсами видеоигр пришла очередь интернета.
- CATL показала третье поколение литий-железо-фосфатного аккумулятора Shenxing, который заряжается с 10 до 98% за 6 минут …
- Apple выпустила внеплановые обновления iOS 26.4.2, iPadOS 26.4.2, iOS 18.7.8 и iPadOS 18.7.8, закрывающие уязвимость CVE…
- OpenAI представила GPT-5.5 и GPT-5.5 Pro для подписчиков ChatGPT и Codex на планах Plus, Pro, Business и Enterprise; API…
Flipbook — генерация интернета на лету
Интересный эксперимент, в котором весь веб-интерфейс — это изображения, генерируемые image-моделью на лету. Никакого HTML, никакого кода: клик по элементу приводит к генерации новой картинки, раскрывающей эту тему. Даже текст рендерится как пиксели внутри изображения. Источник данных — сочетание agentic web search и мировых знаний модели. Авторы позиционируют это как альтернативу «стенам текста и цветным прямоугольникам».
Я попробовал поискать в нем — задержки заставили вспомнить модемный интернет, причем далеко не по протоколу V90, если вы помните, что это такое.

Telegram: 22 апреля 2026
Сегодня в Telegram-канале:
- SpaceX заявила о соглашении либо выкупить AI-стартап Cursor за 60 миллиардов долларов до конца года, либо выплатить 10 м…
- Google представила новое поколение своих тензорных процессоров — TPU 8t для обучения моделей и TPU 8i для инференса, ано…
- Mozilla сообщила, что в Firefox 150 закрыта 271 уязвимость, найденная ранней версией Claude Mythos Preview от Anthropic.
- Стартап Миры Мурати Thinking Machines Lab подписал с Google Cloud соглашение на сумму в несколько миллиардов долларов на…
- Возможно, вам покажется, что я троллю тех, кто доказывает, как хорош GPT 5.4 и как наоборот — Claude Code, но я практиче…
- OpenAI представила workspace agents — корпоративные агенты в ChatGPT, подразумевается, что это эволюция GPTs.
Попытка использовать OpenCode/GPT
Я далеко не такой упертый пользователь Claude Code и регулярно пробую что-то новое. Потестировав Codex и убедившись, что он не дотягивает до нужного мне уровня, я решил посмотреть на, пожалуй, один из самых серьезных агентов — OpenCode. Там есть много похожего на Claude Code, что-то реализовано иначе, но тоже неплохо — в общем, почему бы не попробовать?
Сначала он упал. Точнее, на любой запрос выдавал стек ошибок и останавливался. Я удалил конфиг вообще, запустил его, показал ему настройки Claude Code и предложил портировать. Он перенес часть настроек и после рестарта (а OpenCode не подгружает изменения сам) упал опять. Пришлось позвать Claude Code, который определил, что проблема в плагине Claude-mem — тот хоть и заявляет поддержку OpenCode, но не очень про нее знает. Заодно Claude Code выяснил, что никакие настройки OpenCode с GPT не перенес — он просто в конфиге сослался на файлы Claude Code, перед этим запланировав именно миграцию, а не подключение.
ОК, через некоторое время работы Claude Code конфигурация была портирована и OpenCode запустился. Я предложил ему самому перенести MCP серверы и приключения продолжились — сначала он перенес только те, что были указаны в проектах, а глобальные проигнорировал. Затем он перенес глобальные и начал настаивать, что вот тут токены в конфиге, их надо ротировать обязательно, они уже скомпрометированы, и вообще указать в окружении. Я согласился перенести в окружение, он сделал — и они не заработали. Оказывается, он нафантазировал фрагмент конфига. Конфиг он поправил — все это сопровождается постоянными рестартами для переподключения, — теперь надо бы протестировать. Я даю URL для проверки Cloudflare Browser Rendering — это фактически Chrome в облаке Cloudflare. Дальше смотрите скриншоты.






В сухом остатке — он попробовал практически способы прочитать веб-страницу, кроме того единственного, который тестировался. Ну, я не знаю, что можно сказать по поводу веселого розыгрыша, что эта модель хорошо следует инструкциям.
Даже не сомневаюсь, что мне объяснят, что я не умею использовать AI. Можно начинать.
Telegram: 21 апреля 2026
Сегодня в Telegram-канале:
- Apple объявила, что Тим Кук 1 сентября 2026 года уйдёт с поста CEO и станет исполнительным председателем совета директор…
- GitHub приостановил новые регистрации на платные тарифы Copilot — Pro, Pro+ и Student, ужесточил лимиты использования и …
- Агентство национальной безопасности США использует Mythos, несмотря на то что министерство обороны внесло этот продукт в…
Сравнение возможностей Codex и Claude Code
В ходе обсуждения предыдущей заметки в чате телеграм-канала прозвучало заявление, что Codex — намного более качественный агент, чем плохо написанный Claude Code, качество которого (вместе с моделью LLM) постоянно деградирует.
Я последние несколько месяцев регулярно сравниваю разные агенты — и чтобы просто знать, и чтобы пробовать применять на практике, — и как раз относительно недавно такой анализ делал. По его результатам выходило, что Codex, конечно, неплохо стал развиваться, но многие возможности Claude Code в нем отсутствуют. Отступая в сторону, могу сказать, что действительно хорошо развит OpenCode, хотя у него есть некоторые ограничения, и есть еще Pi, который по определению можно настроить как угодно, поскольку его идея в том, что он сам себя дописывает.
Впрочем, проверить не мешает. Проверка получилась простой — я запустил codex cli прямо в его директории ~/.codex и дал ему проанализировать три источника — его собственные настройки, официальную документацию (у него есть встроенный скилл openai-docs плюс я дал сайт) и настройки Claude Code. Задача выглядела просто — проанализировать все настройки и предложить, как портировать настройки Claude Code в Codex.
У меня очень солидно навороченные настройки в Claude Code — специализированные агенты, скиллы, гибкая система разрешений, хуки, которые запускают проверки и линтеры, блокируют опасные команды, вставляют нужный контекст в особых случаях и сложная система промптов, которые подгружаются по необходимости. Так что задача не была простой, конечно, но она вполне реальна — я использую Codex для ревью проектов и в качестве “второго мнения”, поэтому логично держать его настроенным так же хорошо, как и основного агента.
К сожалению, совсем так же хорошо не получается. Вот краткий список того, что перенести не получается:
- реализация hooks в Codex пока экспериментальная и минимальная. Фактически они срабатывают только на bash команды, поэтому получится только перехватить опасные команды, но запуск линтера или форматтера при редактировании кода не получится. Технически можно запустить отдельный процесс, который будет отслеживать изменения файлов, прогонять проверки и писать результат в отчет, а по событию Stop будет срабатывать хук, который допишет этот результат в контекст, но это обходной вариант. Отпадают и другие срабатывания, которые я использую.
- аналога /rules в Codex нет. В Claude Code это отдельная папка с промптами, которые подгружаются в контекст автоматически, когда Claude работает с соответствующими файлами. Например, отдельный файл у меня содержит инструкции по написанию Python-скриптов и эти инструкции агент читает, только приступая к работе с Python кодом. Часть инструкций загружаются всегда, часть — только при обращении к определенному MCP и так далее. В Codex такое невозможно — общие рекомендации можно прописать в AGENTS.md, что-то специфическое для кода можно вынести в skill, допустимо создать профили, но переключать их придется вручную.
- Skills просто так скопировать не выйдет. Скиллы в Codex фактически являются только инструкциями для использования основным агентом. В Claude Code можно задать скиллу параметр context:fork для запуска в отдельном контексте, назначить тип агента, модель для использования и даже глубину размышлений. Это позволяет не заморачиваться, если вам надо просто обработать специфический тип данных — основной агент использует скилл, который запускается как отдельный субагент, например, general-purpose, с быстрой моделью и возвращает только результат. В Codex так не выйдет — придется конфигурировать специального субагента и запускать именно его. Не очень критично, но все же дополнительные усилия.
- Сильно отличается система разрешений. Claude фактически оперирует разрешениями для конкретных tools, что делает контроль очень точечным и понятным в разрезе именно команд. Кстати, сейчас появился режим auto, где модель сама решает, насколько безопасна команда и решает достаточно неплохо — правда, уж если она знает, что это мутирующая команда (git push, например), запустить ее получится только самому пользователю. У Codex совсем не так — там задается sandbox и внутри нее по умолчанию модель работает, спрашивая разрешение только на запуски что-то изменяющих скриптов. Явно понадобится разрешить также доступ в сеть, можно прописать режим запуска команд вне sandbox. Выглядит вроде бы жестче и системнее, но по удобству Claude выглядит лучше.
В общем, какой-то порядок с настройками Codex я навел, но дотянуть его до уровня Claude Code не получилось. Подождем доработок, кажется, разработчики там достаточно активны.
Чудо уговаривания LLM
Наткнулся в Facebook на характерную запись.

С одной стороны, меня очень радуют подобные вещи — они показывают, что количество людей, которым понадобятся мои объяснения, как именно надо использовать AI, уменьшаться в обозримой перспективе не будет. Кроме того, это подтверждает мое мнение о людях, которые считают программирование достаточным признаком инженера — у автора тоже написано в профиле software engineer, хотя второе слово явно не имеет к нему отношения.
С другой стороны, слегка утомителен тот факт, что до подобных откровений приходится буквально докапываться через бронебойную уверенность, что “AI это просто генератор случайных токенов”, “AI вам ничего не напишет”, “Вы еще придете просить, чтобы мы разобрались с вашим вайб-проектом”.
Проблема, описанная в записи, решается за минуту конфигом Claude Code — в settings.json надо указать явно:
{
"permissions": {
"ask": [
"Bash(git commit *)",
"Bash(git * main)",
],
"deny": [
"Bash(git push *)"
]
}
}
После этого агент будет обязательно спрашивать всякий раз перед коммитом, даже если ему разрешены все правки, и не сможет сделать push, который часто запускает деплой. Если вы используете что-то свое для деплоя — укажите именно этот скрипт.
Более того, в Claude Code есть хуки, которые позволяют еще раз запретить запуск опасных команд.
"PreToolUse": [
{
"matcher": "Bash",
"hooks": [
{
"type": "command",
"command": "if echo \"$CLAUDE_TOOL_INPUT\" | grep -qiE '(deploy.sh|git.*push)'; then echo 'BLOCK: Deployment commands require explicit user approval' >&2; exit 2; fi"
},
}
]
Есть очень простой принцип, который стоит запомнить при управлении агентами — всё, что вы пишете в промпте, это просьба к LLM, максимум приказ, а всё, что вы настраиваете в settings агента, — это физический запрет или разрешение совершать действия. “Инженер” на скриншоте занимается тем, что уговаривает недетерминированную модель, вместо того, чтобы использовать гарантированные методы управления.
Перефразируя фразу про магию и физику — никогда не читайте документацию по настройке агентов и жизнь ваша наполнится чудом уговаривания LLM. Ах, да, ему же приключений хочется — ну, так они ему будут.
Telegram: 20 апреля 2026
Сегодня в Telegram-канале:
- Тут в Vercel утечка — кто-то получил доступ через OAuth-приложение стороннего AI-сервиса Context.ai, к которому был подк…
- По данным Марка Гурмана, тизер Apple к WWDC 2026 содержит визуальные намёки на радикально переработанный интерфейс Siri …
- Федеральная канцелярия Швейцарии сообщила газете NZZ am Sonntag, что правительство намерено постепенно снижать зависимос…
- Исследование Национального бюро экономических исследований, с опросом 6000 руководителей в США, Великобритании, Германии…
- Канцлер Германии Фридрих Мерц на открытии Hannover Messe 19 апреля заявил, что намерен добиваться смягчения регулировани…
- Теперь у Google code red — компания собрала специальную группу внутри DeepMind для ускоренной доработки моделей Gemini в…
- WhatsApp тестирует платную подписку WhatsApp Plus, которая даёт пользователям кастомные темы, рингтоны, иконки, расширен…
Сходил в Точку
Пришлось, правда, обсуждать интересные ходы по монетизации Telegram путем блокировок и наследников Пятого управления КГБ СССР, но рассказал о своем опыте с Claude Design — именно из того клиента, который я там показываю на скриншотах, я сейчас и пишу эту запись.
Выбор AI между консерваторами и правыми
Статья о парадоксе — хотя большинство риторики против AI звучит от левых политических кругов — представителей американских демократов, например, по сути это консервативные аргументы.
Аргументы действительно неплохие. Например, обвинения в несоблюдении авторского права, которые выдвигают сторонники левых взглядов, плохо согласуются с их собственной позицией несколько лет назад, когда патенты и копирайт представлялись как средство обогащения корпораций. Возражения против генеративного искусства скорее свойственны консерваторам. И вообще, мол, тормозить прогресс — это консервативная идея, а не либеральная.
Хорошо подмечено, что сами AI модели скорее склонны к левым взглядам — что объясняется просто более заметным присутствием соответствующего контента в обучающей выборке.
Автор в итоге приходит к простому объяснению парадокса — просто за AI выступает Трамп и большинство основателей и топ-менеджеров крупных компаний, разрабатывающих AI, очевидно склонились вправо после 2024 года, поэтому их политическим оппонентам удобно выступать против AI.
Мне кажется, что это упрощение. AI как заменитель большого количества сотрудников, как очень производительный ассистент и вообще с экономической точки зрения — это мощный импульс развития средств производства, то есть бизнеса. Забота о сохранении рабочих мест и вообще прав сотрудников — это как раз левая идея, профсоюзы и так далее. Поэтому при всем нежелании быстрых перемен, которое обычно приписывают консерваторам, приверженность экономической свободе — это очень правая идея.
Переезд с DigitalOcean на Hetzner
Наткнулся на статью о том, как турецкая компания перенесла свои проекты с большого дроплета DigitalOcean (192GB RAM, 32 vCPUs, 600GB SSD, two block volumes (1TB each)) на отдельный сервер на Hetzner и получила даже больше мощности за кратно меньшую цену — 233 доллара в месяц против 1432 на DO.
Почему-то это вызывает дискуссию, что Cloud дороже, чем dedicated сервер. Во-первых, конечно, дороже — в Cloud вы платите дополнительные деньги потому, что покупаете только нужную часть, вместо целого сервера, и при этом оставляете возможность практически мгновенно увеличить мощность при необходимости.
Во-вторых, сравнивать DigitalOcean с Hetzner напрямую не стоит. Hetzner супердешев по определению, у них ниша такая.
Я как раз последнее время занимался примерно тем же — когда мне осенью понадобился VPS в Европе для запуска нескольких скриптов, я попробовал Hetzner, рассуждая, что мне не нужна идеальная надежность и прочее, мне просто нужна виртуалка на широком канале в европейской стране. Результат мне так понравился, что в последние пару месяцев я перенес все мелкие проекты с нескольких дроплетов в DO на один VPS на Hetzner. Теперь вместо нескольких инстансов общей стоимостью около 30 долларов, причем там были в основном 1CPU/1GB RAM или 2CPU/2GB RAM, у меня есть один VPS с 8 ядрами и 16 гигабайтами памяти, за 12 евро в месяц, который я не знаю чем нагрузить — там несколько тестовых агентов типа OpenClaw, там мой собственный n8n, пара runner-ов для GH Actions и нагрузка около пары процентов в среднем.
Но это такой же VPS, а не выделенный сервер. Просто это Hetzner, который всегда был очень дешевым и остался таким, даже с апрельским небольшим повышением цен.