MemPalace и Милла Йовович
Если вы интересуетесь темой AI агентов, то вы не могли не слышать про хайповый проект этой недели — MemPalace от Миллы Йовович и Бена Сигмана. В течение недели ситуация вокруг этого проекта изменялась, так что стоит разобраться подробнее. Тема памяти для агентов практически так же много обсуждается в сообществе, как и сами агенты. Пока горизонт использования агентов ограничивался сессией с периодической фиксацией результатов, это не было очень большой проблемой — казалось, что достаточно завершать сессию сохранением дайджеста и, возможно, обновлением каких-то фактов в проекте в целом. Но сегодня объем проектов сильно вырос, всё чаще агенты работают очень долго, а то и постоянно, и на примере того же OpenClaw понятно, что простых решений мало. Просто вы через несколько дней что-то спрашиваете у того же агента, а он не помнит ничего из прошлой беседы.
Я уже разбирал популярное решение в виде QMD, но это просто поисковик по локальным файлам. Есть масса решений, которые много обсуждаются, но пользы от этого мало. Так что новое решение, да еще и снабженное селебрити-эффектом (ну, кто может себе представить актрису с аккаунтом на GitHub?), было обречено на хайп.
Надо сказать, что идея и несколько технических решений, описанных в README проекта, выглядели интересно. Концепция античной библиотеки, где все накопленные знания разложены по комнатам, по крайней мере, нова (если так можно говорить об античности). Вся история чатов никак не обрабатывается и просто сохраняется в векторную базу ChromaDB, а затем LLM просто ищет в ней, используя предварительные фильтры по иерархической структуре. Это ускоряет поиск по векторной базе, но она при этом единая для всех проектов и разделов проектов.
Кроме того, проект описывал экспериментальный алгоритм сжатия AAAK, позволяющий достигать до 30х сжатие, с которым LLM работают нативно, а так же процедуру проверки фактов, которая автоматически помечает актуальность данных в базе.
Правда, если посмотреть не README, а код, то картина менялась, включая бенчмарки. Оказалось, что AAAK — не lossless сжатие, а наоборот. Проверки фактов просто нет — fact_checker.py упоминается, но отсутствует в коде. Knowledge graph вообще заявлен, но не используется. Все равно хорошо работает использование ChromaDB с предварительным фильтром, но этого мало для отдельного проекта. Но вот что удивительно — на волну критики авторы проекта среагировали. Пару дней назад в README добавили заявление авторов, а кроме этого в проекте появилось много изменений.
В заявлении Милла и Бен прямо признали все проблемы — отсутствие реализации факт-чекинга, завышение ряда бенчмарков, захардкоженные параметры и так далее. Они убрали завышенные параметры из документации, пообещали добавить отсутствующие компоненты, а Бен сделал несколько серьезных исправлений, связанных со стабильностью и безопасностью проекта.
Мне все равно кажется интересным посмотреть на идеи и концепции, заложенные в проекте — и не только в этом. Если вы долго занимаетесь использованием агентов и что-то правите под себя, достаточно быстро вы получите очень “свой” набор настроек, памяти, прочей инфраструктуры и столкнетесь с невозможностью просто взять стороннее решение и воткнуть у себя. Поэтому у вас два варианта действий — либо вообще игнорировать все проекты после какого-то уровня развития, либо, наоборот, активно смотреть на всё и примерять любые идеи к своей системе, разбирая их до фрагментов файлов.
Так что и из этого проекта я вытащил пару фрагментов — хотя отдельный пакет с ChromaDB мне не нужен, — и применил у себя. А дальше посмотрим на развитие и что у них еще появится, если вдруг.