MemPalace показывает 96,6% в LongMemEval (benchmark (тест производительности) по памяти) и при этом остаётся бесплатной. Проект хранит все диалоги локально, без отправки в облако, и делает их обратно доступными за секунды. Если вы каждый день теряете важные решения в чатах с AI, это меняет работу команды кардинально.
В реальных проектах 6 месяцев переписки — это около 19,5 млн токенов (текстовых единиц). Без памяти вы начинаете повторять одни и те же споры по новым сессиям. MemPalace закрывает эту дыру: запомнить всё, а не только выводы.
Что реально меняет MemPalace: память не пропадает после закрытия сессии

Обычный сценарий выглядит так: вы обсуждаете архитектуру, закрываете диалог, и через 2 дня уже не помните, почему выбрали именно этот путь. MemPalace считает это болезнью рабочих процессов, а не нормой. Она сохраняет всё и строит структуру, где каждое решение можно быстро найти.
По данным репозитория, проект обрабатывал свыше 22 000 фрагментов разговоров и показывал 34% плюс к точности поиска за счёт структуры. Здесь нет магии: просто хорошая организация памяти вместо случайного «поиск по ключам» в огромных папках.
- Архитектура памяти: wing (раздел проекта/человека), hall (тип памяти: решения, события, находки), room (конкретная тема, например auth-migration), и tunnel (связь одинаковых тем между разделами).
- Полный контур: в closet (компрессированные заметки) и drawer (оригинальные файлы) система хранит сначала быстрое резюме, потом точный источник.
- AAAK (язык сжатия для AI без потери смысла) даёт до 30x компрессии и оставляет исходные смыслы восстановимыми.
- Поиск по трем режимам: проекты, разговоры и общий анализ решений в формате decision/milestone/problem.
В этой модели AI не решает за вас, что удалить как «несущественное». Вы сохраняете весь контент, а система помогает найти нужное место без штурма больших архивов.
То есть MemPalace не заменяет reasoning (логическое мышление) вашей команды, а снимает рутину по памяти. Вы тратите меньше времени на повтор и больше на новые решения.
Что умеет MemPalace в работе: от импорта чатов до поиска «кто и почему выбрал Clerk»
Установка занимает пару строк: pip install mempalace, затем mempalace init и mempalace mine. После этого ваши разговоры и документы грузятся в локальный индекс и могут быть доступны и в AI-диалоге, и вручную через поиск.
- Три способа маппинга: проекты, конвертации файлов разговоров, общий режим классификации на решения/проблемы/предпочтения.
- Поиск: команда может спрашивать, где обсуждали миграцию авторизации или выбор платежного провайдера, и получать прямые цитаты.
- Работа с локальными моделями: совместимость с Llama, Mistral и любым текстовым ядром без облачных вызовов.
- MCP-интеграция (Model Context Protocol — протокол передачи контекста между моделью и инструментом) позволяет подключать Claude или ChatGPT к поиску одним вызовом.
| Уровень памяти | Объём | Когда грузится |
|---|---|---|
| L0: кто это | ~50 токенов | всегда |
| L1: критичные факты | ~120 токенов (AAAK) | всегда |
| L2: комнатный recall | по запросу | при теме диалога |
| L3: глубокий поиск | по всем closet | по явной команде |
Результат простой: вместо 19,5 млн токенов в одной длинной памяти даётся около 170 токенов базового контекста на запуске. Далее система достаёт детали только по факту запроса.
С точки зрения скорости, это особенно заметно на инженерных срезах: меньше ручного пересмотра диалогов, больше фактов в ответе.
Сколько стоит: бесплатный вход, нулевая подписка, реальные цифры в годовой смете
У MemPalace нет подписки, нет платного API-шлюза, и проект остаётся open source (открытый код). Экономия здесь не в лозунгах, а в счёте: вы платите в основном за инфраструктуру, а не за доступ к памяти.
- Подписка: $0, без ограничения по базовой лицензии.
- Помесячные облачные затраты: $0, потому что всё запускается локально.
- Пороговый wake-up: около 170 токенов критического контекста и порядка $0,70 в год по расчётам из обзора.
- Если сделать 5 активных поисковых запросов: примерно $10 в год на обработку расходов.
- Классический путь с LLM-сводками: 650k токенов и около $507 в год, но с потерей деталей.
В этом месте важно одно: дешевле не значит хуже, если вы не теряете «почему» за «что». MemPalace удерживает исходные формулировки и даёт сжатые маркеры для скорости.
Официальный репозиторий и быстрый старт доступны на GitHub проекта MemPalace. Подключайте только проверенную ветку и тестовый каталог, чтобы не залить в память мусор.
Кому реально полезен MemPalace: кому его стоит тестировать в первую очередь
Инструмент особенно выстрелит там, где решения создаются в диалоге, а не в ticket-системе. Это не про красивый интерфейс, а про непрерывность знания в команде.
- Предприниматели: меньше времени тратится на восстановление контекста после паузы, быстрее запускаются новые циклы продаж и продукта.
- Маркетологи: копирайтинг на основе прошлых решений становится быстрее, меньше повторов в рекламных гипотезах.
- Разработчики: архитектурные споры остаются проверяемыми через архив, а не уходят в «я думал» и «ты же это решал».
- Лидеры команд: видят, какие решения принимались, кем и почему, прямо в запросе AI.
- Продуктовые и аналитические команды: можно строить непрерывную память между sprint, без потери фактов и метрик.
Ответ на вопрос «стоит ли тратить время на тест?» короткий: да, если у вас есть хотя бы один человек, который теряет час на пересбор истории проекта в неделю. Если таких три и больше, выгода уже считывается в первые дни.
Неожиданная часть в том, что MemPalace нарастает не через модные модели, а через методологию памяти. Система, которая помнит «почему» в каждом диалоге, делает AI полезнее, даже если сам мозг модели остаётся тем же.