MemPalace добился 96,6% на LongMemEval R@5 в raw-режиме, то есть на тесте качества запоминания.
Пятьсот вопросов обработали без облачного API, и всё работает локально на вашей машине.
Для тех, кто теряет важные детали после каждого диалога с AI, это больше чем удобство, это контроль рабочего контекста.
Проблема, из-за которой AI-память ломается прямо в реальных командах

Вы разговариваете с AI 20 дней подряд, закрываете задачи и на следующий день начинаете с нуля.
Шесть месяцев переписки превращаются в 19,5 млн токенов, которые не влезают в контекстную память модели.
Модельские сводки экономят место, но выкидывают важный контекст: почему выбрали технологию, а не просто какой флаг.
У MemPalace другая логика: не решать, что важнее, а хранить всё.
Система сохраняет разговоры в исходном виде и уже потом делает поиск по структуре, а не в одной плоской куче.
Поэтому вопрос «почему мы выбрали Postgres» остаётся связанным с полным разговором, где это решение возникло.
Что умеет MemPalace: архитектура как цифровой дворец памяти
Проект строит несколько слоев памяти, которые помогают быстро находить нужную идею даже через месяцы.
- Wing (раздел): человек или проект, например авторы, продукт, клиент.
- Room (комната): конкретная тема внутри раздела, например auth-migration или CI pipeline.
- Hall (коридор): связь между типами обсуждений внутри одного проекта.
- Closet и Drawer (шкаф и ящик): компрессия индекса и оригинальные файлы без потери источника.
Три режима загрузки закрывают разные типы данных: проекты, беседы, и общий режим с разметкой решений, milestone и эмоций.
- projects — код, docs, notes в вашем локальном дереве.
- convos — экспорт чатов Claude, ChatGPT, Slack и похожих источников.
- general — автоматическое деление на решения, приоритеты, проблемы.
Интеграция идёт через MCP (протокол инструментального подключения моделей). С ним Claude, ChatGPT, Cursor и Gemini получают 19 встроенных инструментов и не требуют ручного поиска.
Если модель не поддерживает MCP, есть wake-up режим: команда формирует около 170 токенов критики (в AAAK формате или raw), и контекст подаётся в системный промпт локальной модели.
Есть и прозрачный технический блок.
- Чем лучше: в raw-режиме без компрессии сохранён recall 96,6%.
- Что хуже стало позже: AAAK (сильная компрессия) на 84,2%, если важна точность.
- Что признали честно: ранние формулировки в README были переобещаны и сейчас уточняются.
| Режим | Рекорд/метрика | Открытость и цена | Когда выбирать |
|---|---|---|---|
| raw verbatim | 96.6% LongMemEval R@5, 500 вопросов | 0$ подписки, локально, без облака | Когда нужна максимальная точность фактов |
| AAAK (эксперимент) | 84.2% R@5; регресс по сравнению с raw | Компрессия ценой потери плотности фактов | Большие объёмы повторяющихся сущностей |
| MCP Search | Нужен только для сценариев запросов в реальном времени | Интеграционный контур в Claude/Chat/Cursor | Ежедневный диалог команды с AI в разработке |
Стоимость, бесплатный вход и как считать окупаемость по-умному
На старте MemPalace бесплатен и не берёт подписку, если вы держите всё локально.
Ваша экономия считается в потерянных затратах на ручное восстановление контекста.
- 0$ — подписка и API от сервиса.
- ~19,5 млн токенов за полгода не влезает в модельный контекст.
- ~170 токенов критики можно подать локальной модели при старте диалога.
- Пять точечных поисков дают около 13 500 токенов, а не огромный перегенеративный переподтяг.
- Сравнение в README показывает: для резюмированного подхода это порядка 10$ в год вместо 507$.
Снижение затрат работает, если вы не только храните, но и реально используете поиск перед каждым повтором решения.
Кому это сейчас действительно полезно и стоит ли тратить 20 минут на тест
Если у вас есть проектные решения, которые теряются после сессии, этот инструмент прямой кандидат.
- Предпринимателям: сохранять историю стратегических решений без утечки в облако.
- Разработчикам: не терять спорные архитектурные решения при переключении между задачами.
- Маркетологам: держать связный бэкграунд решений по позиционированию и экспериментов.
- Тим-лидам: быстро находить, где и почему приняли конкретный технический компромисс.
- Командам, работающим офлайн: всё на машине, без третьих сторон.
Источник с исходным кодом и инструкциями — GitHub проекта.
Тестируйте 7 дней, 30 задач и 3 поиска в день. Если каждый день не возвращает время, не масштабируйте.
Итог не про модную память, а про новую дисциплину: если информация никогда не уходит в вакуум сессий, AI перестаёт быть шумом и становится рабочим членом команды.