Что Anthropic на самом деле выкатила
Я полез в описание фичи, потому что заголовок звучит громко, а дьявол тут как раз в деталях. В начале марта 2026 Anthropic открыла в Claude функцию Memory Import, и это не просто “вставь чат целиком”. Claude принимает экспорт из другого AI-сервиса, перерабатывает его и превращает в собственные объекты памяти.
То есть это не буквальный перенос один в один. Я бы назвал это интерпретируемой миграцией: вы даёте материал, Claude вытаскивает из него устойчивые факты, предпочтения, рабочие привычки, детали проектов и сохраняет это как свои memory edits.
Импорт запускается вручную через Settings → Capabilities → Memory. Anthropic даёт специальный prompt для запроса экспорта у другого провайдера, либо можно принести Markdown руками. После вставки Claude показывает изменения, их можно проверить через Manage edits, а сама память может доехать не мгновенно, а в течение 24 часов.
Вот здесь я сразу поставил мысленную пометку: это удобно, но не детерминировано. В документации прямо сказано, что фича экспериментальная, не каждая запись будет перенесена, и Claude лучше держится за рабочий контекст, чем за личные заметки “на всякий случай”.
Почему это цепляет именно в dev и агентных сценариях
Меня в этой новости зацепила не сама “память”, а снижение friction при смене инструмента. Если у команды накоплен слой привычек, naming conventions, детали архитектуры, оговорки по стеку, требования к стилю кода и ограничения проекта, раньше всё это приходилось заново вбивать в новую модель. Это скучный и дорогой налог на переключение.
С Memory Import этот налог стал меньше. Не ноль, но меньше. Для developer workflow, где люди прыгают между Claude, ChatGPT, Gemini, локальными тулзами и кодовыми агентами, continuity suddenly становится не маркетинговым словом, а вполне прикладной штукой.
Особенно на фоне того, что часть разработчиков в последние недели активно сравнивает Claude Code, Opus и Codex. Я вижу обсуждения в одну и ту же сторону: если качество основной модели проседает, люди не хотят ещё и заново объяснять проект новому инструменту. И вот тут импорт памяти резко уменьшает боль от миграции.
Где реальная польза, а где маркетинговый блеск
Если смотреть трезво, это не “единая память между всеми AI”. Это мостик. Неровный, местами ручной, но уже полезный. Claude не обещает сохранить всё, и это нормально: память у моделей вообще плохо переносится как строгая база данных.
Но для команд, где есть долгоживущие ассистенты, внутренняя документация, пресейл-боты, инженерные copilot-сценарии и ИИ автоматизация вокруг разработки, даже такой мостик экономит часы. Не потому что модель стала умнее, а потому что люди меньше повторяются.
Я бы особенно смотрел сюда тем, кто строит ИИ решения для бизнеса не в формате “один чат для вдохновения”, а как систему: агент, CRM, knowledge base, таск-трекер, кодовый контур. В такой архитектуре ИИ-решений контекст стоит денег. Если его можно переносить между слоями экосистемы, внедрение становится заметно практичнее.
Проигрывают здесь, по сути, только вендоры, которые держали пользователей на lock-in через накопленную историю. Когда память можно хотя бы частично увезти с собой, выбор модели начинает сильнее зависеть от реального качества и цены, а не от страха потерять наработанный контекст.
Что бы я делал на месте команды прямо сейчас
Я бы не воспринимал Memory Import как повод бездумно мигрировать всё подряд. Я бы сделал короткий тест на одном живом процессе: например, перенос памяти для coding-ассистента, support-агента или внутреннего аналитического бота. Сразу станет видно, что доезжает хорошо, а что лучше хранить вне памяти модели, в нормальном knowledge layer.
Это, кстати, главный инженерный вывод. Память модели удобна, но не должна быть единственным источником истины. Мы в Nahornyi AI Lab обычно разводим это на два слоя: оперативная память агента и внешняя база контекста. Тогда и внедрение ИИ получается устойчивее, и смена модели уже не выглядит как мини-катастрофа.
Я - Вадим Нагорный, и в Nahornyi AI Lab я руками собираю такие штуки: AI-агентов, n8n-сценарии, контурную ИИ интеграцию и рабочие пайплайны, где контекст не рассыпается после первой смены модели.
Если хотите обсудить ваш кейс, заказать ии автоматизацию, создать ИИ агента или собрать n8n-автоматизацию под ваш процесс - пишите. Я посмотрю, как это лучше разложить по памяти, данным и инструментам без лишней магии.