Skip to main content
anthropicclaudeai-automation

Claude теперь умеет забирать память из других ИИ

Anthropic добавила в Claude импорт памяти из других AI-инструментов. Для бизнеса это важно по одной причине: падает цена переключения между моделями и исчезает часть ручного overhead при переносе долгих рабочих контекстов и агентных сценариев.

Что Anthropic на самом деле выкатила

Я полез в описание фичи, потому что заголовок звучит громко, а дьявол тут как раз в деталях. В начале марта 2026 Anthropic открыла в Claude функцию Memory Import, и это не просто “вставь чат целиком”. Claude принимает экспорт из другого AI-сервиса, перерабатывает его и превращает в собственные объекты памяти.

То есть это не буквальный перенос один в один. Я бы назвал это интерпретируемой миграцией: вы даёте материал, Claude вытаскивает из него устойчивые факты, предпочтения, рабочие привычки, детали проектов и сохраняет это как свои memory edits.

Импорт запускается вручную через Settings → Capabilities → Memory. Anthropic даёт специальный prompt для запроса экспорта у другого провайдера, либо можно принести Markdown руками. После вставки Claude показывает изменения, их можно проверить через Manage edits, а сама память может доехать не мгновенно, а в течение 24 часов.

Вот здесь я сразу поставил мысленную пометку: это удобно, но не детерминировано. В документации прямо сказано, что фича экспериментальная, не каждая запись будет перенесена, и Claude лучше держится за рабочий контекст, чем за личные заметки “на всякий случай”.

Почему это цепляет именно в dev и агентных сценариях

Меня в этой новости зацепила не сама “память”, а снижение friction при смене инструмента. Если у команды накоплен слой привычек, naming conventions, детали архитектуры, оговорки по стеку, требования к стилю кода и ограничения проекта, раньше всё это приходилось заново вбивать в новую модель. Это скучный и дорогой налог на переключение.

С Memory Import этот налог стал меньше. Не ноль, но меньше. Для developer workflow, где люди прыгают между Claude, ChatGPT, Gemini, локальными тулзами и кодовыми агентами, continuity suddenly становится не маркетинговым словом, а вполне прикладной штукой.

Особенно на фоне того, что часть разработчиков в последние недели активно сравнивает Claude Code, Opus и Codex. Я вижу обсуждения в одну и ту же сторону: если качество основной модели проседает, люди не хотят ещё и заново объяснять проект новому инструменту. И вот тут импорт памяти резко уменьшает боль от миграции.

Где реальная польза, а где маркетинговый блеск

Если смотреть трезво, это не “единая память между всеми AI”. Это мостик. Неровный, местами ручной, но уже полезный. Claude не обещает сохранить всё, и это нормально: память у моделей вообще плохо переносится как строгая база данных.

Но для команд, где есть долгоживущие ассистенты, внутренняя документация, пресейл-боты, инженерные copilot-сценарии и ИИ автоматизация вокруг разработки, даже такой мостик экономит часы. Не потому что модель стала умнее, а потому что люди меньше повторяются.

Я бы особенно смотрел сюда тем, кто строит ИИ решения для бизнеса не в формате “один чат для вдохновения”, а как систему: агент, CRM, knowledge base, таск-трекер, кодовый контур. В такой архитектуре ИИ-решений контекст стоит денег. Если его можно переносить между слоями экосистемы, внедрение становится заметно практичнее.

Проигрывают здесь, по сути, только вендоры, которые держали пользователей на lock-in через накопленную историю. Когда память можно хотя бы частично увезти с собой, выбор модели начинает сильнее зависеть от реального качества и цены, а не от страха потерять наработанный контекст.

Что бы я делал на месте команды прямо сейчас

Я бы не воспринимал Memory Import как повод бездумно мигрировать всё подряд. Я бы сделал короткий тест на одном живом процессе: например, перенос памяти для coding-ассистента, support-агента или внутреннего аналитического бота. Сразу станет видно, что доезжает хорошо, а что лучше хранить вне памяти модели, в нормальном knowledge layer.

Это, кстати, главный инженерный вывод. Память модели удобна, но не должна быть единственным источником истины. Мы в Nahornyi AI Lab обычно разводим это на два слоя: оперативная память агента и внешняя база контекста. Тогда и внедрение ИИ получается устойчивее, и смена модели уже не выглядит как мини-катастрофа.

Я - Вадим Нагорный, и в Nahornyi AI Lab я руками собираю такие штуки: AI-агентов, n8n-сценарии, контурную ИИ интеграцию и рабочие пайплайны, где контекст не рассыпается после первой смены модели.

Если хотите обсудить ваш кейс, заказать ии автоматизацию, создать ИИ агента или собрать n8n-автоматизацию под ваш процесс - пишите. Я посмотрю, как это лучше разложить по памяти, данным и инструментам без лишней магии.

Поделиться статьёй