Qué es lo que Anthropic realmente lanzó
Me sumergí en la descripción de la función porque el titular suena impactante, pero el diablo está en los detalles. A principios de marzo de 2026, Anthropic habilitó en Claude la función de Importación de Memoria, y no se trata simplemente de “pegar todo el chat”. Claude toma una exportación de otro servicio de IA, la procesa y la convierte en sus propios objetos de memoria.
Es decir, no es una transferencia literal uno a uno. Yo lo llamaría una migración interpretada: tú proporcionas el material y Claude extrae de él hechos estables, preferencias, hábitos de trabajo y detalles de proyectos, guardándolos como sus propias ediciones de memoria.
La importación se inicia manualmente a través de Configuración → Capacidades → Memoria. Anthropic proporciona un prompt especial para solicitar la exportación a otro proveedor, o puedes importar un archivo Markdown manualmente. Después de pegarlo, Claude muestra los cambios, que se pueden revisar en Administrar ediciones, y la memoria puede tardar hasta 24 horas en actualizarse.
Aquí hice una nota mental de inmediato: es conveniente, pero no determinista. La documentación dice explícitamente que la función es experimental, no todos los registros se transferirán, y Claude se aferra mejor al contexto de trabajo que a las notas personales “por si acaso”.
Por qué esto es interesante para desarrolladores y escenarios con agentes
Lo que me llamó la atención de esta noticia no fue la “memoria” en sí, sino la reducción de la fricción al cambiar de herramienta. Si un equipo ha acumulado una capa de hábitos, convenciones de nomenclatura, detalles de arquitectura, particularidades del stack, requisitos de estilo de código y limitaciones del proyecto, antes todo esto tenía que ser introducido de nuevo en un nuevo modelo. Es un impuesto de cambio tedioso y costoso.
Con la Importación de Memoria, este impuesto se ha reducido. No a cero, pero es menor. Para el flujo de trabajo de un desarrollador, donde la gente salta entre Claude, ChatGPT, Gemini, herramientas locales y agentes de código, la continuidad de repente se convierte en algo práctico en lugar de una palabra de marketing.
Esto es especialmente relevante dado que parte de los desarrolladores han estado comparando activamente Claude Code, Opus y Codex en las últimas semanas. Veo que las discusiones van en la misma dirección: si la calidad del modelo principal disminuye, la gente no quiere además la molestia de tener que volver a explicar el proyecto a una nueva herramienta. Y es aquí donde la importación de memoria reduce drásticamente el dolor de la migración.
Dónde está el valor real y dónde el brillo del marketing
Siendo realistas, esto no es una “memoria unificada entre todas las IAs”. Es un puente. Desigual, a veces manual, pero ya útil. Claude no promete guardarlo todo, y eso está bien: la memoria de los modelos, en general, no se transfiere bien como una base de datos estricta.
Pero para equipos con asistentes de larga duración, documentación interna, bots de preventa, escenarios de copilotos de ingeniería y automatización con IA en el desarrollo, incluso un puente como este ahorra horas. No porque el modelo se haya vuelto más inteligente, sino porque la gente se repite menos.
Recomendaría especialmente esto a quienes construyen soluciones de IA para empresas no en formato de “un chat para la inspiración”, sino como un sistema: agente, CRM, base de conocimientos, gestor de tareas, entorno de codificación. En una arquitectura de soluciones de IA de este tipo, el contexto cuesta dinero. Si se puede transferir entre las capas del ecosistema, la implementación se vuelve notablemente más práctica.
Quienes pierden aquí, en esencia, son solo los proveedores que mantenían a los usuarios en un “lock-in” a través del historial acumulado. Cuando la memoria se puede llevar, al menos parcialmente, la elección del modelo comienza a depender más de la calidad y el precio reales, y no del miedo a perder el contexto acumulado.
Qué haría yo en el lugar de un equipo ahora mismo
No tomaría la Importación de Memoria como una razón para migrar todo sin pensar. Haría una prueba corta en un proceso real: por ejemplo, transferir la memoria de un asistente de codificación, un agente de soporte o un bot de análisis interno. Se verá de inmediato qué se transfiere bien y qué es mejor almacenar fuera de la memoria del modelo, en una capa de conocimiento adecuada.
Esta, por cierto, es la principal conclusión de ingeniería. La memoria del modelo es conveniente, pero no debe ser la única fuente de verdad. En Nahornyi AI Lab, solemos dividir esto en dos capas: la memoria operativa del agente y una base de datos de contexto externa. Así, la implementación de IA es más robusta y cambiar de modelo ya no parece una mini catástrofe.
Soy Vadym Nahornyi, y en Nahornyi AI Lab construyo estas cosas a mano: agentes de IA, escenarios de n8n, integración de IA en bucle y pipelines de trabajo donde el contexto no se desmorona después del primer cambio de modelo.
Si quieres discutir tu caso, solicitar automatización con IA, crear un agente de IA o construir una automatización con n8n para tu proceso, contáctame. Analizaré cómo organizarlo mejor entre memoria, datos y herramientas sin magia innecesaria.