Skip to main content
ClaudeEMSнейроинтерфейсы

Enseñan a Claude a mover un cuerpo mediante EMS

Un investigador creó un prototipo en 48 horas: una cámara analiza una escena con Claude y señales EMS mueven una mano casi sin intervención humana. Aunque no es un producto listo, es una señal clave: la integración de IA pasa del software al control físico de dispositivos y del cuerpo.

Contexto técnico

Me encantan estos proyectos no por el bombo publicitario, sino por su arquitectura. Han montado una cadena completa: cámara → Claude 3.5 Sonnet → JSON de movimiento → impulsos EMS → acción física. Esto ya no es un simple chatbot, es automatización con IA tangible en la intersección de la visión y los actuadores.

El prototipo se hizo en 48 horas en octubre de 2025, así que ahora lo veo como una referencia probada, no como una noticia de última hora. Las fuentes son fiables: una publicación en LinkedIn de Endrit Restelica, un vídeo en YouTube y un repositorio de GitHub abierto con el pipeline.

Investigué las especificaciones y lo más interesante no es un récord en Beat Saber, sino que el sistema funcione con hardware accesible. La entrada proviene de una webcam 1080p/60fps, los cálculos se ejecutan en una Raspberry Pi 5, Claude recibe los fotogramas y devuelve una estructura como target_pose, muscle_groups e intensity, y luego Python y Arduino lo traducen en pulsos EMS.

La latencia declarada es de unos 142 ms en la cadena de fotograma a músculo. Para la motricidad fina es todavía algo tosco, pero para movimientos rítmicos y predecibles, es suficiente para que el sistema parezca un bucle de control funcional, no un truco de magia.

Las limitaciones también son honestas: fatiga muscular después de 20-28 minutos, seguridad solo con limitación de corriente y sin retroalimentación sensorial adecuada. Y sí, Anthropic no posiciona esto como una aplicación médica, así que separaría inmediatamente este prototipo de investigación de un producto.

Qué cambia esto para los negocios y la automatización

No veo aquí un mercado de «la IA juega a la RV por ti», sino una dirección más útil: la integración de la inteligencia artificial está cada vez más cerca de las operaciones físicas. No se trata solo de analizar vídeo, sino de desencadenar una acción de inmediato: exoesqueletos, rehabilitación, manipuladores industriales, entrenamiento de patrones motores.

Ganan los equipos que saben construir el circuito completo: visión, modelo, un controlador seguro, telemetría y desconexión de emergencia. Pierden los que creen que basta con acoplar una LLM a un hardware y llamarlo producto.

En los proyectos de clientes me encuentro constantemente con la misma realidad: la parte más difícil no es el modelo, sino una arquitectura de IA fiable entre el software y el mundo físico. En Nahornyi AI Lab resolvemos precisamente estos cuellos de botella, cuando se necesita un desarrollo de soluciones de IA claro para un proceso, sus riesgos y sus limitaciones reales, no solo una demo.

Si tienes entre manos una tarea en la que necesitas conectar visión por computadora, señales y acción en un solo bucle, veámosla sin magia. A veces, una cuidada integración de IA es suficiente para eliminar operaciones manuales, acelerar el ciclo y no atormentar a la gente donde una máquina ya puede hacerlo mejor.

Avances de IA similares que controlan el mundo físico siempre plantean dudas sobre su aplicabilidad práctica. Ya hemos analizado cómo la falta de una arquitectura bien pensada puede convertir impresionantes demos de IA encarnada en algo mítico, sin implementación real.

Compartir este articulo