Skip to main content
ClaudeEMSнейроинтерфейсы

Claude wurde beigebracht, einen Körper per EMS zu bewegen

Ein Forscher baute in 48 Stunden einen Prototyp: Eine Kamera analysiert eine Szene über Claude, und EMS-Signale bewegen eine Hand fast ohne menschliches Zutun. Für Unternehmen ist dies kein fertiges Produkt, aber ein wichtiges Signal: KI-Integration geht über Software hinaus zur physischen Steuerung von Geräten und dem Körper.

Technischer Kontext

Ich liebe solche Projekte nicht wegen des Hypes, sondern wegen der Architektur. Hier wurde wirklich eine Kette aufgebaut: Kamera → Claude 3.5 Sonnet → JSON mit Bewegung → EMS-Impulse → physische Aktion. Das ist kein einfacher Chatbot mehr, sondern handfeste KI-Automatisierung an der Schnittstelle von Computer Vision und Aktuatoren.

Der Prototyp wurde in 48 Stunden im Oktober 2025 erstellt, daher betrachte ich ihn jetzt als bewährte Referenz und nicht als brandaktuelle Nachricht. Die Quellen sind solide: ein LinkedIn-Beitrag von Endrit Restelica, ein YouTube-Video und ein offenes GitHub-Repository mit der Pipeline.

Ich habe mich in die Spezifikationen vertieft, und das Interessanteste ist nicht ein Rekord in Beat Saber, sondern dass das System überhaupt auf zugänglicher Hardware funktioniert. Der Input kommt von einer 1080p/60fps-Webcam, die Berechnungen laufen auf einem Raspberry Pi 5, Claude empfängt die Bilder und gibt eine Struktur wie target_pose, muscle_groups und intensity zurück, und dann wandeln Python und Arduino dies in EMS-Impulse um.

Die angegebene Latenz beträgt etwa 142 ms für die Kette vom Frame zum Muskel. Für die Feinmotorik ist das noch etwas grob, aber für rhythmische, vorhersehbare Bewegungen reicht es aus, um das System wie einen funktionierenden Regelkreis und nicht wie einen Zaubertrick aussehen zu lassen.

Auch die Einschränkungen werden ehrlich benannt: Muskelermüdung nach 20-28 Minuten, Sicherheit nur durch Strombegrenzung, kein richtiges sensorisches Feedback. Und ja, Anthropic positioniert dies nicht als medizinische Anwendung, daher würde ich diesen Forschungsprototypen sofort von einem Produkt trennen.

Was dies für Unternehmen und Automatisierung ändert

Ich sehe hier keinen Markt für „KI spielt VR für dich“, sondern einen nützlicheren Vektor: Die Integration künstlicher Intelligenz rückt näher an physische Operationen heran. Es geht nicht nur darum, Videos zu analysieren, sondern sofort eine Aktion auszulösen: Exoskelette, Rehabilitation, industrielle Manipulatoren, das Training von Bewegungsmustern.

Gewinner sind Teams, die den gesamten Kreislauf aufbauen können: Bilderkennung, Modell, sicherer Controller, Telemetrie und Notabschaltung. Verlierer sind diejenigen, die glauben, es reiche aus, ein LLM an ein Stück Hardware zu schrauben und es als Produkt zu bezeichnen.

In Kundenprojekten stoße ich ständig auf dieselbe Realität: Der schwierigste Teil ist nicht das Modell, sondern eine zuverlässige KI-Architektur zwischen der Software und der physischen Welt. Bei Nahornyi AI Lab lösen wir genau solche Engpässe, wenn eine klare Entwicklung einer KI-Lösung für einen Prozess, Risiken und reale Einschränkungen benötigt wird – nicht nur eine Demo.

Wenn bei Ihnen eine Aufgabe ansteht, bei der Computer Vision, Signale und Aktionen in einem Kreislauf verbunden werden müssen, lassen Sie uns sie ohne Magie betrachten. Manchmal reicht eine sorgfältige KI-Integration aus, um manuelle Vorgänge zu eliminieren, den Zyklus zu beschleunigen und Menschen nicht dort zu quälen, wo eine Maschine es bereits besser kann.

Ähnliche KI-Fortschritte, die die physische Welt steuern, werfen immer Fragen nach der praktischen Anwendbarkeit auf. Wir haben bereits erörtert, wie das Fehlen einer durchdachten Architektur beeindruckende Demos verkörperter KI in etwas Mythisches ohne reale Umsetzung verwandeln kann.

Diesen Artikel teilen