Skip to main content
ClaudeEMSнейроинтерфейсы

Claude научили двигать телом через EMS

Исследователь собрал за 48 часов прототип: камера анализирует сцену через Claude, а EMS-сигналы двигают рукой почти без участия человека. Для бизнеса это пока не готовый продукт, но важный сигнал: AI integration выходит из софта в физическое управление устройствами и телом.

Технический контекст

Я люблю такие штуки не за хайп, а за архитектуру. Здесь реально собрали цепочку камера → Claude 3.5 Sonnet → JSON с движением → EMS-импульсы → физическое действие, и это уже не просто чатик, а очень приземлённая AI automation на стыке зрения и актуаторов.

Прототип сделали за 48 часов ещё в октябре 2025, так что сейчас я смотрю на него уже как на проверенный референс, а не как на свежую новость. Источник нормальный: LinkedIn-пост Endrit Restelica, видео на YouTube и открытый GitHub-репозиторий с пайплайном.

Я покопался в спеках, и самое интересное тут не рекорд в Beat Saber, а то, что схема вообще работает на доступном железе. Вход идёт с веб-камеры 1080p/60fps, вычисления крутятся на Raspberry Pi 5, Claude получает кадры и возвращает структуру вроде target_pose, muscle_groups и intensity, а дальше Python и Arduino переводят это в EMS-пульсы.

Заявленная задержка около 142 мс на цепочку frame-to-muscle. Для тонкой моторики это ещё грубовато, но для ритмичных предсказуемых движений уже достаточно, чтобы система выглядела не как фокус, а как рабочий контур управления.

Ограничения тоже честные: усталость мышц после 20-28 минут, безопасность только с ограничением тока, никакой нормальной обратной сенсорной связи. И да, Anthropic такое не позиционирует как медицинское применение, так что тут я бы сразу отделял исследовательский прототип от продукта.

Что это меняет для бизнеса и автоматизации

Я вижу здесь не рынок «AI играет в VR за вас», а более полезный вектор: искусственный интеллект интеграция теперь всё ближе к физическим операциям. Не только анализировать видео, но и сразу запускать действие: экзоскелет, реабилитация, промышленные манипуляторы, обучение моторным паттернам.

Выигрывают команды, которые умеют собирать полный контур: зрение, модель, безопасный контроллер, телеметрию и аварийное отключение. Проигрывают те, кто думает, что достаточно просто прикрутить LLM к железке и назвать это продуктом.

В клиентских задачах я постоянно упираюсь в ту же реальность: самое сложное не модель, а надёжная AI architecture между софтом и физическим миром. В Nahornyi AI Lab мы как раз решаем такие узкие места, когда нужна не демка, а внятная AI solution development под процесс, риски и реальные ограничения.

Если у вас назрела задача, где нужно связать компьютерное зрение, сигналы и действие в одном контуре, давайте посмотрим на неё без магии. Иногда хватает аккуратной AI integration, чтобы убрать ручные операции, ускорить цикл и не мучить людей там, где машина уже справится лучше.

Подобные достижения в области ИИ, управляющего физическим миром, всегда заставляют задуматься о практической применимости. Ранее мы рассматривали, как отсутствие продуманной архитектуры может превратить эффектные демонстрации воплощенного ИИ в нечто мифическое, лишенное реального внедрения.

Поделиться статьёй