Contexte technique
J'ai commencé à regarder Herdr.dev en m'attendant à quelque chose comme un exécuteur de modèles local. Mais j'ai vite compris l'essentiel : il ne fait pas tourner de LLM sur votre machine, n'héberge pas de modèles et ne remplace ni Ollama ni LM Studio.
Fondamentalement, je vois Herdr comme un tmux pour les agents d'IA. Il lance plusieurs espaces de travail dans le terminal où Claude Code, Codex et d'autres agents peuvent fonctionner en parallèle, et je peux les voir côte à côte, passer d'un panneau à l'autre et comparer ce que chacun a fait.
Voilà qui ressemble déjà à une intégration IA utile pour une équipe d'ingénieurs. Il ne s'agit pas d'inférence, mais d'une couche d'orchestration : onglets, divisions, détachement/rattachement, statuts des agents, lecture de la sortie d'un panneau et gestion via une CLI ou une API de socket Unix.
J'ai été particulièrement séduit par l'absence de fioritures graphiques inutiles. C'est une TUI de terminal propre, développée avec légèreté et sans avoir l'impression qu'on me refourgue une autre usine à gaz Electron pour seulement quelques boutons.
Sur le plan pratique, on peut lire programmatiquement la sortie d'un agent, attendre des événements spécifiques et même construire des scénarios où un agent en surveille un autre. Pour des expériences reproductibles, c'est vraiment pratique : les logs restent en local, les sessions peuvent être analysées a posteriori et les divergences entre les patchs sont immédiatement visibles.
Mais il faut être honnête quant à ses limites. Si vous avez spécifiquement besoin de faire tourner des modèles génératifs en local, Herdr.dev ne le permet pas lui-même. À mon avis, sa configuration idéale est Herdr associé à une pile d'agents externe, avec une couche distincte comme Ollama pour l'inférence locale.
Impact sur l'entreprise et l'automatisation
Pour une petite équipe, l'avantage est simple : je peux lancer plusieurs approches basées sur des agents en parallèle sans me noyer dans le chaos des terminaux. Cela accélère le choix d'un pipeline fonctionnel et réduit le coût des erreurs en phase de prototypage.
Le deuxième avantage est la confidentialité. Lorsque l'orchestration reste locale et que tout l'historique des exécutions se trouve sur votre machine, c'est nettement plus confortable pour gérer du code sensible et des processus internes.
Ceux qui attendent une solution magique clé en main pour l'implémentation de l'intelligence artificielle seront déçus. Herdr ne fait pas le développement de solutions d'IA à votre place ; il met simplement de l'ordre dans votre cuisine d'agents.
Je le considérerais comme une solide couche d'ingénierie pour l'automatisation par l'IA, et non comme un produit final. Et oui, je construis constamment ce genre d'architectures pour les processus réels de mes clients : là où le contrôle, la journalisation, la reproductibilité et une architecture IA saine sont nécessaires, sans un zoo de scripts. Si votre équipe se heurte déjà au chaos des expériences manuelles, nous pouvons examiner ensemble votre workflow chez Nahornyi AI Lab et construire un tel système d'automatisation IA sans magie superflue ni coûts supplémentaires.