Dans un bureau tranquille de Cambridge, dans le Massachusetts, une griffe robotique se déplace avec une grâce inattendue. Cela ne se contente pas de saisir ; il cherche. Lorsqu’une ampoule échappe à sa portée, le robot ne gèle pas et ne tombe pas en panne. Au lieu de cela, il poursuit l’ampoule sur une table, la remet en place et la visse soigneusement dans une douille pour éclairer son espace de travail.
Depuis des décennies, la robotique est confrontée à un paradoxe frustrant connu sous le nom de paradoxe de Moravec : le raisonnement de haut niveau (comme jouer aux échecs) est facile pour les ordinateurs, mais les compétences sensorimotrices de bas niveau (comme saisir un objet fragile ou attacher un lacet) sont incroyablement difficiles. Même si l’IA maîtrise le langage grâce à des modèles comme ChatGPT, le monde physique reste un défi chaotique et imprévisible.
Une startup appelée Eka tente désormais de combler cette lacune, en allant au-delà de l’automatisation « maladroite » vers une véritable intelligence physique.
L’obstacle du « Sim-to-Real »
Pour comprendre pourquoi les progrès d’Eka sont significatifs, il faut se pencher sur l’histoire de la formation robotique. En 2018, OpenAI a présenté « Dactyl », une main robotique capable de résoudre un Rubik’s Cube. Bien qu’impressionnant, ce fut un succès « fragile ». Le robot s’appuyait sur des conditions parfaites et des capteurs spécialisés ; si un cube glissait ou si l’angle était légèrement décalé, le système tombait en panne.
L’industrie est depuis longtemps aux prises avec le « fossé entre la simulation et le réel », la déconnexion entre une simulation numérique parfaitement contrôlée et la réalité désordonnée et liée à la gravité du monde physique. De nombreux chercheurs pensaient que former des robots entièrement par simulation était une impasse, car la physique virtuelle ne peut jamais reproduire parfaitement la friction, le poids et l’imprévisibilité de la vie réelle.
Une nouvelle approche : Vision-Force-Action
Alors que de nombreuses entreprises tentent d’enseigner aux robots en leur montrant des vidéos d’humains effectuant des tâches (une méthode connue sous le nom de modèles Vision-Langage-Action), Eka emprunte une voie différente. Plutôt que d’imiter les humains, ils laissent les robots apprendre par eux-mêmes grâce à une simulation à grande échelle.
Les cofondateurs Pulkit Agrawal (professeur au MIT) et Tuomas Haarnoja (ancien chercheur de Google DeepMind) ont développé une approche propriétaire :
- Intelligence autodidacte : De la même manière que AlphaZero de Google a appris les échecs en jouant contre lui-même, les robots d’Eka passent des milliers d’heures dans des environnements simulés, inventant leurs propres stratégies de mouvement.
- Modèles Vision-Force-Action : Contrairement aux modèles plus anciens qui « voient » uniquement les pixels, les algorithmes d’Eka intègrent les principes de la physique. Le robot comprend la masse, l’inertie et, surtout, la force.
- Rétroaction tactile : Eka a développé des pinces personnalisées qui procurent une sensation de toucher, permettant au robot de ressentir le poids d’un objet ou la résistance d’une surface.
Des nuggets de poulet à l’industrie mondiale
Les implications pratiques de cette technologie sont vastes. Lors d’une démonstration récente, le robot a effectué une tâche aussi apparemment banale que trier des nuggets de poulet d’un tapis roulant vers des conteneurs. Le robot a fait preuve d’une improvisation « semblable à celle d’un humain », jetant occasionnellement des pépites dans un récipient s’il se déplaçait hors de portée – un niveau de prise de décision fluide rarement vu dans la robotique traditionnelle.
Cette capacité est particulièrement vitale pour les industries qui sont restées obstinément dépendantes de l’humain :
* Service alimentaire : Manipulation d’articles irréguliers et délicats comme les fruits, les légumes et les viandes.
* Fabrication : Effectuer des tâches d’assemblage « fastidieuses », telles que l’électronique de construction.
* Logistique et vente au détail : Naviguer dans les magasins et les entrepôts où les objets ne sont pas toujours dans des positions prévisibles.
Le chemin à parcourir
Nous sommes actuellement dans « l’ère GPT-1 » de la robotique. Tout comme les premiers modèles de langage étaient souvent incohérents avant de devenir des génies de la conversation, les robots d’Eka montrent les premières lueurs de l’intelligence incarnée. Ils commencent à comprendre non seulement où un objet se trouve, mais comment il se sent et comment il bouge.
Reste à savoir si cette approche basée sur la simulation dépassera à terme les modèles de démonstration humaine. Cependant, si Eka réussit à combler l’écart entre la simulation et la réalité, les « milliards de dollars » qui circulent actuellement entre des mains humaines pourraient bientôt être gérés par des machines avec la même dextérité.
Conclusion : En donnant la priorité aux lois physiques et au retour tactile plutôt qu’à la simple imitation, Eka tente de résoudre le problème le plus difficile de la robotique : donner aux machines la capacité de naviguer et de manipuler le monde physique imprévisible avec une grâce humaine.




















