In een rustig kantoor in Cambridge, Massachusetts beweegt een robotklauw met een onverwachte gratie. Het grijpt niet alleen; het zoekt. Wanneer een gloeilamp uit zijn greep wegrolt, bevriest de robot niet en valt hij niet uit. In plaats daarvan jaagt hij de lamp over een tafel, knijpt hem weer op zijn plaats en schroeft hem voorzichtig in een fitting om de werkruimte te verlichten.

Al tientallen jaren wordt robotica geconfronteerd met een frustrerende paradox die bekend staat als de Moravec-paradox : redeneren op hoog niveau (zoals schaken) is gemakkelijk voor computers, maar sensomotorische vaardigheden op laag niveau (zoals het grijpen van een kwetsbaar voorwerp of het strikken van een schoenveter) zijn ongelooflijk moeilijk. Hoewel AI de taal beheerst via modellen als ChatGPT, blijft de fysieke wereld een chaotische, onvoorspelbare uitdaging.

Een startup genaamd Eka probeert nu deze kloof te overbruggen en gaat verder dan ‘onhandige’ automatisering naar echte fysieke intelligentie.

De ‘Sim-to-Real’-hindernis

Om te begrijpen waarom de vooruitgang van Eka aanzienlijk is, moet je naar de geschiedenis van robottraining kijken. In 2018 demonstreerde OpenAI ‘Dactyl’, een robothand die een Rubik’s Cube kon oplossen. Hoewel indrukwekkend, was het een “bros” succes. De robot vertrouwde op perfecte omstandigheden en gespecialiseerde sensoren; als een kubus uitgleed of de hoek iets afwijkend was, faalde het systeem.

De industrie heeft lang geworsteld met de “sim-to-real gap”** – de kloof tussen een perfect gecontroleerde digitale simulatie en de rommelige, zwaartekrachtgebonden realiteit van de fysieke wereld. Veel onderzoekers waren van mening dat het volledig trainen van robots in simulatie een doodlopende weg was, omdat virtuele fysica nooit perfect de wrijving, het gewicht en de onvoorspelbaarheid van het echte leven kan repliceren.

Een nieuwe aanpak: visie-kracht-actie

Terwijl veel bedrijven robots proberen les te geven door hen video’s te laten zien van mensen die taken uitvoeren (een methode die bekend staat als Vision-Language-Action-modellen), slaat Eka een andere weg in. In plaats van mensen te imiteren, laten ze robots zelf leren door middel van grootschalige simulatie.

Medeoprichters Pulkit Agrawal (een MIT-professor) en Tuomas Haarnoja (een voormalige Google DeepMind-onderzoeker) hebben een eigen aanpak ontwikkeld:

  • Zelfonderwezen intelligentie: Vergelijkbaar met hoe AlphaZero van Google schaken leerde door tegen zichzelf te spelen, brengen de robots van Eka duizenden uren door in gesimuleerde omgevingen, waarbij ze hun eigen bewegingsstrategieën bedenken.
  • Vision-Force-Action-modellen: In tegenstelling tot oudere modellen die alleen pixels “zien”, integreren de algoritmen van Eka de principes van de natuurkunde. De robot begrijpt massa, traagheid en – cruciaal – kracht.
  • Tactiele feedback: Eka heeft op maat gemaakte grijpers ontwikkeld die een gevoel van aanraking bieden, waardoor de robot het gewicht van een object of de weerstand van een oppervlak kan voelen.

Van kipnuggets tot mondiale industrie

De praktische implicaties van deze technologie zijn enorm. Tijdens een recente demonstratie voerde de robot een schijnbaar alledaagse taak uit als het sorteren van kipnuggets van een lopende band in containers. De robot toonde ‘mensachtige’ improvisatie, waarbij hij af en toe goudklompjes in een container gooide als deze buiten bereik kwam – een niveau van vloeiende besluitvorming dat zelden wordt gezien in traditionele robotica.

Dit vermogen is vooral van cruciaal belang voor industrieën die koppig afhankelijk zijn gebleven van de mens:
* Foodservice: Omgaan met onregelmatige, delicate items zoals fruit, groenten en vlees.
* Productie: Het uitvoeren van “onhandige” assemblagetaken, zoals het bouwen van elektronica.
* Logistiek en detailhandel: Navigeren door winkels en magazijnen waar objecten zich niet altijd op voorspelbare posities bevinden.

Het pad vooruit

We bevinden ons momenteel in het ‘GPT-1-tijdperk’ van de robotica. Net zoals vroege taalmodellen vaak onsamenhangend waren voordat ze conversatie-genieën werden, vertonen Eka’s robots de eerste glimpen van belichaamde intelligentie. Ze beginnen niet alleen waar een object is te begrijpen, maar ook hoe het voelt en hoe het beweegt.

Of deze simulatie-zware aanpak uiteindelijk de menselijke demonstratiemodellen zal overtreffen, valt nog te bezien. Als Eka er echter in slaagt de kloof tussen sim en real te dichten, kunnen de ‘biljoenen dollars’ die momenteel door mensenhanden stromen, binnenkort worden beheerd door machines met dezelfde behendigheid.

Conclusie: Door fysieke wetten en tactiele feedback voorrang te geven boven eenvoudige imitatie, probeert Eka het moeilijkste probleem in de robotica op te lossen: machines de mogelijkheid geven om met menselijke gratie door de onvoorspelbare fysieke wereld te navigeren en deze te manipuleren.