In un tranquillo ufficio di Cambridge, Massachusetts, un artiglio robotico si muove con una grazia inaspettata. Non si limita ad afferrare; cerca. Quando una lampadina scivola via dalla sua presa, il robot non si blocca né si guasta. Invece, insegue la lampadina su un tavolo, la rimette in posizione e la avvita con cura in una presa per illuminare lo spazio di lavoro.
Per decenni, la robotica ha affrontato un paradosso frustrante noto come paradosso di Moravec : il ragionamento di alto livello (come giocare a scacchi) è facile per i computer, ma le abilità sensomotorie di basso livello (come afferrare un oggetto fragile o allacciarsi le scarpe) sono incredibilmente difficili. Sebbene l’intelligenza artificiale abbia padroneggiato il linguaggio attraverso modelli come ChatGPT, il mondo fisico rimane una sfida caotica e imprevedibile.
Una startup chiamata Eka sta ora tentando di colmare questo divario, andando oltre l’automazione “goffa” verso la vera intelligenza fisica.
L’ostacolo “dalla simulazione alla realtà”.
Per capire perché i progressi di Eka sono significativi, bisogna guardare alla storia dell’addestramento robotico. Nel 2018, OpenAI ha dimostrato “Dactyl”, una mano robotica in grado di risolvere un cubo di Rubik. Sebbene impressionante, è stato un successo “fragile”. Il robot faceva affidamento su condizioni perfette e sensori specializzati; se un cubo scivolava o l’angolo era leggermente fuori posto, il sistema falliva.
L’industria ha lottato a lungo con il “divario tra simulazione e realtà” : la disconnessione tra una simulazione digitale perfettamente controllata e la realtà disordinata e vincolata alla gravità del mondo fisico. Molti ricercatori credevano che addestrare i robot interamente nella simulazione fosse un vicolo cieco perché la fisica virtuale non potrà mai replicare perfettamente l’attrito, il peso e l’imprevedibilità della vita reale.
Un nuovo approccio: Visione-Forza-Azione
Mentre molte aziende stanno cercando di insegnare ai robot mostrando loro video di esseri umani che eseguono compiti (un metodo noto come modelli Vision-Language-Action), Eka sta prendendo una strada diversa. Invece di imitare gli esseri umani, stanno permettendo ai robot di imparare da soli attraverso la simulazione su larga scala.
I co-fondatori Pulkit Agrawal (un professore del MIT) e Tuomas Haarnoja (un ex ricercatore di Google DeepMind) hanno sviluppato un approccio proprietario:
- Intelligenza da autodidatta: Proprio come AlphaZero di Google ha imparato a giocare a scacchi giocando contro se stesso, i robot di Eka trascorrono migliaia di ore in ambienti simulati, inventando le proprie strategie di movimento.
- Modelli Visione-Forza-Azione: A differenza dei modelli più vecchi che “vedono” solo i pixel, gli algoritmi di Eka incorporano i principi della fisica. Il robot comprende la massa, l’inerzia e, soprattutto, la forza.
- Feedback tattile: Eka ha sviluppato pinze personalizzate che forniscono il senso del tatto, consentendo al robot di percepire il peso di un oggetto o la resistenza di una superficie.
Dalle crocchette di pollo all’industria globale
Le implicazioni pratiche di questa tecnologia sono vaste. In una recente dimostrazione, il robot ha svolto un compito apparentemente banale come smistare le crocchette di pollo da un nastro trasportatore in contenitori. Il robot ha mostrato un’improvvisazione “simile a quella umana”, lanciando occasionalmente pepite in un contenitore se si stava spostando fuori portata, un livello di processo decisionale fluido raramente visto nella robotica tradizionale.
Questa capacità è particolarmente vitale per le industrie che sono rimaste ostinatamente dipendenti dall’uomo:
* Servizio di ristorazione: Gestione di articoli irregolari e delicati come frutta, verdura e carne.
* Produzione: Esecuzione di compiti di assemblaggio “complicati”, come la costruzione di componenti elettronici.
* Logistica e vendita al dettaglio: Navigazione in negozi e magazzini in cui gli oggetti non sono sempre in posizioni prevedibili.
Il cammino da percorrere
Attualmente siamo nell’era “GPT-1” della robotica. Proprio come i primi modelli linguistici erano spesso incoerenti prima di diventare geni della conversazione, i robot di Eka stanno mostrando i primi barlumi di intelligenza incarnata. Stanno cominciando a capire non solo dove si trova un oggetto, ma anche come ci si sente e come si muove.
Resta da vedere se questo approccio basato sulla simulazione alla fine supererà i modelli di dimostrazione umana. Tuttavia, se Eka riuscisse a colmare il divario tra simulazione e realtà, i “trilioni di dollari” che attualmente scorrono nelle mani degli umani potrebbero presto essere gestiti da macchine con uguale destrezza.
Conclusione: Dando priorità alle leggi fisiche e al feedback tattile rispetto alla semplice imitazione, Eka sta tentando di risolvere il problema più difficile della robotica: dare alle macchine la capacità di navigare e manipolare l’imprevedibile mondo fisico con la grazia umana.
