En una tranquila oficina de Cambridge, Massachusetts, una garra robótica se mueve con una gracia inesperada. No sólo agarra; busca. Cuando una bombilla se escapa de su alcance, el robot no se congela ni falla. En lugar de eso, persigue la bombilla a través de una mesa, la vuelve a colocar en su posición y la atornilla con cuidado en un casquillo para iluminar su espacio de trabajo.

Durante décadas, la robótica se ha enfrentado a una frustrante paradoja conocida como la paradoja de Moravec : el razonamiento de alto nivel (como jugar al ajedrez) es fácil para las computadoras, pero las habilidades sensoriomotoras de bajo nivel (como agarrar un objeto frágil o atarse un cordón de zapato) son increíblemente difíciles. Si bien la IA ha dominado el lenguaje a través de modelos como ChatGPT, el mundo físico sigue siendo un desafío caótico e impredecible.

Una startup llamada Eka ahora está intentando cerrar esta brecha, yendo más allá de la automatización “torpe” hacia la verdadera inteligencia física.

El obstáculo de “Sim a Real”

Para entender por qué el progreso de Eka es significativo, hay que mirar la historia del entrenamiento robótico. En 2018, OpenAI demostró “Dactyl”, una mano robótica que podría resolver un cubo de Rubik. Si bien fue impresionante, fue un éxito “frágil”. El robot dependía de condiciones perfectas y sensores especializados; si un cubo se resbalaba o el ángulo estaba ligeramente desviado, el sistema fallaba.

La industria ha luchado durante mucho tiempo con la “brecha entre simulación y realidad” : la desconexión entre una simulación digital perfectamente controlada y la realidad desordenada y limitada por la gravedad del mundo físico. Muchos investigadores creían que entrenar robots enteramente en simulación era un callejón sin salida porque la física virtual nunca puede replicar perfectamente la fricción, el peso y la imprevisibilidad de la vida real.

Un nuevo enfoque: Visión-Fuerza-Acción

Mientras muchas empresas intentan enseñar a los robots mostrándoles vídeos de humanos realizando tareas (un método conocido como modelos Visión-Lenguaje-Acción), Eka está tomando un camino diferente. En lugar de imitar a los humanos, están dejando que los robots aprendan por sí mismos mediante simulaciones a gran escala.

Los cofundadores Pulkit Agrawal (profesor del MIT) y Tuomas Haarnoja (ex investigador de Google DeepMind) han desarrollado un enfoque patentado:

  • Inteligencia autodidacta: De manera similar a cómo AlphaZero de Google aprendió ajedrez jugando contra sí mismo, los robots de Eka pasan miles de horas en entornos simulados, inventando sus propias estrategias de movimiento.
  • Modelos Visión-Fuerza-Acción: A diferencia de los modelos más antiguos que sólo “ven” píxeles, los algoritmos de Eka incorporan los principios de la física. El robot comprende la masa, la inercia y, fundamentalmente, la fuerza.
  • Retroalimentación táctil: Eka ha desarrollado pinzas personalizadas que brindan una sensación de tacto, lo que permite al robot sentir el peso de un objeto o la resistencia de una superficie.

De los nuggets de pollo a la industria global

Las implicaciones prácticas de esta tecnología son enormes. En una demostración reciente, el robot realizó una tarea aparentemente tan mundana como clasificar nuggets de pollo de una cinta transportadora en contenedores. El robot mostró una improvisación “similar a la humana”, arrojando ocasionalmente pepitas a un contenedor si se movía fuera de su alcance, un nivel de toma de decisiones fluida rara vez visto en la robótica tradicional.

Esta capacidad es particularmente vital para las industrias que han seguido dependiendo obstinadamente de los seres humanos:
* Servicio de alimentos: Manipulación de artículos irregulares y delicados como frutas, verduras y carnes.
* Fabricación: Realizar tareas de ensamblaje “complicadas”, como la construcción de componentes electrónicos.
* Logística y venta minorista: Navegar por tiendas y almacenes donde los objetos no siempre están en posiciones predecibles.

El camino por delante

Actualmente nos encontramos en la “era GPT-1” de la robótica. Así como los primeros modelos de lenguaje eran a menudo incoherentes antes de convertirse en genios conversacionales, los robots de Eka están mostrando los primeros destellos de inteligencia encarnada. Están empezando a comprender no sólo dónde está un objeto, sino también cómo se siente y cómo se mueve.

Queda por ver si este enfoque basado en gran simulación superará en última instancia a los modelos de demostración en humanos. Sin embargo, si Eka logra cerrar la brecha entre lo simulado y lo real, los “billones de dólares” que actualmente fluyen por las manos humanas pronto podrían ser gestionados por máquinas con igual destreza.

Conclusión: Al priorizar las leyes físicas y la retroalimentación táctil sobre la simple imitación, Eka intenta resolver el problema más difícil de la robótica: dar a las máquinas la capacidad de navegar y manipular el impredecible mundo físico con una gracia humana.