En la década de 1980, el investigador en robótica e inteligencia artificial Hans Moravec realizó una interesante observación: contrariamente a lo que podríamos esperar, lo que parece fácil para los humanos resulta difícil para las máquinas, y viceversa. Por ejemplo, una computadora puede resolver problemas matemáticos complejos o jugar al ajedrez como una experta, incluso superando a los mejores del mundo con relativa facilidad, como hizo Deep Blue en 1997 al vencer a Garry Kasparov.
Por otro lado, lograr que un robot manipule objetos con naturalidad, camine sobre terrenos irregulares o reconozca su entorno tal como lo puede hacer un niño, sigue siendo un reto tecnológico enorme. Esto se debe a que las habilidades básicas que los humanos desarrollamos instintivamente a lo largo de millones de años de evolución, son mucho más complicadas de programar que el razonamiento lógico o abstracto, una incorporación más reciente en términos evolutivos. A esta contradicción se la conoce como la paradoja de Moravec.

Durante años, estas limitaciones fueron una barrera invisible para la robótica. Sin embargo, debido a una convergencia de avances en IA, hardware y métodos de entrenamiento, esta brecha entre lo que es fácil para los humanos y lo que es difícil para los robots se está reduciendo rápidamente. Hasta hace relativamente poco, los robots estaban diseñados para funciones específicas y limitados en su capacidad de adaptación. Ahora, en cambio, la combinación de diferentes enfoques dentro del campo de la IA como aprendizaje profundo, redes neuronales avanzadas y modelos de lenguaje, permite que las máquinas, incluidos los robots, puedan “aprender” a realizar tareas complejas sin necesidad de programar cada paso manualmente.
Esta evolución tecnológica está llevando al desarrollo de robots que no solo ejecutan movimientos con precisión, sino que también comprenden el contexto en el que operan. Un ejemplo de esto es Helix, un innovador modelo de visión-lenguaje-acción (VLA) creado por Figure, una startup de California que diseña y fabrica robots humanoides impulsados por inteligencia artificial.
Helix permite a los robots entender el mundo que los rodea viéndolo a través de cámaras o sensores (visión), comprender instrucciones verbales (lenguaje) y actuar en base a esa información realizando movimientos y tareas (acción). De esta manera, si se le dice “agarra la taza azul y colócala sobre la mesa”, el robot identificará la taza, procesará la instrucción y realizará la acción, sin depender de comandos predefinidos.

El modelo Helix fue entrenado con un enorme volumen de datos de texto provenientes de diferentes fuentes de internet, lo que le permite comprender el lenguaje de una forma similar a como lo hacen los modelos de inteligencia artificial generativa como ChatGPT. Así, puede interpretar conceptos abstractos y referencias culturales y lingüísticas con sorprendente flexibilidad. Helix no se limita a entender las palabras literalmente, sino que las conecta con el mundo físico. Por ejemplo, cuando se le pide “recoge el objeto del desierto”, no solo reconoce que un cactus de juguete se corresponde con esta idea abstracta, sino que también selecciona la mano más cercana para sujetarlo con precisión.
Nvidia, una de las empresas más valiosas del mundo, presentó el 18 de marzo de 2025 su modelo GR00T N1, una IA de código abierto que permite a los robots humanoides razonar y ejecutar tareas complejas, desde ordenar objetos en un hogar hasta inspeccionar materiales en una fábrica. Al igual que Helix, GR00T N1 combina visión, lenguaje y acción en un sistema multimodal, lo que les permite a los robots no solo interpretar instrucciones verbales y visuales para actuar en el mundo real, sino también aprender nuevas tareas observando el comportamiento humano o analizando simulaciones en entornos virtuales.
Al igual que los modelos fundacionales en inteligencia artificial, como GPT en procesamiento de lenguaje, GR00T ofrece una base flexible que se adapta a diversas aplicaciones y entornos. Esto significa que los desarrolladores pueden entrenar robots con GR00T utilizando datos específicos, ya sean reales o generados en simulaciones como las de NVIDIA Omniverse, para que realicen una amplia gama de funciones, desde manipular objetos en un entorno fabril hasta tareas domésticas como doblar ropa. Esta elasticidad, junto con su accesibilidad de código abierto, puede acelerar la adopción masiva de robots humanoides, abriendo la puerta a su uso en distintos sectores sin necesidad de diseñar cada sistema desde cero.
Durante 2024, Figure y BMW realizaron un ensayo de varias semanas en la planta que la automotriz tiene en Carolina del Sur, EE.UU, donde los robots trabajaron en una línea de producción real, demostrando su destreza y utilidad manipulando piezas de chapa en un proceso que requería una precisión de milímetros. El resultado fue sencillamente impresionante, logrando un aumento del 400% en la velocidad y una mejora de siete veces en la tasa de éxito de las operaciones de ensamblaje. Ambas empresas describieron estos avances como “un cambio radical para los sistemas de fabricación autónomos”.
Poco a poco, los robots humanoides se van incorporando al mercado laboral. Desde octubre de 2023, Amazon ha estado probando a Digit, el robot bípedo de Agility Robotics, para encargarse de tareas repetitivas como mover cajas y contenedores en algunos de sus almacenes. Mercedes-Benz está realizando ensayos con Apollo, desarrollado por Apptronik, en plantas de Alemania y Hungría, enfocándose en tareas repetitivas y físicamente exigentes como transportar piezas a la línea de montaje, inspeccionar componentes durante la producción y manipular materiales dentro de la fábrica. En este caso, los robots son operados remotamente por humanos para aprender las tareas, con el objetivo de poder repetirlas de forma autónoma en el futuro cercano. A mediados de marzo de 2025, la automotriz alemana anunció una inversión de varios millones de euros en Apptronik, lo que destaca su interés por implementar esta tecnología en sus plantas.

Integrar humanoides en lugares de trabajo reales, con personas y autoelevadores circulando, es una tarea muy diferente a hacerlos funcionar en laboratorios o en un ambiente controlado. En junio de 2024, GXO Logistics, una de las empresas líderes en logística a nivel mundial, incorporó una flota de robots humanoides Digit, utilizándolos para descargar pallets y colocar cajas en cintas transportadoras.
La experiencia no resultó tan fluida como se esperaba, ya que rápidamente comenzaron a mostrar limitaciones en su capacidad de adaptación al entorno dinámico de un centro logístico. Aunque los robots estaban programados para ejecutar una serie de tareas específicas, encontraron dificultades para reaccionar ante cambios imprevistos, como pallets mal alineados o un objeto obstruyendo una estación de carga, lo que requería intervención humana para despejar el camino y ralentizaba las operaciones. Además, los suelos de hormigón pulido también se convirtieron en un obstáculo inesperado, convirtiéndose en una superficie resbaladiza que ponía en riesgo el delicado equilibrio de los robots.

A pesar de estos tropiezos, los robots humanoides se están acercando a un punto de inflexión que podría compararse con el impacto de ChatGPT en la inteligencia artificial. No es difícil imaginar un futuro cercano donde robots interactúen con personas ensamblando piezas en una línea de producción, o cuidando ancianos con una paciencia infinita. Sin embargo, esta revolución también plantea interrogantes que todavía nadie puede responder: ¿Estamos listos para convivir con máquinas que nos imitan tan de cerca? ¿Cómo se transformará el mercado laboral? Si la IA conversacional nos enseñó algo, es que el cambio puede llegar rápido y profundo. Y la robótica está a punto de demostrarlo.