Forbes Uruguay
Robots humanoides
Innovacion

El increíble experimento del MIT que logró que un robot aprenda a entender su propio cuerpo sólo mirando un video

Jennifer Kite-Powell

Share

Un sistema desarrollado por el equipo de CSAIL permitió que máquinas blandas construyan un modelo interno de su estructura y movimientos valiéndose únicamente de imágenes captadas por una cámara común.

8 Julio de 2025 16.30

Investigadores del laboratorio CSAIL del Instituto Tecnológico de Massachusetts (MIT) desarrollaron un sistema que enseña a los robots a comprender sus cuerpos con el uso exclusivo de la visión. A través de cámaras convencionales, un robot se miró mientras se movía y después creó un modelo interno de su geometría y de la forma en que puede controlarse. Según los investigadores, esta tecnología podría ampliar de manera considerable las posibilidades en la robótica blanda y bioinspirada, al permitir máquinas accesibles y sin sensores que se adapten a su entorno en tiempo real.

El equipo del MIT afirmó que este sistema y la investigación representan un gran avance hacia robots más adaptables y accesibles, capaces de operar en entornos naturales sin GPS, simulaciones ni sensores. La investigación se publicó en junio en la revista Nature. Daniela Rus, directora de CSAIL del MIT, explicó que gracias a los campos jacobianos neuronales, las manos robóticas blandas de CSAIL pudieron aprender a agarrar objetos únicamente a partir de la observación visual, sin sensores, sin un modelo previo y sin programación manual.

El robot se miró con una cámara mientras realizaba movimientos aleatorios y así creó un modelo interno sobre cómo su cuerpo responde a las órdenes motoras. Los campos jacobianos neuronales tradujeron esas señales visuales en un denso campo jacobiano visomotor, lo que le permitió controlar su movimiento en tiempo real basándose solo en lo que observa, añadió Rus.

Rus señaló que este replanteo del control tiene implicaciones importantes. Los métodos tradicionales necesitan modelos detallados o sensores integrados, pero los campos jacobianos neuronales eliminan esas limitaciones. De este modo, permiten controlar robots no convencionales, deformables o sin sensores en tiempo real con una sola cámara monocular.

Vincent Sitzmann, profesor adjunto del Departamento de Ingeniería Eléctrica y Ciencias de la Computación del MIT e investigador principal de CSAIL, explicó que el equipo se basó en técnicas de visión artificial y aprendizaje automático. La red neuronal observa una sola imagen y aprende a reconstruir un modelo 3D del robot mediante una técnica llamada renderizado diferenciable, que permite a los algoritmos de aprendizaje automático reconstruir escenas tridimensionales a partir de imágenes en dos dimensiones.

 

"Utilizamos algoritmos de seguimiento de movimiento (seguimiento de puntos y flujo óptico) para rastrear el movimiento del robot durante el entrenamiento", señaló Sitzmann. "Al relacionar el movimiento del robot con las órdenes que le dimos, reconstruimos nuestro Campo Jacobiano Neuronal propuesto, que dota al modelo 3D del robot de una comprensión de cómo se movería cada punto 3D bajo una acción específica del robot", agregó. Sitzmann sostuvo que esto marca un cambio hacia robots con autoconciencia corporal, y que se aleja de los modelos 3D preprogramados y el hardware de ingeniería de precisión.

"Esto nos lleva hacia sensores más generalistas, como la visión, combinados con inteligencia artificial que permite al robot aprender un modelo de sí mismo en lugar de un experto humano", añadió Sitzmann. Y completó: "Esto también señala una nueva clase de robots adaptables, basados en aprendizaje automático, capaces de percibirse y comprenderse a sí mismos".

Los investigadores detallaron que tres tipos diferentes de robots lograron tomar conciencia de sus cuerpos y de las acciones que podían realizar a partir de esa comprensión.

Un brazo robótico de juguete DIY impreso en 3D, que tenía articulaciones sueltas y carecía de sensores, aprendió a dibujar letras en el aire con una precisión de centímetros. Descubrió qué región visual correspondía a cada canal de actuación y así pudo mapear "qué articulación se mueve cuando le ordeno al actuador X" solo al observar su propio movimiento.

Una mano neumática blanda aprendió qué canal de aire controla cada dedo sin que nadie se lo indicara, solo al observarse mientras se movía. El equipo dedujo la profundidad y la geometría únicamente a partir de un video a color, y reconstruyó la forma 3D antes y después de las acciones.

Una plataforma robótica blanda, parecida a una muñeca, que fue modificada con peso adicional, aprendió a mantener el equilibrio y a seguir trayectorias complejas. Los investigadores cuantificaron la sensibilidad al movimiento. Por ejemplo, midieron cómo una orden que modificaba apenas un actuador producía traslaciones de milímetros en la pinza.

Cambiando la robótica blanda

Los investigadores de CSAIL señalaron que los robots blandos resultan difíciles de modelar porque se deforman de manera compleja. Un integrante del equipo comentó en una entrevista por correo electrónico que el método utilizado en esta investigación no necesita un modelado manual. El robot se observa mientras se mueve y descubre cómo se comporta su cuerpo, de un modo parecido a cómo una persona aprende a mover el brazo al mirarse en un espejo.

Sitzmann explicó que los robots convencionales tienen articulaciones rígidas y discretas unidas por enlaces sólidos, diseñados con baja tolerancia de fabricación. "Comparalo con tu propio cuerpo, que es blando: primero, por supuesto, su piel y músculos no son perfectamente sólidos, pero ceden al agarrar algo", precisó.  "Sin embargo, las articulaciones no son perfectamente rígidas como las de un robot; pueden doblarse y ceder de forma similar, y aunque se puede percibir la posición aproximada de las articulaciones, los sensores de mayor precisión son la visión y el tacto, que son los que permiten resolver la mayoría de las tareas de manipulación", afirmó Sitzmann. "Los robots blandos se inspiran en estas propiedades de los seres vivos para ser igual de flexibles y, por eso, necesariamente dependen de sensores distintos a los de sus pares rígidos".

Lanzamiento Helix Robot Humanoide Figure
Los investigadores de CSAIL señalaron que los robots blandos resultan difíciles de modelar porque se deforman de manera compleja. 

 

Sitzmann sostuvo que este tipo de comprensión podría transformar industrias como la robótica blanda, la fabricación de bajo costo, la domótica y la robótica agrícola. "Cualquier sector que pueda beneficiarse de la automatización, pero que no necesite una precisión de menos de un milímetro, puede aprovechar la calibración y el control basados en visión, lo que reduce de manera drástica los costos y la complejidad", afirmó Sitzmann. "En el futuro, con la incorporación de la detección táctil, este paradigma podría incluso aplicarse en usos que exijan alta precisión", subrayó.

Un nuevo camino para la robótica blanda

Los investigadores señalaron que su método elimina la necesidad de que expertos construyan un modelo preciso del robot, un proceso que puede demorar meses. También descarta la dependencia de sistemas de sensores costosos o de la calibración manual. El procedimiento se simplifica al grabar al robot mientras se mueve de manera aleatoria, y a partir de ese video el modelo aprende todo lo necesario.

"En lugar de medir minuciosamente cada parámetro de las articulaciones o de integrar sensores en cada motor, nuestro sistema depende en gran medida de una cámara para controlar el robot", comentó Sitzmann. "En el futuro, para usos donde la precisión de menos de un milímetro no sea fundamental, veremos que los robots convencionales con todos sus sensores integrados serán reemplazados cada vez más por robots accesibles y fabricados en masa, que utilizan sensores más parecidos a los nuestros: visión y tacto", cerró.

 

*Con información de Forbes US.

10