Investigadores de la Universidad Carlos III de Madrid (UC3M) han desarrollado una nueva metodología para que un robot aprenda por sí solo a mover sus brazos mediante la combinación de un tipo de aprendizaje por observación y la intercomunicación de sus extremidades
Investigadores de la Universidad Carlos III de Madrid (UC3M) han desarrollado una nueva metodología para que un robot aprenda por sí solo a mover sus brazos mediante la combinación de un tipo de aprendizaje por observación y la intercomunicación de sus extremidades. Este avance, presentado recientemente en el congreso de robótica más importante del mundo, el IROS2025, supone un paso más para conseguir robots de servicio más naturales y fáciles de enseñar que puedan realizar tareas asistenciales en entornos domésticos, como poner y quitar la mesa, planchar u ordenar la cocina.
Esta investigación aborda uno de los problemas más complejos de la robótica actual: la coordinación de dos brazos que trabajan juntos. En la UC3M lo están haciendo utilizando el robot ADAM (Autonomous Domestic Ambidextrous Manipulator), que ya es capaz de realizar tareas asistenciales en entornos domésticos. "Puede, por ejemplo, poner la mesa y recogerla después, ordenar la cocina o acercar al usuario un vaso de agua o las medicinas a la hora indicada. También puede ayudarle cuando va a salir, acercándole un abrigo o una prenda de ropa", explica una de las investigadoras del Mobile Robots Group del Robotics Lab de la UC3M que trabaja en esta línea de investigación, Alicia Mora.
ADAM ha sido construido para ayudar a las personas mayores en sus tareas cotidianas dentro de sus casas o en residencias, explica el director del Mobile Robots Group, Ramón Barber, catedrático del Dpto. de Ingeniería de Sistemas y Automática de la UC3M: "Todos conocemos personas para las que gestos tan simples como que alguien les acerque un vaso de agua con una pastilla o les ponga la mesa suponen una ayuda muy importante. Ese es el objetivo principal de nuestro robot".
En la comunicación presentada en el IROS 2025 por los investigadores Adrián Prados y Gonzalo Espinoza, del Mobile Robots Group, hace unas semanas en China, proponen un enfoque revolucionario para coordinar el trabajo de los brazos del robot: enseñar a cada brazo a realizar su tarea de forma independiente (mediante "aprendizaje por imitación") y luego permitir que ambos se "comuniquen" mediante un sistema matemático llamado Propagación de Creencias Gaussianas. Este método funciona como un diálogo invisible y constante entre los brazos, permitiéndoles coordinarse en tiempo real para evitar choques entre sí o con obstáculos, sin necesidad de detenerse a recalcular. El resultado es un movimiento fluido, eficiente y natural, probado con éxito tanto en simulaciones como en robots reales destinados a la asistencia doméstica.
Enseñar a un robot a realizar tareas cotidianas sigue siendo uno de los grandes retos de la robótica. Tradicionalmente, programar un robot implicaba escribir miles de líneas de código para definir cada movimiento. Frente a este enfoque, el aprendizaje por imitación propone una alternativa más intuitiva: que el robot aprenda cómo lo hace una persona, observando, y replicando acciones humanas. En este paradigma, el humano muestra la tarea (moviendo directamente el brazo del robot o grabándose mientras realiza una acción) para enseñarle, por ejemplo, a servir agua o a organizar una estantería. Sin embargo, copiar un movimiento no es suficiente. Si el robot aprende a coger una botella en una posición exacta y esta se desplaza ligeramente, un sistema que solo imita repetirá el gesto original y fallará. Por ello, el verdadero objetivo de la manipulación robótica no es la repetición mecánica, sino la adaptación y la comprensión del movimiento.
Las técnicas desarrolladas por estos investigadores abordan este problema haciendo que los movimientos aprendidos se comporten como una "goma elástica": si el objetivo cambia de posición, la trayectoria se deforma suavemente para alcanzarlo, manteniendo la esencia de la acción. Así, el robot puede adaptarse a nuevas situaciones sin perder propiedades clave del movimiento, como mantener una botella en posición vertical para no derramar el contenido. "El objetivo final es que los robots dejen de ser simples grabadoras de movimientos y se conviertan en auténticos compañeros de trabajo, capaces de percibir su entorno, anticipar acciones y colaborar de forma segura en espacios humanos", señala Adrián Prados.
Percepción, razonamiento y acción
En la práctica, el funcionamiento del robot se organiza en tres fases. En primer lugar, la percepción, mediante la recogida de datos del entorno a través de sensores. Después, el razonamiento, en el que esa información se procesa para extraer datos relevantes. Finalmente, la acción, cuando el robot decide cómo actuar, ya sea moviendo su base, coordinando los brazos o ejecutando una tarea concreta. Para ello, ADAM utiliza sensores láser en 2D y 3D, que permiten medir distancias, detectar obstáculos y localizar objetos, así como cámaras RGB con información de profundidad, con las que se generan modelos tridimensionales del entorno.
Uno de los retos más importantes es pasar de "ver" objetos a entender su uso y el contexto del usuario. Tradicionalmente, esta comprensión se basaba en bases de datos de sentido común. Actualmente, Alberto Méndez, también investigador del Mobile Robots Group, trabaja en la incorporación de modelos generativos e inteligencia artificial que permiten al robot adaptar su comportamiento a la situación concreta y a lo que está ocurriendo en cada momento.
Aunque ADAM es actualmente una plataforma experimental, con un coste aproximado de entre 80.000 y 100.000 euros, la tecnología se considera lo suficientemente madura como para pensar que, en un plazo de 10 a 15 años, robots de este tipo podrían convivir con nosotros en nuestras casas a un coste mucho más asequible.
Más allá de los avances técnicos, este trabajo pone de relieve el papel de la robótica como parte de la solución al envejecimiento de la población, un desafío creciente en nuestra sociedad. "Cada día hay más personas mayores en nuestra sociedad y menos personas que puedan atenderlas, por lo que este tipo de soluciones tecnológicas van a ser cada vez más necesarias", concluye Ramón Barber. En este contexto, "los robots asistentes se perfilan como una herramienta clave para mejorar la calidad de vida y la autonomía de las personas".
Referencia bibliográfica:
A. Prados, G. Espinoza, L. Moreno, R. Barber (2025). "Coordination of Learned Decoupled Dual-Arm Tasks through Gaussian Belief Propagation", 2025 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), Hangzhou, China, 2025, pp. 15917-15924, doi: 10.1109/IROS60139.2025.11246414. e-archivo UC3M: https://hdl.handle.net/10016/49244
Mora A, Prados A, Mendez A, Espinoza G, Gonzalez P, Lopez B, Muñoz V, Moreno L, Garrido S, Barber R (2024). ADAM: a robotic companion for enhanced quality of life in aging populations. Front. Neurorobot. 18:1337608. doi: 10.3389/fnbot.2024.1337608. e-archivo UC3M: https://hdl.handle.net/10016/46290