Un equipo liderado por científicos informáticos de la Universidad de Maryland inventó un mecanismo de cámara que mejora la forma en que los robots ven y reaccionan al mundo que les rodea. Inspirado en el funcionamiento del ojo humano, su innovador sistema de cámara imita los pequeños movimientos involuntarios que utiliza el ojo para mantener una visión clara y estable a lo largo del tiempo. La creación de prototipos y las pruebas de la cámara, denominada Cámara de eventos mejorada con microsacadas artificiales (AMI-EV), se detallaron en un artículo publicado en la revista Science Robotics en mayo de 2024.
“Las cámaras de eventos son una tecnología relativamente nueva que es mejor para rastrear objetos en movimiento que las cámaras tradicionales, pero las cámaras de eventos actuales tienen dificultades para capturar imágenes nítidas y sin desenfoque cuando hay mucho movimiento involucrado”, dijo el autor principal del artículo, Botao He, un estudiante de doctorado en informática en la UMD. “Es un gran problema porque los robots y muchas otras tecnologías, como los coches autónomos, dependen de imágenes precisas y oportunas para reaccionar correctamente a un entorno cambiante. Entonces, nos preguntamos: ¿cómo los humanos y los animales se aseguran de que su visión se mantenga enfocada en un objeto en movimiento?”
Para el equipo de He, la respuesta fueron las microsacadas, pequeños y rápidos movimientos oculares que se producen involuntariamente cuando una persona intenta enfocar su mirada. A través de estos movimientos minúsculos pero continuos, el ojo humano puede mantener el enfoque en un objeto y sus texturas visuales, como el color, la profundidad y el sombreado, con precisión a lo largo del tiempo.
“Nos dimos cuenta de que, al igual que nuestros ojos necesitan esos pequeños movimientos para mantenerse enfocados, una cámara podría utilizar un principio similar para capturar imágenes claras y precisas sin desenfoque causado por el movimiento”, dijo He.
El equipo replicó con éxito las microsacadas insertando un prisma rotatorio dentro de la AMI-EV para redirigir los rayos de luz captados por la lente. El movimiento de rotación continuo del prisma simulaba los movimientos que ocurren naturalmente en el ojo humano, permitiendo que la cámara estabilizara las texturas de un objeto grabado como lo haría un humano. Luego, el equipo desarrolló un software para compensar el movimiento del prisma dentro de la AMI-EV para consolidar imágenes estables de las luces cambiantes.
El coautor del estudio, Yiannis Aloimonos, profesor de informática en la UMD, considera que la invención del equipo es un gran paso adelante en el ámbito de la visión robótica.
“Nuestros ojos toman fotos del mundo que nos rodea y esas fotos se envían a nuestro cerebro, donde se analizan las imágenes. La percepción ocurre a través de ese proceso y así es como entendemos el mundo”, explicó Aloimonos, quien también es director del Laboratorio de Visión por Computadora del Instituto de Estudios Avanzados en Informática de la Universidad de Maryland (UMIACS). “Cuando trabajas con robots, reemplaza los ojos con una cámara y el cerebro con una computadora. Las mejores cámaras significan una mejor percepción y reacciones para los robots”.
Los investigadores también creen que su innovación podría tener implicaciones significativas más allá de la robótica y la defensa nacional. Los científicos que trabajan en industrias que dependen de la captura de imágenes precisa y la detección de formas están buscando constantemente formas de mejorar sus cámaras, y la AMI-EV podría ser la solución clave para muchos de los problemas que enfrentan.
“Con sus características únicas, los sensores de eventos y la AMI-EV están preparados para ocupar un lugar central en el ámbito de los dispositivos portátiles inteligentes”, dijo la científica investigadora Cornelia Fermüller, autora principal del artículo. “Tienen ventajas distintas sobre las cámaras clásicas, como un rendimiento superior en condiciones de iluminación extremas, baja latencia y bajo consumo de energía. Estas características son ideales para aplicaciones de realidad virtual, por ejemplo, donde se necesita una experiencia perfecta y los cálculos rápidos de los movimientos de la cabeza y el cuerpo”.
En las pruebas iniciales, la AMI-EV pudo capturar y mostrar el movimiento con precisión en una variedad de contextos, incluyendo la detección del pulso humano y la identificación rápida de formas en movimiento. Los investigadores también encontraron que la AMI-EV podía capturar el movimiento a decenas de miles de cuadros por segundo, superando la mayoría de las cámaras comerciales disponibles, que capturan un promedio de 30 a 1000 cuadros por segundo. Esta representación del movimiento más fluida y realista podría resultar crucial en cualquier cosa, desde la creación de experiencias de realidad aumentada más inmersivas y un mejor monitoreo de seguridad hasta la mejora de la forma en que los astrónomos capturan imágenes en el espacio.
“Nuestro novedoso sistema de cámara puede resolver muchos problemas específicos, como ayudar a un coche autónomo a averiguar qué hay en la carretera que es un humano y qué no”, dijo Aloimonos. “Como resultado, tiene muchas aplicaciones con las que el público en general ya interactúa, como los sistemas de conducción autónoma o incluso las cámaras de los teléfonos inteligentes. Creemos que nuestro novedoso sistema de cámara está allanando el camino hacia sistemas más avanzados y capaces que están por venir”.
###
Además de He, Aloimonos y Fermüller, otros coautores de la UMD incluyen Jingxi Chen (B.S. ’20, informática; M.S. ’22, informática) y Chahat Deep Singh (M.E. ’18, robótica; Ph.D. ’23, informática).
Esta investigación está apoyada por la Fundación Nacional de Ciencias de los EE. UU. (Núm. de concesión 2020624) y la Fundación Nacional de Ciencias Naturales de China (Números de concesión 62322314 y 62088101). Este artículo no refleja necesariamente las opiniones de estas organizaciones.
El artículo, “Cámara de eventos inspirada en microsacadas para robótica“, se publicó en Science Robotics el 29 de mayo de 2024.
Journal
Science Robotics
Título del artículo
Cámara de eventos inspirada en microsacadas para robótica
Fecha de publicación del artículo
29-mayo-2024