¿Cómo les gusta a las personas interactuar con robots al navegar por un entorno abarrotado? ¿Y qué algoritmos deberían usar los robóticos para programar robots para interactuar con humanos?
Estas son las preguntas que un equipo de ingenieros mecánicos e informáticos de la Universidad de California en San Diego buscó responder en un estudio presentado recientemente en la conferencia ICRA 2024 en Japón.
“Hasta donde sabemos, este es el primer estudio que investiga robots que infieren la percepción del riesgo humano para la toma de decisiones inteligentes en entornos cotidianos”, dijo Aamodh Suresh, primer autor del estudio, quien obtuvo su doctorado en el grupo de investigación de la profesora Sonia Martinez Díaz en el Departamento de Ingeniería Mecánica y Aeroespacial de la UC San Diego. Ahora es investigador postdoctoral para el Laboratorio de Investigación del Ejército de los EE. UU.
“Queríamos crear un marco que nos ayudara a comprender cuán aversos al riesgo son los humanos, o no, cuando interactúan con robots”, dijo Angelique Taylor, segunda autora del estudio, quien obtuvo su doctorado en el Departamento de Ciencias de la Computación e Ingeniería de la UC San Diego en el grupo de investigación de la profesora Laurel Riek. Taylor ahora es miembro de la facultad de Cornell Tech en Nueva York.
El equipo recurrió a modelos de economía conductual. Pero querían saber cuáles utilizar. El estudio tuvo lugar durante la pandemia, por lo que los investigadores tuvieron que diseñar un experimento en línea para obtener su respuesta.
Los sujetos, en su mayoría estudiantes universitarios y de posgrado de STEM, jugaron un juego en el que actuaron como compradores de Instacart. Tuvieron la opción entre tres rutas diferentes para llegar al pasillo de la leche en una tienda de comestibles. Cada ruta podría llevar de cinco a 20 minutos. Algunas rutas los llevarían cerca de personas con COVID, incluida una con un caso grave. Las rutas también tenían diferentes niveles de riesgo de ser tocados por la tos de alguien con COVID. La ruta más corta puso a los sujetos en contacto con las personas más enfermas. Pero los compradores fueron recompensados por alcanzar su objetivo rápidamente.
Los investigadores se sorprendieron al ver que las personas constantemente subestimaban en sus respuestas de la encuesta que indicaban su voluntad de asumir riesgos de estar cerca de compradores infectados con COVID-19. “Si hay una recompensa en ello, a la gente no le importa correr riesgos”, dijo Suresh.
Como resultado, para programar robots para interactuar con humanos, los investigadores decidieron confiar en la teoría de la perspectiva, un modelo de economía conductual desarrollado por Daniel Kahneman, quien ganó el Premio Nobel de Economía por su trabajo en 2002. La teoría sostiene que las personas ponderan las pérdidas y las ganancias en comparación con un punto de referencia. En este marco, las personas sienten más las pérdidas que las ganancias. Entonces, por ejemplo, las personas elegirán obtener $450 en lugar de apostar por algo que tiene un 50% de posibilidades de ganarles $1100. Entonces, los sujetos en el estudio se centraron en obtener la recompensa por completar la tarea rápidamente, lo cual era seguro, en lugar de sopesar el riesgo potencial de contraer COVID.
Los investigadores también preguntaron a las personas cómo les gustaría que los robots comunicaran sus intenciones. Las respuestas incluyeron voz, gestos y pantallas táctiles.
A continuación, los investigadores esperan realizar un estudio en persona con un grupo de sujetos más diverso.
- Navegación de robots en entornos peligrosos y abarrotados: comprensión de las preferencias humanas
Aamodh Suresh, Angelique Taylor, Laurel D. Riek, Sonia Martinez Díaz, Universidad de California en San Diego
Método de investigación
Estudio experimental
Asunto de investigación
No aplicable