ITHACA, N.Y. – Las organizaciones que utilizan la IA para monitorear el comportamiento y la productividad de los empleados pueden esperar que estos se quejen más, sean menos productivos y quieran renunciar más, a menos que la tecnología pueda enmarcarse como un apoyo a su desarrollo, según una investigación de la Universidad de Cornell.
Las herramientas de vigilancia hacen que las personas sientan una mayor pérdida de autonomía que la supervisión por parte de los humanos, según la investigación. Las empresas y otras organizaciones que utilizan las tecnologías en rápida evolución para evaluar los comportamientos de los empleados deben considerar sus consecuencias no deseadas, que pueden provocar resistencia y perjudicar el rendimiento, dicen los investigadores. También sugieren una oportunidad para obtener la aceptación, si los sujetos de la vigilancia sienten que las herramientas están ahí para ayudar en lugar de juzgar su rendimiento, evaluaciones de las que temen que carezcan de contexto y precisión.
“Cuando la inteligencia artificial y otras tecnologías avanzadas se implementan con fines de desarrollo, a la gente le gusta aprender de ellas y mejorar su rendimiento”, dijo Emily Zitek, profesora asociada de comportamiento organizacional. “El problema surge cuando sienten que se está realizando una evaluación automáticamente, directamente desde los datos, y no pueden contextualizarla de ninguna manera”.
Zitek es coautor de “La vigilancia algorítmica frente a la humana conduce a una menor percepción de la autonomía y una mayor resistencia.” Rachel Schlund es la primera autora.
Los investigadores realizaron cuatro experimentos que involucraron a casi 1.200 participantes en total. En un primer estudio, cuando se les pidió que recordaran y escribieran sobre momentos en que fueron monitoreados y evaluados por cualquiera de los tipos de vigilancia, los participantes informaron sentir menos autonomía bajo la IA y fueron más propensos a participar en “comportamientos de resistencia”.
Un par de estudios les pidió a los participantes que trabajaran en grupo para idear ideas para un parque temático, y luego que generaran ideas individualmente sobre un segmento del parque. Se les dijo que su trabajo sería monitoreado por un asistente de investigación o una IA; esta última se representaba en videoconferencias de Zoom como “Alimentación de tecnología de IA”. Después de varios minutos, o el asistente humano o la “IA” transmitieron mensajes de que los participantes no estaban ideando suficientes ideas y deberían esforzarse más. En encuestas posteriores a un estudio, más del 30% de los participantes criticaron la vigilancia de la IA en comparación con aproximadamente el 7% que criticaron el monitoreo humano.
Más allá de las quejas y las críticas, los investigadores descubrieron que quienes pensaban que estaban siendo monitoreados por IA generaban menos ideas, lo que indicaba un peor rendimiento.
“Aunque los participantes recibieron el mismo mensaje en ambos casos de que necesitaban generar más ideas, lo percibieron de manera diferente cuando provenía de la IA en lugar del asistente de investigación”, dijo Zitek. “La vigilancia de la IA les hizo obtener un peor rendimiento en múltiples estudios”.
En un cuarto estudio, a los participantes que imaginaban que trabajaban en un centro de llamadas se les dijo que los humanos o la IA analizarían una muestra de sus llamadas. Para algunos, el análisis se utilizaría para evaluar su rendimiento; para otros, para brindar retroalimentación de desarrollo. En el escenario de desarrollo, los participantes ya no percibían la vigilancia algorítmica como una infracción mayor a su autonomía y no informaron una mayor intención de renunciar.
“Las organizaciones que intentan implementar este tipo de vigilancia deben reconocer los pros y los contras”, dijo Zitek. “Deben hacer todo lo posible para que sea más de desarrollo o asegurarse de que las personas puedan agregar contextualización. Si las personas sienten que no tienen autonomía, no van a estar contentas”.
Para obtener información adicional, lea esta historia de Cornell Chronicle.
La Universidad de Cornell tiene estudios de televisión y audio dedicados disponibles para entrevistas con los medios.
-30-
Revista
Psicología de las comunicaciones
Título del artículo
La vigilancia algorítmica frente a la humana conduce a una menor percepción de la autonomía y una mayor resistencia
Fecha de publicación del artículo
06-jun-2024