Un nuevo estudio ha revelado que la gente prefiere la Inteligencia Artificial (IA) a los humanos cuando se trata de decisiones redistributivas.
A medida que la tecnología continúa integrándose en varios aspectos de la toma de decisiones públicas y privadas, comprender la percepción y satisfacción del público y garantizar la transparencia y responsabilidad de los algoritmos será clave para su aceptación y eficacia.
El estudio, realizado por investigadores de la Universidad de Portsmouth y el Instituto Max Planck para la Innovación y la Competencia, indagó en las actitudes públicas hacia la toma de decisiones algorítmica frente a la humana y examinó el impacto de la discriminación potencial en estas preferencias.
Se utilizó un experimento de decisión online para estudiar la preferencia por los tomadores de decisiones humanas o de IA, donde las ganancias de dos personas podían redistribuirse entre ellas después de realizar una serie de tareas. A más de 200 participantes del Reino Unido y Alemania se les pidió que votaran si querían que un humano o un algoritmo (IA) tomara la decisión que determinaría cuánto dinero ganarían.
Contrariamente a hallazgos anteriores, más del 60% de los participantes eligieron la IA sobre un humano para decidir cómo se redistribuían las ganancias. Los participantes favorecieron el algoritmo, independientemente de la discriminación potencial. Esta preferencia desafía la noción convencional de que los tomadores de decisiones humanas son favorecidos en decisiones que implican un componente “moral” como la justicia.
Sin embargo, a pesar de la preferencia por los algoritmos, al calificar las decisiones tomadas, los participantes estaban menos satisfechos con la decisión de la IA y la consideraron menos “justa” que la tomada por los humanos.
Las calificaciones subjetivas de las decisiones se basan principalmente en los intereses materiales propios de los participantes y en los ideales de justicia. Los participantes pudieron tolerar cualquier desviación razonable entre la decisión real y sus ideales, pero reaccionaron de manera muy fuerte y negativa a las decisiones de redistribución que no eran consistentes con ninguno de los principios de justicia establecidos.
Dr. Wolfgang Luhan, profesor asociado de economía del comportamiento en la Escuela de Contabilidad, Economía y Finanzas de la Universidad de Portsmouth y autor correspondiente del estudio, dijo: “Nuestra investigación sugiere que si bien la gente está abierta a la idea de tomadores de decisiones algorítmicos, especialmente debido a su potencial para tomar decisiones imparciales, el rendimiento real y la capacidad de explicar cómo deciden juegan un papel crucial en la aceptación. Especialmente en contextos de toma de decisiones morales, la transparencia y la responsabilidad de los algoritmos son vitales.
“Muchas empresas ya utilizan la IA para las decisiones de contratación y la planificación de la compensación, y los organismos públicos están empleando la IA en estrategias de vigilancia y libertad condicional. Nuestros hallazgos sugieren que, con mejoras en la coherencia del algoritmo, el público puede apoyar cada vez más a los tomadores de decisiones algorítmicos incluso en áreas moralmente significativas.
“Si se toma el enfoque de IA adecuado, esto realmente podría mejorar la aceptación de las políticas y las decisiones de gestión, como aumentos salariales o pagos de bonificaciones”.
El estudio se publicó en la revista Public Choice.
Revista
Elección pública
Método de investigación
Estudio experimental
Asunto de investigación
No aplica
Título del artículo
Gobernados por robots: preferencia por los tomadores de decisiones algorítmicos y percepciones de sus elecciones
Fecha de publicación del artículo
20-jun-2024