La IA puede ayudar a los trabajadores humanitarios a obtener información crucial para monitorear y anticipar mejor los riesgos, como el inicio o la escalada de un conflicto. Pero un nuevo estudio advierte que el despliegue de sistemas en este contexto no está exento de riesgos para los afectados.
Las organizaciones humanitarias han estado utilizando cada vez más tecnologías digitales y la pandemia de COVID-19 ha acelerado esta tendencia.
La cartografía de desastres con apoyo de IA se utilizó en Mozambique para acelerar la respuesta de emergencia, y los sistemas de IA se utilizaron para predecir la crisis alimentaria y fueron implementados por el Banco Mundial en veintiún países.
Pero el estudio advierte que algunos usos de la IA pueden exponer a las personas a daños adicionales y presentar riesgos significativos para la protección de sus derechos.
El estudio, publicado en el Manual sobre Guerra e Inteligencia Artificial, es del profesor Ana Beduschi, de la Facultad de Derecho de la Universidad de Exeter.
La profesora Beduschi dijo: “Las tecnologías de IA tienen el potencial de ampliar aún más el conjunto de herramientas de las misiones humanitarias en su preparación, respuesta y recuperación.
“Pero se deben implementar salvaguardas para garantizar que los sistemas de IA utilizados para apoyar el trabajo de los trabajadores humanitarios no se transformen en herramientas de exclusión de poblaciones necesitadas de asistencia. También se deben implementar salvaguardas con respecto al respeto y la protección de la privacidad de los datos.
“El imperativo humanitario de ‘no hacer daño’ debe ser primordial para todos los despliegues de sistemas de IA en situaciones de conflicto y crisis”.
El estudio dice que las organizaciones humanitarias que diseñan sistemas de IA deben garantizar la protección de datos por diseño y por defecto para minimizar los riesgos de daño, ya sea que estén legalmente obligadas a hacerlo o no. También deben utilizar evaluaciones de impacto de protección de datos (DPIA) para comprender los posibles impactos negativos de estas tecnologías.
También se deben establecer mecanismos de quejas para que las personas puedan impugnar las decisiones que fueron automatizadas o tomadas por humanos con el apoyo de sistemas de IA si estas las impactaron negativamente.
La profesora Beduschi dijo: “Los sistemas de IA pueden analizar grandes cantidades de datos multidimensionales a velocidades cada vez más rápidas, identificar patrones en los datos y predecir comportamientos futuros. Eso puede ayudar a las organizaciones a obtener información crucial para monitorear y anticipar mejor los riesgos, como el inicio o la escalada de un conflicto.
“Sin embargo, el despliegue de sistemas de IA en el contexto humanitario no está exento de riesgos para las poblaciones afectadas. Los problemas incluyen la mala calidad de los datos utilizados para entrenar algoritmos de IA, la existencia de sesgo algorítmico, la falta de transparencia con respecto a la toma de decisiones de IA y las preocupaciones predominantes sobre el respeto y la protección de la privacidad de los datos.
“Es crucial que los trabajadores humanitarios cumplan con el imperativo humanitario de ‘no hacer daño’ al decidir si desplegar la IA para apoyar su acción. En muchos casos, la solución sensata sería no depender de las tecnologías de IA, ya que estas pueden causar daño adicional a las poblaciones civiles”.