Actualidad

La investigación de la ‘equidad’ de la IA se retrasó por falta de diversidad

La investigación de la 'equidad' de la IA se retrasó por falta de diversidad

Los sesgos en las herramientas de IA, como las que se utilizan para detectar signos de enfermedad, pueden exacerbar las desigualdades en la atención de la salud. Crédito: Jiraroj Praditcharoenkul/Alamy

La falta de diversidad racial y de género puede estar obstaculizando los esfuerzos de los investigadores que trabajan para mejorar la equidad de las herramientas de inteligencia artificial (IA) en el cuidado de la salud, como las diseñadas para detectar enfermedades a partir de muestras de sangre o datos de imágenes.

Los científicos analizaron 375 artículos de investigación y revisión sobre la equidad de la inteligencia artificial en el cuidado de la salud, publicados en 296 revistas entre 1991 y 2022. De los 1984 autores, el 64 % eran blancos, mientras que el 27 % eran asiáticos, el 5 % eran negros y el 4 % eran hispanos (ver ‘Brechas en la representación’).

El análisis, publicado como preimpresión en medRxiv1, también encontró que el 60 % de los autores eran hombres y el 40 % mujeres, una brecha de género que se ha ampliado entre los últimos autores, que a menudo tienen un rol de liderazgo senior en la búsqueda.

«Estos hallazgos son un reflejo de lo que está sucediendo en la comunidad de investigación en general», dice el coautor del estudio Leo Anthony Celi, experto en informática de la salud e investigador clínico del Instituto de Tecnología de Massachusetts en Boston.. La falta de diversidad es problemática porque conduce a conjuntos de datos y algoritmos sesgados que funcionan mejor para las personas blancas en los países ricos, dice.

Fuente: ref. 1

Al analizar la ubicación de las instituciones afiliadas de los autores, los investigadores encontraron que el 82% de los autores residían en países de altos ingresos, mientras que solo el 0,5% residía en países de bajos ingresos. Los artículos dirigidos por investigadores con base en países de altos ingresos fueron citados más de cuatro veces más que los dirigidos por investigadores en países de bajos ingresos.

“Es importante que estas desigualdades se hagan conscientes, porque si la IA [systems] están llenos de sesgos, pueden usarse de tal manera que reproduzcan la desigualdad en salud, lo cual es realmente problemático”, dice Kristine Bærøe, experta en ética de la salud de la Universidad de Bergen en Noruega.

“Usted quiere que los que se sientan a la mesa representen a los que están desproporcionadamente cargados de enfermedades, que podrían beneficiarse más de estas tecnologías”, dice Celi. Por ejemplo, las personas de raza negra corren un mayor riesgo que las personas de raza blanca de desarrollar una COVID-19 grave, pero algunas herramientas de inteligencia artificial utilizadas para calcular los niveles de oxígeno en la sangre funcionan con mayor precisión para las personas de raza blanca. Promover una cultura más inclusiva puede ayudar a retener a científicos de grupos marginados en la investigación, lo que, a su vez, ayudará a reducir el sesgo incorporado en estas herramientas, dice Celi.

alcance limitado

Una limitación del análisis fue que los datos demográficos se extrajeron de una combinación de perfiles en línea y bases de datos bibliográficas, pero esta última no proporcionó una opción para que los investigadores identificaran como no binario o multirracial, dice el coautor Charles Senteio, un experto en salud. Ciencias de la computación en la Universidad de Rutgers en New Brunswick, Nueva Jersey. Esto significó excluir estas identidades del análisis.

“Necesitamos mejores formas de rastrear la identidad de las personas, como darles más opciones para definir su raza o género”, dice Senteio.

“Este es un estudio oportuno cuyo valor radica en llamar la atención de investigadores, instituciones y agencias de financiación sobre este importante aspecto de la investigación”, dice Nan Liu, que trabaja en IA en medicina en la Facultad de Medicina Duke-NUS en Singapur.

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)

Añadir comentario

Haz clic para publicar un comentario