Inteligencia artificial: el sesgo racial ya es un problema político
Dos senadores de EEUU denuncian que los algoritmos utilizados en casi todos los centros del país proporcionan peor asistencia médica a pacientes negros
La inteligencia artificial ha posibilitado el avance en un sinfín de aplicaciones tecnológicas. Sin embargo, puede tener un componente negativo: el sesgo racial. Compañías como Amazon, que se vio obligada a retirar un robot que analizaba currículums de posibles candidatos por tendencias misóginas; o Apple, cuyo sistema de pago, Apple Card, fue denunciado por «sexista», ya han sufrido un problema que ya se trata como un asunto político.
Según un estudio publicado en la prestigiosa revista Science, el software utilizado por muchos centros hospitalarios de Estados Unidos proporciona una peor atención médica a los pacientes negros respecto a los blancos.
Los senadores Cory Booker y Ron Wyden se hicieron eco de esto, y este martes remitieron sendas cartas a la Comisión Federal de Comercio, a los Centros de Servicios Medicare y Medicaid (CME), y a las cinco aseguradoras sanitarias más grandes del país: Aetna (CVS), Blue Cross Blue Shield, Cigna, Humana y UnitedHealth, que dan cobertura a más de 300 millones de personas.
Ordenadores con prejuicios humanos
«Al usar algoritmos, las entidades a menudo intentan eliminar fallos y prejuicios humanos del progreso», explica Booker y Wyden. «Desafortundamente, tanto las personas que diseñan estos sistemas como los conjuntos masivos de datos que se emplean tienen muchos sesgos históricos y humanos incorporados», continúan, para concluir que «sin una consideración muy cuidadosa, los algoritmos quee crean posteriormente pueden perpetuar aún más esos sesgos».
El estudio buscó alrededor de 50.000 registros de pacientes de un «gran hospital universitario» del que no señalan el nombre, aunque apunta que es una de las muchas instalaciones que usan algoritmos para identificar las necesidades más urgentes y abordar el plan para la atención de los pacientes. Cuando compararon las puntuaciones de riesgo asignadas, descubrieron que los pacientes negros recibían una atención «significativamente» menor, con síntomas o afecciones ‘peores’ que la de sus pares blancos.
Aunque el algoritmo no considera la raza como un factor determinante, predijo qué tipo de pacientes costarían más atender. Sí tuvo en cuenta los niveles de ingreso y de gasto en atención médica según los grupos raciales, considerando que los que de menos dinero disponen necesitaban gastar menos en atención médica, por lo que la puntuación no coincidía con sus necesidades.
Además de los senadores Booker y Wyden, el alcalde de Nueva York, Bill de Blasio, llevó a cabo una iniciativa para que su Gobierno actúe como una especie de supervisor para reducir el sesgo de los algoritmos, que en la ciudad se emplean para abastecer de servicios públicos a unos 8,6 millones de residentes.
¿Cómo eliminar el sesgo de la IA?
Según explicó Jennifer Belissent, analista jefe de Forrester Research, en la pasada edición del Mobile World Congress, el sesgo de la inteligencia artificial se trata de un «viejo problema en un nuevo disfraz». A su juicio, los datos «no pueden ser neutrales» porque nacen en un contexto social, por lo que las nuevas tecnologías también han heredades los prejuicios de la sociedad.
Para contrarrestar el sesgo, Belissent aludió a la denominada «alfabetización de la inteligencia artificial» como única vía para aumentar la confianza de los usuarios. Esta usaría soluciones de big data para hacer más accesible estas tecnologías a los consumidores. «Las personas están dispuestas a compartir sus datos si sienten que extraen valor de ello», aseguró Belissent.