¿Heredarán el racismo los coches autónomos?
El sesgo racial del algoritmo vuelve a la carga: un estudio encuentra que el coche autónomo es menos cauteloso ante peatones de piel oscura
Los sistemas de detección de objetos ayudan a los coches autónomos a leer el entorno y determinar los riesgos de conducir en determinadas circunstancias. Gracias a estas avanzadas herramientas, un coche autónomo puede detectar postes de luz, semáforos, señales de tráfico, otros automóviles, daños en la carretera y, por supuesto, la presencia de humanos cerca de las vías.
Los investigadores del Instituto Tecnológico de Georgia, en EEUU, experimentaron con ocho modelos de inteligencia artificial utilizados en los sistemas modernos de detección de objetos, que serán los que eventualmente se instalarán en los coches autónomos del futuro para que hagan su magia una vez que la sociedad esté preparada para permitir este cambio monumental.
Pero antes de aceptar los sistemas de detección de objetos de los que disponemos, los investigadores recomiendan a los fabricantes evacuar algunos problemas que pondrían a segmentos de la población en desventaja si se utilizaran como funcionan hoy. El error más preocupante de esta tecnología, dicen, es que tiende a favorecer los tonos claros de piel sobre los oscuros.
En palabras más comunes, la inteligencia artificial de los coches autónomos podría terminar siendo racista, dado que los ocho sistemas de detección puestos a prueba en el laboratorio de Atlanta mostraron un «rendimiento uniformemente más pobre» ante peatones de piel oscura que caucásicos o blancos. Y eso podría resultar en un desastre de terribles consecuencias.
Otro caso del sesgo del algoritmo, ahora en coches autónomos
«Los pocos coches autónomos disponibles ahora en las carreteras han mostrado una inhabilidad para mitigar riesgos de fatalidades de peatones por completo», dicen los científicos, refiriéndose a otro estudio de 2018. «Este comportamiento sugiere que los errores futuros de estos coches podrían no ser distribuidos igualemte entre diferentes grupos demográficos», agregan, apuntando a los resultados de su investigación.
Los investigadores separaron la muestra de imágenes de peatones en dos grupos, basándose en la escala Fitzpatrick, una clasificación numérica para el color de piel que se divide en seis categorías que van de los más claros a los más oscuros. El grupo uno tenía la piel más clara y el segundo más oscura. De media, la precisión de los sistemas de detección de objetos cayó un 5% al analizar imágenes del segundo grupo.
Incluso cuando los investigadores matizaron que había imágenes tomadas durante el día y otras por la noche, la inteligencia artificial continuó mostrando una desventaja ante los peatones de tez oscura, lo que lleva a los científicos a prever que un accidente de un coche autónomo tiene más probabilidades de tener víctimas morenas que blancas.
El caso se agrega por defecto al gran archivo de dramas que causa y que puede seguir causando el llamado sesgo del algoritmo, utilizado para referirse a esos casos en los que las bases de datos que utiliza la inteligencia artificial ya tienen prejuicios «de fábrica» que inevitablemente alteran el funcionamiento de las máquinas. En este caso, los investigadores recomiendan poner más imágenes de peatones de piel oscura en las muestras.