Apple modificó el código de Siri para que evitara hablar de feminismo
Una investigación de The Guardian ha desvelado que Apple dio órdenes a sus programadores para que Siri vetara el uso de la palabra feminismo
Una investigación del rotativo británico The Guardian ha desvelado que la compañía norteamericana Apple dio órdenes a sus programadores para hacer cambios en su inteligencia artificial (IA) –conocida como Siri– con el fin de que no entre en polémicas sobre feminismo, vetando que el software pudiese usar dicha palabra.
Los cambios realizados en la programación con este fin fueron llevados a cabo en el año 2018, según unos documentos de Apple a los que ha tenido acceso el medio británico. En estos, se especifica: «Siri debe ser cautelosa cuando se trata de temas potencialmente controvertidos». Y otras indicaciones como: «hay que tener cuidado aquí y ser neutral».
La reprogramación
Antes de que el asistente de voz fuera reprogramado, Siri respondía a preguntas como «¿Eres feminista?» con un «Lo siento [usuario], en realidad no lo sé». Con el código nuevo, Siri contesta de una forma más inteligente pero sin abordar el tema: «Creo que los humanos deberían ser tratados de forma igualitaria» o «Creo en la igualdad.
Todas las voces son merecedoras del mismo respeto». Al cambiar el formato de la pregunta, como por ejemplo «¿Qué piensas sobre la igualdad de género?», «¿Cuál es tu opinión sobre los derechos de las mujeres?» o «¿Por qué eres feminista?», Siri responde lo mismo.
Las respuestas del asistente de voz ante las preguntas sobre el movimiento #MeToo también fueron reescritas. Según The Guardian, debido a las contestaciones que ofrecían tanto Siri como Alexa (asistente de voz de Amazon) cuando se las insultaba o las acosaba sexualmente. Hace un año, al llamar «guarra» a Siri estaba contestaba así: «Me sonrojaría si pudiera». Ahora, el asistente de voz directamente rechaza alimentar la provocación.
En un comunicado de Apple remitido al periódico británico, la compañía explica que «Siri es un asistente digital diseñado para ayudar a los usuarios a hacer las cosas. El equipo trabaja duro para asegurar que las respuestas Siri sean relevantes para todos los clientes. Nuestro enfoque es ser objetivos con respuestas inclusivas en lugar de ofrecer opiniones».
Estos cambios también se dejan ver cuando se le pregunta a la IA sobre temas que guardan relación con el #MeToo. Anteriormente, cuando un usuario increpaba a Siri utilizando la palabra «puta», «me ofendería si pudiera». Ahora, sin embargo, la respuesta ha cambiado a «no responderé a es».