Microsoft admite que la inteligencia artificial puede ser su ruina
La tecnológica confirma su apuesta por la inteligencia artificial pero advierte a los inversores de que pueden haber "daños a su marca o a su reputación"
La inteligencia artificial es una oportunidad, pero también representa vastos riesgos para las tecnológicas que apuestan por ella.
Así lo reconoce Microsoft en un documento enviado a sus inversores, en el que avisa del potencial de su enfoque en la inteligencia artificial para causar daño a la compañía, al entender que puede haber situaciones inapropiadas alrededor de esta tecnología, y que un paso en falso en este sentido podría llevarle a la ruina.
La SEC (la Comisión de Bolsa y Valores de EEUU) pide a las empresas públicas estadounidenses un informe dirigido a los inversores en el que repasen el estado financiero del último ejercicio, además de señalar los riesgos que hayan surgido en el año.
Microsoft, en 2018, además de agrupar peligros recurrentes, creó una sección aparte y completamente nueva en el documento para referirse de forma específica a la inteligencia artificial y a todas las formas en que puede salir mal.
Hace un año una investigación del MIT reveló que el algoritmo de reconocimiento facial de Microsoft era menos precisa con las mujeres y las personas no caucásicas.
La compañía fundada por Bill Gates admitió que su software de inteligencia artificial tiene un sesgo: «Si entrenamos sistemas de aprendizaje automático para imitar decisiones tomadas en una sociedad sesgada, usando datos generados por esa sociedad, entonces esos sistemas necesariamente reproducirán esos sesgos», dijo la investigadora de la tecnológica, Hanna Wallach.
Microsoft: «Algunos escenarios de inteligencia artificial presentan problemas éticos»
En el documento enviado a los inversores Microsoft afirma que «los algoritmos de inteligencia artificial pueden ser defectuosos». «Las bases de datos pueden ser insuficientes o contener información sesgada, y las prácticas de datos inapropiadas o controvertidas de Microsoft u otras empresas podrían impedir la aceptación de las soluciones de inteligencia artificial», agregó. Esta parte del documento parece un «lección aprendida» por parte de Microsoft después de la polémica del reconocimiento facial.
«Estas deficienciencias podrían socavar las decisiones, predicciones o análisis que producen las aplicaciones de inteligencia artificial, lo que nos somete a daños competitivos, responsabilidad legal y daños a la marca o a la reputación», añadió el documento.
«Algunos escenarios de inteligencia artificial presentan problemas éticos. Si habilitamos u ofrecemos soluciones de inteligencia artificial que son controvertidas debido a su impacto en los derechos humanos, la privacidad, el empleo u otros problemas sociales, podemos experimentar daños a la marca o a la reputación».
A pesar de los riesgos Microsoft espera que la inteligencia artificial sea uno de los elementos de su negocio de mayor crecimiento. «Imaginamos un futuro en el que la implementación de la inteligencia artificial en nuestros dispositivos, aplicaciones y en la nube ayude a nuestros clientes a ser más productivos en el trabajo y en la vida personal», dice el documento.