Image by Gerd Altmann from Pixabay

¿La inteligencia artificial tiene prejuicios?

Un equipo de la Universidad de Virginia acaba de publicar un estudio en el que señala que la inteligencia artificial no solo no evita el error humano derivado de sus prejuicios, sino que puede empeorar la discriminación y está reforzando muchos estereotipos.

Si le mostramos una imagen de un hombre cocinando en una cocina un trozo de carne en la plancha , calvo que lleva gafas de pasta y vaqueros la inteligencia artificial lo tiene claro y gracias a su sofisticado aprendizaje etiqueta lo que ve: cocina, espátula, fogones, mujer. Si está en una cocina, entre fogones, debe ser una mujer.

Las máquinas se hacen más sexistas, racistas o clasistas porque identifican la tendencia subyacente y apuestan por ella para atinar. Tenemos varios casos de fracasos , veamos algunos.

1.- Tay era un robot inteligente que Microsoft diseñó para que se integrara en conversaciones en la red social Twitter aprendiendo de los demás usuarios. Tuvo que retirarlo en menos de 24 horas porque empezó a hacer apología nazi, acosar a otra personas y a defender el muro de Trump.

2.- Google que comenzó a etiquetar a personas negras como gorilas y Google Maps ubicaba la «casa del negro» en la Casa Blanca de la era Obama.

3.- Flickr clasificó como «chimpancés» las fotos de los usuarios negros.

4.- Siri de Apple no sabe qué decir cuando la dueña del móvil le dice que ha sido violada.

5.- El software de Nikon advierte al fotógrafo de que alguien ha parpadeado cuando se saca una foto de alguien con rasgos asiáticos.

6.- Las webcam de HP no son capaces de identificar y seguir los rostros más morenos, pero sí los de blancos.

7.- El primer certamen de belleza juzgado por un ordenador colocó a una única persona de piel oscura entre los 44 vencedores.

8.- Amazon deja fuera de sus mejores promociones a los barrios de mayoría afroamericana por catalogarlos como más pobres y discrimina a las mujeres en los procesos de selección gestionados por su sistema de inteligencia artificial.

9.- Facebook permite a los anunciantes que excluyan de su target comercial a minorías étnicas y, en cambio, que incluyan a personas que se identifican explícitamente como antisemitas o a jóvenes que sus algoritmos han identificado como vulnerables y depresivos.

10.- Un programa que se usa en la Justicia de EE UU para pronosticar la reincidencia de los presos es notablemente racista. Los acusados negros son el doble de propensos a ser mal etiquetados como probables reincidentes mientras que los acusados blancos que sí reincidieron fueron etiquetados como de bajo riesgo con el doble de probabilidad que los negros.

11.- Una investigación de la Universidad Carnegie Mellon descubrió que las mujeres tienen menos posibilidades de recibir anuncios de trabajos bien pagados en Google.

12.- Los programas que se usan en los departamentos de contratación de algunas empresas han mostrado inclinación por nombres usados por blancos y rechazan los de negros.

13.- Las autoridades policiales de varias ciudades usan programas que les ayudan a pronosticar los lugares en los que es más probable que haya delincuencia; de este modo, acuden más a estas zonas, detienen de nuevo a más gente allí y refuerzan el ciclo negativo.

14.- hace unos días escandalizaba un polémico algoritmo que pretendía identificar a los gais por su cara y en EE UU, ya la mitad de la población tiene su rostro registrado en bases de datos policiales de reconocimiento facial.

15.- Los gigantes de la red ya conocen hasta nuestra orientación sexual incluso sin ser usuarios de sus servicios por el análisis de las imágenes que subimos en base a algoritmos que ha aprendido de de millones de rostros y de los comentarios que esos perfiles han dejado en la red.

Los problemas del algoritmo se deben generalmente a un problema en la selección de los datos y el verdadero problema es que el algoritmo se ha convertido en ley y para ser efectivo debería ser transparente, accesible, discutible y enmendable, como la ley misma. Existen ya organismos que intentan de alguna forma controlar el uso de estos sistemas y sus consecuencias como la Liga para la Justicia Algorítmica, que aseguran que el problema de las máquinas inteligentes son sus prejuicios sociales y que hace falta crear reguladores públicos que revisen sus sistemas.

Ver tambien

Las leyes del Metaverso, ¿ser o no ser?

Desde el mismo momento que hay un entorno en que se realizan transacciones económicas, negocios, …