Norman es un algoritmo de inteligencia artificial entrenado para ser capaz de entender/interpretar imágenes. Al igual que Norman Bates, el protagonista de «Psicosis», no tiene una visión muy optimista del mundo.
El algoritmo Norman fue desarrollado por un equipo de científicos del Instituto de Tecnología de Massachusetts, en Estados Unidos, y forma parte de un experimento para conocer qué pasaría si la inteligencia artificial se entrena para ver «los rincones más oscuros de la red».
Al software le mostraron imágenes de personas muriendo en circunstancias espantosas, extraídas del sitio web Reddit, después le mostraban manchas de tinta del test de Rorschach y le preguntaban cuál era su interpretación. Ese tipo de imágenes abstractas suelen usarse en psicología para ayudar a evaluar el estado mental de un paciente, especialmente para saber si percibe el mundo con un prisma positivo o negativo. La visión de Norman era desoladora: veía cuerpos muertos, sangre y destrucción en cada una de las imágenes.
Junto a Norman, otro sistema de inteligencia artificial fue entrenado con imágenes más positivas de gatos, pájaros y personas y este software interpretó cosas mucho más positivas en los mismos dibujos abstractos.
El hecho de que las respuestas de Norman fueran mucho más oscuras ilustra una dura realidad en el nuevo mundo del aprendizaje automático; «Los datos importan más que el algoritmo».
La inteligencia artificial ya se está implementando en una gran variedad de industrias, desde asistentes personales hasta filtrado de correos electrónicos, prevención de fraudes digitales, reconocimiento facial y de voz y clasificación de contenido. También puede servir para generar noticias, crear nuevos niveles en videojuegos, hacerse pasar por un agente de servicio al cliente, analizar informes médicos y financieros y ofrecer puntos de vista sobre cómo los centros de datos pueden ahorrar energía.
Pero si algo prueba el experimento de Norman es que si la inteligencia artificial es entrenada con datos siniestros se volverá siniestra. Norman tiene una visión sobre la muerte y la destrucción porque eso es todo lo que conoce y, de la misma forma, la inteligencia artificial puede ser influenciada en situaciones reales si es entrenada con datos defectuosos.
Una investigación reciente reveló que un programa informático generado con inteligencia artificial tenía un sesgo contra prisioneros negros. El programa señaló que los negros tenían el doble de probabilidades que los blancos de reincidir, como resultado de la información errónea de la que aprendió. En otros algoritmos usados por la policía en Estados Unidos se descubrió un sesgo similar debido a los datos históricos con los que fueron entrenados.
A veces, la inteligencia artificial «aprende» de humanos que intentan manipularla, como Tay, una «chatbot» de Microsoft que fue lanzada en Twitter en 2016 y se volvió racista y xenófoba. Otros software demostraron ser sexistas, como el de Google News, según concluyó un estudio en 2016.
Joanna Bryson, del departamento informático de la Universidad de Bath, Reino Unido, dice que el problema del sexismo en la inteligencia artificial tiene que ver con que las máquinas son programadas por «hombres blancos solteros de California».
El experimento con Norman demostró que los ingenieros tienen que encontrar una forma de equilibrar los datos de alguna manera, pero eso no depende solo de los programadores, se tiende a creer que el comportamiento de las máquinas se puede estudiar de la misma forma que el humano.
Estamos entonces ante una nueva disciplina de la psicología, la «psicología» de la inteligencia artificial.



