Imagen de Gerd Altmann en Pixabay

¿Inocente o Culpable?. Las IA también se equivocan.

Parece un guión de una película de ciencia ficción y como siempre, la realidad nos sorprende.

Una persona es acusada por un algoritmo de inteligencia artificial de un delito que no había cometido.

Tendemos a idealizar las capacidades de perfección de la Inteligencia artificial, pero debemos ser conscientes que una IA actúa en base a los datos con los que ha sido entrenada. Entrenamiento erróneo resultados incorrectos.

Robert Julian-Borchak Williams se vio envuelto en esta terrible historia con detención incluida gracias a los datos proporcionados por un algoritmo de IA. La primera ocasión en la que la intervención de una IA es utilizada para acusar de un delito a alguien sin que este lo haya cometido.

Debido a una coincidencia defectuosa de un algoritmo de reconocimiento facial que lo confundió con otra persona Williams fue arrestado por el departamento de Policía de Detroit.

Debemos apuntar que Williams es negro.

Fue arrestado en plena jornada laboral, fue esposado y llevado a comisaría. Cuando su esposa preguntó a dónde se llevaban a su marido, uno de los oficiales le respondió: «Busca en Google».

Una vez detenido e identificado unos detectives lo levaron a una sala de interrogatorios y le mostraron varios documentos referentes a un atraco en Shinola. Tenían imágenes de un vídeo de vigilancia que mostraba a un hombre de color, vestido de negro y con una gorra.

La tecnología de reconocimiento facial funciona relativamente bien con personas blancas pero no con otras características demográficas, en parte debido a la falta de diversidad en las imágenes utilizadas para desarrollar las bases de datos.

Este mal entrenamiento está dando como resultado IA’s racistas, sexistas y violentas en muchos casos. Vamos un fiel reflejo de la realidad.

No solo debemos achacar este error a una tecnología de reconocimiento facial sino a su mal uso en un trabajo policial deficiente. Porque el arresto de Williams no tuvo base ninguna, más allá de la comparación entre imágenes de mala calidad y los datos de la víctima.

El proceso fué así; en octubre de 2018 se efectúa un robo en una tienda de Shinola, La investigadora de una empresa de prevención de robos, revisa el vídeo de vigilancia y envia una copia a la policía de Detroit.

Cinco meses después la Policía Estatal de Michigan subie una imagen del vídeo que muestra al hombre a la base de datos de reconocimiento facial del estado.

El sistema examina la cara del hombre en la imagen obtenida de un fotograma del vídeo y busca otras similares en una colección de más de 49 millones de fotos y proporciona un ranking de resultados basado en puntos de confianza.

La foto del carnet de conducir de Williams estaba entre los resultados al inicio de la lista y se envía un informe al departamento de policía explicando que no existe una identificación positiva, es decir, que es una pista de investigación y no es causa probable de arresto.

Los investigadores incluyeron la foto de Wiliams en un listado que se mostró a los testigos de la empresa robada en Shinola que lo identificaron, erróneamente.

En esencia, usaron una simple coincidencia usando el reconocimiento facial como excusa para proceder a realizar una detención.

Williams estuvo retenido toda una noche y estuvo en custodia hasta 30 horas después y salió libre pagando una fianza de 1.000 dólares.

Dos semanas después el fiscal buscó desestimar el caso.

Es injusto en este caso echar la culpa a una IA que ha sido mal adiestrada y que solo ha proporcionado unos resultados basados en los datos que tiene. No se puede decir que la IA haya fallado o funcionado mal, solo que ha sido mal utilizada.

Este caso debe ponernos alerta respecto a nuestras expectativas y uso de esta tecnología. Estamos muy lejos del pre-crimen de Minority Report todavía y hay qeu tener en cuenta que las IA son recién nacidos a los que no podemos cargar con responsabilidades que puedan afectar la vida de los seres humanos.

Ver tambien

SILQ, hablar con una computadora cuántica

Los informáticos del instituto federal de tecnología ETH Zurich han diseñado Silq, el primer lenguaje …