Robótica e Inteligencia Artificial, ¿hasta donde la censura y el control?.

Hace poco he leído esta noticia «Científicos apagan unos robots porque habían desarrollado un lenguaje entre ellos»

Según dice el texto, el equipo de desarrollo de inteligencia artificial de Facebook tomó la decisión de apagar el sistema que se creó para la toma de decisiones en el mundo de las negociaciones. Parece ser que el proyecto contaba con dos agentes (robors) , Bob y Alice, que se dedicaban a negociar, pero comenzaron a desarrollar un idioma distinto al inglés.

En un primer momento se pensaba que se trataba de un idioma particular, pero detectaron la existencia de un patrón. Algunas palabras repetitivas reflejaban la cantidad de objetos que obtendrían tras llevar a cabo una negociación.

Los desarrolladores pensaron que si un robot podía desarrollar un idioma propio y sustituirlo por el que se utilizaba para comunicarse con los humanos a la larga podrían perder todo control sobre él. Por ello, la red social de Mark Zuckerberg decidió apagarlo para evitar males mayores.

Por otra parte la Comisión Europea está avanzando en un borrador similar a las leyes robóticas de Asimov. Bruselas ya trabaja en el primer borrador de los principios éticos «para una Inteligencia Artificial confiable». El texto, aún provisional, propone una serie de principios rectores como la supervisión por parte de seres humanos y el respeto por la privacidad y la transparencia, para lograr una «Inteligencia Artificial centrada en el ser humano».

El grupo de trabajo está formado por 52 expertos de todos los ámbitos de la sociedad que trabajan en resolver cómo se garantizan los derechos de privacidad con el uso de sistemas basados en inteligencia artificial.

Este primer borrador consta de 36 páginas resumidos en dos grandes pilares. El primero de ellos con propósito ético «la inteligencia artificial deberá respetar la regulación vigente y los derechos humanos».

El segundo pilar escrito por los expertos de la Unión Europea cita » La inteligencia artificial deberá garantizar que, incluso siendo usada con buenas intenciones, la falta de pericia tecnológica en su manejo no causa un daño involuntario».

No hacer el mal es básico en el nuevo borrador. Además se establece que las acciones de la inteligencia artificial han de ser explicables y deben ser justas.

También se disponen como valores básicos la ausencia de discriminación, la necesidad de que siempre sea posible una supervisión por parte de seres humanos, y el respeto a la privacidad de los mismos.

El texto definitivo se publicará en marzo de 2019. Este grupo de trabajo está abierto a nuevas sugerencias y aportaciones hasta el próximo 18 de enero.

Ver tambien

Las leyes del Metaverso, ¿ser o no ser?

Desde el mismo momento que hay un entorno en que se realizan transacciones económicas, negocios, …