Armas Letales Autónomas, los llamados robots asesinos se debaten en la ONU

Varios expertos de la ONU debatieron en la tercera Reunión Informal de Expertos de las Naciones Unidas sobre Sistemas de Armas Letales Autónomas (abril 2018).

La falta de regulación de estos sistemas ha sido el eje central de esta reunión. El objetivo de este encuentro es poner sobre la mesa las leyes por las que deben regirse dichos robot (derecho internacional humanitario). ¿Que significa esto?, supondría que los robots militares deben regirse por los principios de distinción entre civiles y combatientes, la proporcionalidad en la escala de ataque o su uso para cometer genocidio, masacres y crímenes de guerra. y los responsables del ejército que controlan los robots serían responsables de las acciones de los mismos.

En este tema existen opiniones muy dispersas, dependiendo de la situación actual de cada región.

1. EMPLEAR LAS LEYES QUE YA EXISTEN
El derecho internacional humanitario que existe en la actualidad debe ser suficiente para regular las nuevas tecnologías basadas en inteligencia artificial y en robótica. (Posición defendida por Reino Unido)

2. LOS HUMANOS DECIDEN
Prohibir este tipo de tecnología no es la solución, pero sí sería necesario contar siempre con un humano al mando para poder tomar decisiones. Esto significa que aunque sea el robot quien seleccione objetivos y dispare, los seres humanos serían los responsables de establecer las reglas de combate y de las acciones. (Posición defendida por Francia, Holanda y Suiza)

3. LOS ROBOTS SON SUPERIORES
La prohibición de este tipo de robots por incumplir la ley humanitaria no es una teoría válida para Reino Unido, Francia y Canadá, que aseguran que podrían ser moralmente superiores a los soldados humanos, ya que estas máquinas serían más exactas, más precisas y menos propensas a malas decisiones causadas por el pánico o la venganza.

4. PROHIBICIÓN TOTAL
Completamente en contra de la postura de países como Canadá, se encuentran la Santa Sede y otras trece naciones que consideran que lo que no es moral es dejar a estas máquinas el control total, sin intervención humana.

Por su parte, Pakistán y Palestina defienden la prohibición total de drones o armas teledirigidas aunque el control sea total por parte de un humano.

Lo que está claro es que cada vez estamos más cerca de los planteamientos de ASIMOV, tal vez debamos desempolvar viejos libros y dar una oportunidad a las 3 leyes de la robótica que planteaba.

Primera ley.- Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño.
Segunda Ley.- Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley.
Tercera Ley.- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

Nos iría mucho mejor a todos.

Ver tambien

Fotónica de silicio, solución para la computación no cuántica.

Los actuales sistemas que dan vida a ordenadores, teléfonos, etc. usan como base el chip …