Image by rawpixel from Pixabay

Inteligencia Artificial, ¿sabes con quien hablas?

Como mero experimento, a mediados de 2016, John Seymour y Philip Tully, dos investigadores de una empresa de seguridad en Baltimore, crearon un nuevo bot de Twitter. Un bot  (viene de de robot) es un programa informático que efectúa automáticamente tareas repetitivas a través de Internet, este en particular analizaba los patrones de actividad en la plataforma y aprendió a engañar a los usuarios para que dieran clic en enlaces de que llevaban a sitios potencialmente peligrosos.

SNAP_R es el nombre del bot, se trata de un sistema automatizado de fraude por suplantación de identidad capaz de aprovechar los gustos de cada persona y convencerlos de descargar sin saberlo programas espía en sus máquinas.

El bot consiguió un 66 % de clics en enlaces peligrosos. Ahora ya no se ejecuta, solo era un experimento, pero dejó claro que los internautas pueden ser manipulados por un sistema inteligente.

La base de este programa es lo que se llama red neuronal, un complejo sistema matemático que puede aprender tareas analizando grandes cantidades de datos.

Este software puede aprender a reconocer una vaca por ejemplo mediante el procesamiento de patrones de miles de fotografías de vacas o, igualmente, puede aprender a identificar palabras en una conversación a partir del análisis de llamadas grabadas al soporte técnico de una empresa.

Una red neuronal puede también aprender a escribir mensajes electrónicos fraudulentos inspeccionando tuits, publicaciones de Reddit o estudiando ciberataques previos.

Con esta técnica matemática es posible dotar a las máquinas, desde el reconocimiento de voz hasta la traducción de lenguas. La inteligencia artificial (IA) es una manera ideal para engañar a muchas personas en internet.

Existe cierta preocupación por el ascenso de la IA que genera deepfakes, o imágenes falsas que parecen reales. La amenaza puede crecer conforme se desarrollen sistemas que puedan aprender de repositorios de datos cada vez mayores. Las redes neuronales pueden generar sonidos e imágenes creíbles, lo que permite que los asistentes digitales como Siri o Cortana suenen más humanos que hace unos años.

A medida que estos sistemas de IA mejoren, se volverá más fácil y más barato que cualquiera genere contenido digital (imágenes, vídeos, interacciones sociales) falso que se vea y suene como si fueran real. Por ejemplo Duplex es un sistema de Google ahora en pruebas que puede llamar a un restaurante local y hacer reservas convenciendo a la persona que está del otro lado del teléfono que quien llama es una persona real.

Los sistemas actuales pueden leer en varios idiomas y en toda la red «entendiendo» el contenido e intención del texto. Pueden leer un párrafo y responder preguntas al respecto, también pueden juzgar si la reseña de una película es positiva o negativa o si el tono de un escrito es amistoso, amenazante o simplemente un intento de venta comercial por ejemplo.

En el ámbito del engaño, esta tecnología podría mejorar los bots que se utilizan para mensajes fraudulentos por internet como SNAP_R. Actualmente, la mayoría de los bots de Twitter no soportan un examen cuando empiezas a interactuar con ellos. Cuando les respondes parecen bots. En un futuro cercano esto va a cambiar, ellos responderán también y parecerán personas.

La tecnología de voz virtual hará que puedan mantener una conversación adecuada y, sin duda, uno de estos días te llamarán y te convencerán de proporcionar la información de tu tarjeta de crédito.

Todo este software no es posible sin el apoyo de hardware específico. Google o IBM ha diseñado microprocesadores para entrenar redes neuronales. Otras empresas están construyendo microprocesadores similares y, conforme lleguen al mercado, acelerarán la investigación en torno a la IA aún más.

Ya hay constancia del uso, bastante peligroso, de la IA por parte de gobiernos o corporaciones que usan sistemas de aprendizaje automatizado para influir en la opinión de sus ciudadanos o a nivel global en otros países.

Estamos en los albores de una nueva propaganda social donde los gobiernos pueden comenzar a crear campañas dirigidas a individuos y al mismo tiempo a nivel social.

Digamos también que de idéntica forma en la que la Inteligencia Artificial se puede utilizar con estos fines poco morales, también se utiliza para identificar y erradicar estos comportamientos.

Esto se llama GAN o redes generativas antagónicas, es como una lucha entre dos sistemas de redes neuronales que generan o manipulan automáticamente imágenes convincentes. Mientras una red red hace millones de cambios pequeños a una imagen para generar algo falso en un esfuerzo para engañar a la segunda red.

La segunda red hace lo mejor que puede para evitar que la engañen. Mientras ambas compiten, la imagen se vuelve más convincente y la IA que trata de detectar el contenido falso siempre pierde.

Hablando entonces de detectar noticias falsas todo se complica. Si un humano apenas puede detectar si una noticia es real o falsa, ¿cómo podemos esperar que lo haga una máquina?

En este momento de guerra de información contra desinformación lo único que podemos hacer es dudar de cualquier noticia que recibamos y sobre todo contrastar la información no solo en el mundo virtual, sino en el mundo real del que tristemente estamos cada vez más lejos.

Ver tambien

Las leyes del Metaverso, ¿ser o no ser?

Desde el mismo momento que hay un entorno en que se realizan transacciones económicas, negocios, …