Los detectores de noticias falsas serán, como poco, limitados

A principios de 2019 surgió una polémica noticia. Open AI, una organización sin ánimo de lucro creada por Elon Musk, anunció que había diseñado un generador de noticias falsas llamado GPT-2. Técnicamente, GPT-2 es un “modelo de lenguaje de aprendizaje sin supervisión”, capaz de redactar fake news que dan el pego.

Apenas dos meses más tarde, investigadores del MIT-IBM Watson IA Lab y HardvardNLP desarrollaron otra herramienta llamada GLTR. Lo que persigue es detectar las noticias falsas escritas por la IA de arriba. Es decir, GLTR detecta los textos escritos por GPT-2. ¿Estamos a salvo de las noticias falsas? Spoiler: no.

GPT-2: de una frase te saca una noticia

GPT-2 es una herramienta muy versátil. Parte de su código fue publicado en abierto, y otra parte sigue en el misterio. El por qué ha sido vetado al público es obvio: GPT-2 es un algoritmo que puede ser “alimentado” con millones de noticias reales y generar otras, esta vez falsas, de forma automática. Nos recuerda, en versión de texto, a aquella otra IA que genera realistas rostros falsos.

Una vez entrenada la IA, basta con darle una línea para que nos cree una fake new. Imaginemos el potencial que podría tener algo así. Lo más curioso es que el mismo código podría servir, por ejemplo, para “escribir” novelas. Pero el uso delictivo orientado a la prensa es demasiado evidente.

Pongamos un ejemplo personal. El ordenador Acer Swift 7, uno de los más finos del mercado, incluye una tarjeta eSIM para conectarte en cualquier lugar a la red 4G. De modo que puedes abrir el portátil en cualquier lugar y leer una noticia. ¿Qué ocurrirá cuando casi todas las que se escriben no sean de verdad?

GLTR funciona muy bien… con GPT-2

En el lado opuesto de la balanza tenemos a GLTR, un software que ya ha demostrado su eficiencia en su “lucha” contra las noticias falsas de GPT-2. Abajo tenemos dos noticias: una noticia falsa de GPT-2 a la izquierda y una real escrita por una persona a la derecha.

GLTR trata de adivinar qué palabra pondría GPT-2 a continuación y, en base a eso, otorga a cada palabra un “porcentaje de probabilidad de que haya sido colocada por GPT-2”. Cuanto más verde vemos, más probable es que GPT-2 esté detrás. De modo que parece que tenemos un detector para las fake news, ¿verdad?

Tendremos que aprender a vivir con las falsas noticias

Dice Ángel Gómez de Ágreda en su recién publicado ‘Munto Orwel’ (2019) que “habría que hablar de «falsas noticias» en lugar de «noticias falsas»”. Fundamentalmente porque no son noticias, sino relatos que parecen noticias. Aviso para navegantes: vamos a tener que aprender a vivir con ellas.

El motivo es sencillo: GPT-2 no será el único software capaz de crear estos relatos. Pronto surgirán una decena, luego un centenar, y finalmente decenas de miles de generadores de contenido falso. Alguien, en alguna parte, los programará por motivos diversos: desde el cibercrimen al reto que supone.

Al igual que instalamos antivirus en nuestros ordenadores, también tendremos complementos anti-fake-news incorporados al navegador. Puede que incluso se integren dentro del antivirus. Pero el elemento de seguridad más importante seguiremos siendo las personas.

Somos nosotros los que, haciendo uso de nuestra educación digital, la comprensión lectora, un espíritu crítico y la búsqueda de fuentes originales, podremos detectar una falsa noticia. La lucha de los algoritmos empezará pronto, más nos vale leer con atención.

En InGET by Acer | ¿Para qué usaremos la capacidad de crear miles de rostros falsos?

En InGET by Acer | El Internet de las Cosas está aquí, pero quizá la seguridad necesaria para disfrutarlo no

Imágenes | Josip Ivankovic, GLTR

Alma Landri