Elon Musk tiene razón: una IA podría destruir el mundo

Ante la pregunta «¿cómo obtener la paz mundial?», el pensamiento lógico de una Inteligencia Artificial verdaderamente audaz nos arrojaría «erradicando a los humanos». Somos ese problema que desequilibra la ecuación, emocionales, inesperados, con un pellizco generoso de irracionalidad.

No se trata de ciencia ficción de mercadillo, sino de acuciante realidad. Cuanto mayor sea su presencia y responsabilidad, cuando muchos caminos de nuestro devenir vengan determinados por su influyente cooperación —banca, coches autónomos, control de enfermedades—, más posibilidades tendremos de ser destruidos por una IA.

Aunque, hasta la fecha, nuestros avances tecnológicos nos han dado oportunidades para optimizar tiempo y recursos. Contamos con máquinas tan avanzadas como el sistema Predator Orion 9000, un equipo gaming con procesador Intel Core i9 Extreme Edition, gráfica GTX 1080 Ti SLI y refrigeración líquida. Es decir, los únicos vaticinios de catástrofe y destrucción los hemos contemplado sobre nuestros videojuegos favoritos. Pero, ¿qué sugiere el futuro?

Un poco de historia

‘El dibujante, por Pierre Jaquet-Droz | Fuente: http://www.thisiscolossal.com/2013/11/the-writer-automata/

De IA siempre se habla en términos abstractos. De hecho, es habitual encontrar citado a Ramón Llull como pionero, quien dedicó gran parte de su vida a diseñar, construir y escribir sobre su Ars Magna Generalis (1308), una máquina lógica que arrojaba distintos resultados sumando letras y formas geométricas a las que asoció distintos significantes teológicos.

Por supuesto, ahí no había nada de IA, nada de máquinas pensando, entendiendo y razonando, sino un señor moviendo manivelas como el timón de un barco. Pero sí fue el sustrato sobre el que Gottfried Leibniz (1666) y otros matemáticos construyeron algunos de sus postulados. Luego llegó Jonathan Swift, autor de ‘Los viajes de Gulliver’, y se cachondeó de ambos.

El punto de partida para definir una IA en términos teóricos, acotando las capacidades y virtudes, no llega hasta 1949. Aquel año nos encontramos con Giants Brains, obra capital sobre la mímesis y el pensamiento informático; el artículo Organización de la conducta, que propone una teoría sobre el aprendizaje emulando las redes neuronales —y que hoy día es se mantiene vigente—.

Ese mismo año, el ingeniero Claude Shannon crea un simulador de ajedrez, primer videojuego en términos estrictos. Unos meses más tarde, Alan Turing publica por fin una obra que venía rumiando durante bastante tiempo, Computing Machinery and Intelligence. Aquí propone el primer test para comprobar si, basándose en la imitación, las máquinas pueden suplantar a un ser humano. ¡Como los bots de tu smartphone!

A Turing le salieron muchos detractores, pero la idea germinal cuajó en el imaginario colectivo. Hasta hace unos años, en 2014, cuando un bot llamado Eugene superó el Test de Turing por un fallo en el proceso de análisis. Hoy día las máquinas son demasiado listas para andar imitando comportamientos. Si una máquina es capaz de vencer a todos los seres humanos jugando a Go, pon a otra IA aprendiendo a machacar a esa máquina.

El viejo test ha quedado relegado a favor de otros modelos —como resolver esquemas Winograd—. Y las nuevas inteligencias artificiales ya no se andan con monsergas: igual distinguen entre clases de pepinos que ayudan a diagnosticar enfermedades como cáncer o esquizofrenia.

Dependiendo de los datos

Las nuevas IA’s han sido empujadas gracias a la minería y cosecha de datos. Tenemos miles de millones de datos por todos lados. Si llamamos a este siglo la era de la información no es a modo eufemístico: cada año se acumula más información de la que llevamos recolectada durante toda la historia de la humanidad.

Estos datos han posibilitado el combustible con el cual alimentamos las IAs. El denominado deep learning no es sino una forma de IA basada en aprendizaje profundo a partir de la experiencia: programamos unas reglas básicas, acotamos unas pautas éticas, y el resto son infinitas combinaciones. Después llevamos a cabo descastes, tomamos muestras y aprovechamos esas gestión de bases de datos para algo útil.

Esta ingesta ha dejado resultados muy sugerentes: si las principales ciudades del mundo invirtieron en sistemas más inteligente de transporte ahorraríamos del orden de 500.000 millones de dólares anuales.

Pero este es un proceso lento. Lo vivimos en Bolsa con las High Frequency Trading (negociaciones de Alta Frecuencia): de un día para otro, las máquinas se convirtieron en el sistema más competitivo frente a los parqués de inversión tradicional. Reventaron el arbitraje y desplazaron los intermediarios humanos. También estamos sintiéndolo, como un rugido, frente a los tradicionales modelos de logística; o en las automatizadas cadenas de producción.

Pero donde unos ven debates sobre el hurto del empleo al ciudadano de a pie, Elon Musk ve caos y destrucción si sacamos de sus casillas a una IA avanzadísima.

El argumentario no se fundamenta en invocar a una Skynet, desde luego. Llegará un momento donde la absoluta eficiencia de los coches autónomos anulará nuestra capacidad de conducir: seremos un peligro al volante. Incorporarnos a una carretera sin un sistema automatizado, con lecturas en tiempo real de todo lo que sucede dentro de la vía, será como intentar pasear por una autovía con una venda en los ojos.

Hay solución para (casi) todo

Por supuesto, ese control no va a destruir la raza humana. Para ello existen ciertos protocolos de acción ante estados críticos. Hay simulaciones para casi cualquier escenario. Todos son protocolos de contención, vías alternativas y pura analogía —como la solución ante un ascensor averiado: usar escaleras—, pero son las únicas soluciones seguras.

¿Y son las avanzadas IAs «un riesgo para la existencia de nuestra civilización», como advertía Musk? Claro, como cualquier forma de progreso, como aquel fuego que pudo incendiar la cueva de su creador.

Su sentencia fatalista «hasta que la gente no vea a los robots matar a personas por la calle no se entenderán los peligros de la inteligencia artificial» no tiene nada de sorprendente: cada día se producen accidentes de este calibre entre nosotros. El núcleo a debatir reside en los planes de contención, el correcto “etiquetado” de cada situación y el denominado “reset”.

Por suerte, estas inteligencias están, hasta al fecha, sirviendo a nuestros propósitos, no trabando nuestro avance tecnológico: mientras la OMS traza gráficas para estimar la posible eficacia de una enfermedad X, una epidemia de extrema viralidad (capacidad de contagio), Google se sirve de enormes bases de datos y machine-learning para simular escenarios posibles en cuestión de horas y dar con la tecla del medicamento adecuado, aquel con menos efectos secundarios y mayor ratio de eficacia.

Como en la seguridad, los protocolos habrán de actualizarse según las necesidades. La seguridad es reactiva. El conocimiento también.

Imágenes | iStock

En InGET by Acer | Colonizar el Sistema Solar sin levantarnos del sofá: una máquina ya es capaz de imitar la vida

En InGET by Acer | ¿Actualizarías tu cerebro para no sentirte inútil ante las IA?

Israel Fernández