Moral Machine: y tú, ¿cómo decidirías si fueras una IA?

Mucho se viene hablando en los últimos tiempos de la Inteligencia Artificial y de su futuro en la sociedad. Cualquier dispositivo puede ser la base para instaurar un sistema de IA que mejore nuestra calidad de vida. Un portátil como por ejemplo el Acer Aspire 5 incluye el asistente Cortana y el sistema de autificación Hello de Windows 10, ambas herramientas de Microsoft.

Pero más allá de las herramientas domésticas, la Inteligencia Artificial está aplicándose en muchos otros ámbitos. Y dentro de los diferentes debates que se han ido abriendo a medida que ha avanzado la investigación, hay uno muy importante que sentará las bases del desarrollo futuro de esta técnica: es la ética y la moral de la Inteligencia Artificial.

¿Qué es la Inteligencia Artificial?

En ciencias de la computación, una máquina «inteligente» ideal es un agente flexible que percibe su entorno y lleva a cabo acciones que maximicen sus posibilidades de éxito en algún objetivo o tarea.

Inteligencia Artificial – Wikipedia

Existen múltiples definiciones de lo que es la inteligencia artificial algunas con mayor o menor nivel de tecnicidad. Se trata de un campo en plena evolución técnica con grandes innovaciones en los últimos tiempos; sin embargo, todas estas definiciones apuntan al mismo sitio: una máquina con inteligencia artificial es aquella que puede tener comportamientos del ser humano.

Dentro de estos comportamientos cobran especial importancia las decisiones. Los seres humanos estamos continuamente tomando decisiones, ya sea de forma consciente o inconsciente; ¿puede una máquina también tomar estas decisiones? ¿Cómo ‘entrenar’ a las máquinas para tomar las decisiones correctas? Y, quizá ya dentro del aspecto más ético, ¿cuáles son las decisiones correctas?

Parecen claras las formas con las que la IA puede ayudar y aportar a hacer una sociedad mejor, pero también desde tiempos casi inmemoriables está el miedo a que la inteligencia artificial revierta su objetivo y se vuelva en maliciosa. Quizá el gran hito lo planteó Isaac Asimov en sus tres leyes de la robótica, publicadas primero en el relato Círculo vicioso (1942) y posteriormente en la más conocida Yo, Robot (1950):

  • Primera: un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño.
  • Segunda: un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley.
  • Tercera: un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

Pero las cosas se pueden torcer si existen las raices para que así sea. En el año 2018, el MIT creó una inteligencia artificial con comportamientos psicopáticos a la que llamó Norman. ¿Cómo lo hicieron? La entrenaron a través de una serie de textos procedentes de diferentes subreddits algo oscuros y turbios. Lo cuentan todo en la página web del proyecto, donde también muestran algunos de los resultados del Test de Rorschach que utilizaron para definir su personalidad.

La IA en la actualidad

En la actualidad, la inteligencia artificial suele responder a determinados problemas muy concretos y específicos. Todavía estamos lejos de tener una IA «general», que de respuesta a un amplio abanico de problemas.

Uno de los ejemplos más comerciales de inteligencia artificial son los asistentes virtuales (Asisstant de Google, Alexa de Amazon, Cortana de Microsoft, etc.), que tienen la capacidad de comunicarse con nosotros. Sin embargo, en el momento en el que incrementamos un ápice la complejidad no son capaces de darnos una respuesta correcta.

Un paso más allá, todavía en desarrollo, son los sistemas capaces de interactuar con el ser humano. En 2018, Google presentó una IA con la capacidad de llamar a un número de teléfono y hacer una tarea para el humano. Nótese que este producto aún no es comercial tal y como lo mostraron en esta presentación:

Otro uso de la IA en auge es el de los vehículos autónomos: decenas de fabricantes están actualmente desarrollando un producto que aseguran será el coche del futuro, invirtiendo millones de euros en el camino. Google bajo la marca Waymo, Uber y multitud de fabricantes tradicionales de automoción están tratando de conseguir los primeros hitos –y las primeras patentes, que al final es lo que les importa– para progresar en este sector.

Pero no es necesario irse a los procesos de investigación para ver la IA en acción en un automóvil: muchos vehículos modernos ya tienen una cierta inteligencia artificial que les permite, por ejemplo, tomar ciertas decisiones: frenar ante una emergencia, alternar luces, tomar una mayor distancia con el vehículo precedente, etc.

La implementación de la IA en los vehículos está estandarizada desde hace varias generaciones, y se mide en diferentes niveles del 0 al 5, siendo 0 que no tiene ninguna implementación autónoma, y 5 que puede funcionar de forma completamente autónoma.

Pero aunque estemos ante un vehículo nivel 5 —dicen que Tesla lo alcanzará este año—, seguiremos lejos de tener una inteligencia artificial general, siendo una IA que responde a un problema muy específico y ciertamente acotado. Centrémonos ahora en esas excepciones y volvamos a la pregunta que nos hicimos anteriormente: ¿qué respuesta debe tener la IA ante determinadas situaciones en las que, digamos, ninguna tiene un ‘final feliz’? ¿Puede una máquina tener ética y moral? ¿Cómo debe comportarse ante determinadas situaciones? Aquí nace la Moral Machine.

Moral Machine: ¿cómo debe comportarse la IA?

El vehículo autónomo es el punto de partida que actualmente plantea la Moral Machine, una plataforma web cuyo objetivo es «conocer la perspectiva humana de las decisiones morales realizadas por máquinas inteligentes». La realizó y la mantiene el Scalable Cooperation Group del MIT, y está disponible de forma abierta y gratuita para que cualquiera pueda acceder a ella, realizar los tests e incluso crear los suyos propios.

La primera versión que se lanzó planteaba una serie de dilemas morales sobre qué decisión debía tomar un humano respecto al recorrido de un tren que había perdido los frenos. Esta versión continúa estando disponible en la pestaña ‘Classic’ de la página de la Moral Machine.

Posteriormente ya se evolucionó hacia un modelo en el que en vez de trenes teníamos un vehículo autónomo, y diferentes escenarios predefinidos en los que el usuario humano debía indicar qué decisión era más correcta. Estos retos se mantienen en la pestaña ‘Judge’, y se complementan con una nueva implementación que permite que cualquiera pueda diseñar sus propios escenarios, para ser evaluados por los demás.

MIT Moral Machine es un experimento que permite a los expertos e investigadores saber cómo cree el ser humano que debe responder una máquina inteligente, así como la inteligencia artificial escondida tras ella. Un trabajo de laboratorio que no dice tanto cómo debe responder la máquina, sino cómo cree el ser humano que debería hacerlo. Algunas conclusiones están ya disponibles en artículos científicos como este de la revista Nature, publicado en 2018.

Imágenes | MIT Moral Machine, IMDB, Synopsys, Unsplash

En InGET | Poniendo coto a la IA: estos son los raíles éticos que se están construyendo
En InGET | La IA, tecnología de aplicación en todo lo que vemos

Pablo