Poniendo coto a la IA: estos son los raíles éticos que se están construyendo

«El desarrollo de una completa inteligencia artificial podría traducirse en el fin de la raza humana». Así de contundentes eran las palabras del difunto Stephen Hawking. Difícil bromear cuando la sentencia procede de una de las mentes más brillantes del último siglo. Entretanto, el miedo a perderlo todo, trabajo y algo más, a ser esclavos de una automatización total.

Aunque el término “Inteligencia Artificial” se acuñó en 1956 por John McCarthy, aún no sabemos ni cómo definir ni cómo acotar la terminología de la IA.

Si ya hablan español más máquinas que hombres, algo que a la RAE le preocupa bastante, en el marco jurídico no existe una clara legislación que sirva de forma práctica para los tribunales. ¿Cómo reaccionar a ciertos escenarios? Y eso que la IA, tal y como se viene definiendo desde principios de 2016, está determinando los mayores cambios sociales y económicos de la era moderna.

La nube inteligente y el poder de Skynet

En la saga Terminator, una IA llamada Skynet estima que la mejor forma de optimizar la supervivencia de las máquinas es erradicando a los humanos. Una guerra declarada tras adquirir consciencia de sí misma que acabará de forma fatal de no evitarlo a toda costa. Y tras los memes, las dudas: ¿qué podríamos hacer ante una situación análoga, ante un escenario donde hemos otorgado tanto poder y control a una red de máquinas que podrían reducir la humanidad a cero?

Ahora que Microsoft le ha ganado a Amazon la puja por el contrato más jugoso del cloud computing actual —10.000 millones de dólares por gestionar la red digital del Pentágono, conocida como JEDI (Empresa Conjunta de Infraestructura de Defensa)—, la cuestión ha vuelto a sembrarse en los titulares: ¿y si alguien accede y roba todos esos secretos militares para destruir países enteros? ¿No debería repartirse esta responsabilidad?

Artificial Intelligence as a Service (AIaaS) es un concepto moderno pero muy frecuente en el sector financiero y educativo. Algoritmia para interpretar el mundo. Usar la IA para dar respuestas a ingentes masas de datos es una práctica frecuente desde hace años: para ahorrar en el alumbrado eléctrico, para mejorar la organización de equipos en infraestructuras TI, para ayudar a consultoras y aseguradoras en la gestión de pólizas… los datos son el combustible de la IA.

Y, aunque existen varios reglamentos que evalúa el derecho civil en robótica, no es así en IA, ya que hablamos de un valor intangible: medir esa inteligencia, sus acciones, las consecuencias del proceso evolutivo de una Inteligencia Artificial.

La ausente ética de la IA

El concepto IA responsable implica desafíos éticos: ¿cómo sabemos cuándo debe ajustarse a las leyes y cuándo deben reinterpretarse, cuándo imponemos la exención de responsabilidades de una IA y cuándo le exigimos acatar ciertas reglas? El ser humano escribe esos límites, pero pueden ser violados. Además, la filosofía moral no deja de ser un coto estructurado en base a los deberes cívicos y vitales del ser humano. ¿Qué tiene de humano una IA?

El fallecimiento de la primera persona a causa de un coche autónomo de Uber planteó un dilema sencillo: ¿quién tiene la culpa? Encontrar un responsable puede llevarnos, en primera instancia, al fabricante del automóvil. Pero, ¿es un accidente provocado por un fallo, es una negligencia en programática, o la consecuencia de una elección tomada en perfecta operatividad?

Ante lo segundo, volvemos al dilema del tranvía: ¿es más ético dejar morir al conductor que atropellar a un peatón? Muchas preguntas y casi ninguna respuesta. Y si extrapolamos este escenario a un sector como la sanidad, el impacto social es aún mayor y más difícil de acotar.

Aunque Google se deshizo de su Comité de ética en IA apenas un mes después de anunciarlo, cada vez es más frecuente leer sobre grupos de asesoramiento para entender las implicaciones éticas de usar la IA en cualquier escenario de nuestra vida. Marcas como Fujitsu o LG ya han dispuesto sus propios grupos de expertos externos para regular los códigos de conducta.

¿Soluciones drásticas?

¿Cuál debería ser la metodología a seguir, comités disciplinarios, auditorías y organismos de control, o un taxativo interruptor de apagado en caso de emergencia? Ambas opciones parecen convivir. Una de las soluciones propuestas por Google fue el clásico botón rojo de emergencia capaz de apagar toda IA. Pero las soluciones drásticas nunca son soluciones.

Parte del miedo procede, de hecho, «por una concentración de poder». Que gigantes como Google o la DeepMind de IMB acaparen todo el “mercado” de la IA. «Hay que valorar una supervisión independiente», insistía Elon Musk, miembro de varios comités éticos y fundador de OpenAI que posteriormente abandonó para incidir, precisamente, sobre los peligros de la IA.

Arthur, una startup que diseña herramientas para monitorear el rendimiento de los sistemas de aprendizaje autónomo, presenta informes para evitar las clásicas cajas negras del aprendizaje automático. De esta forma es más fácil observar qué ha podido fallar. Los servicios de AI OpenScale de IBM cuentan con herramientas de transparencia y periódicamente realizan auditorías para revisar la propia metodología con la que cosechan y gestionan la información

Fiddler, trabajando actualmente con financieras y grupos de inversión, es otra startup destinada a securizar los procesos de creación de algoritmos y proporciona herramientas para inspeccionar la “correcto” operatividad de una IA. Otras como Infibond, uno de los pocos unicornios centrados en esta tecnología, presumen de estar desarrollando una IA empática.

No existe una fórmula perfecta, desde luego. El horizonte más inmediato impone solucionar problemas como las “alucinaciones” sufridas por distintos conceptos mal asociados, las cuales llevan a una IA a no ver objetos tan importantes como un STOP en plena circulación de tráfico. El consejo general, de hecho, recomienza pensar en cómo una IA podría ser mal utilizada, cultivar la paranoia para pensar en soluciones y evitar desgracias mayores. Prevenir, al fin y al cabo, antes que tener que curar.

La IA debe generar confianza y no trabas, como toda tecnología bien aplicada debe ser una solución a un problema, como el nuevo Acer Aspire 5, portátil adaptado a las necesidades de toda la familia, con el cual reivindicar movilidad, máxima conectividad y una tecnología adaptada a cualquier tipo de usuario.

En InGET | La IA, tecnología de aplicación en todo lo que vemos
En InGET | La inteligencia artificial llegará a Microsoft Word

Israel Fernández