Aunque el reconocimiento facial ya sea una realidad, no es una realidad fiable

El reconocimiento facial ya es una realidad en muchos servicios, como el desbloqueo de la pantalla de un móvil o la identificación de un sospechoso. Sin embargo, es una tecnología con una tasa de éxito aún baja, y los problemas éticos que plantea su aplicación aún no están resueltos.

La tecnología mejora de forma gradual, y los sistemas de reconocimiento facial aún están verdes. Pero ocurre que también se están implantando de forma masiva, lo que da lugar a sesgos graves, una tasa de fallo inasumible y movimientos de oposición ciudadana.

El reconocimiento facial, ¿acierta?

En 2018 la Unión Estadounidense por las Libertades Civiles (ACLU) informó al periódico The Guardian de que el 40% de los fallos de identificación del sistema AWS Rekognition aparecían cuando analizaba fotografías de personas de color, a pesar de que estas solo representaban el 20% del total de las muestras.

El problema había sido entrenar esta inteligencia artificial de Amazon con personas blancas. Como resultado, la IA tenía más problemas para identificar de forma correcta a personas de tez oscura, lo que se conoce como sesgo.

La misma IA ha sido testada en 2019 por el MIT con ligeras mejoras y notables errores: el 19% de las pruebas el sistema clasificaba como varones a las mujeres (por el mismo sesgo de arriba) y el 31% de las veces equivocaba imágenes de mujeres de piel oscura con varones de piel oscura.

Dicho esto, todos estos problemas técnicos tienen solución. En realidad, basta con introducir más datos en los sistemas de reconocimiento, pero la tecnología no puede lanzarse al mercado sin solucionarlos porque incurren en sesgos.

Los humanos, los mejores etiquetando caras

Un reciente experimento de Perficent Digital ha sacado a la luz que los humanos seguimos siendo mejores que las máquinas para etiquetar personas. Pero no mucho más, y la brecha se está cerrando rápido. Si las imágenes etiquetadas por humanos tienen una tasa de acierto del 87,7%, Google Vision ya va por el 81,7%.

AWS Rekognition acierta el 77,7% de las ocasiones seguido por Microsoft Azure (75,8%) y Watson de IBM (55,6%). Al menos bajo las mismas condiciones. Dentro de unos años las máquinas podrán reconocernos con un acierto propio al que tendría un familiar, y esto ocasiona problemas éticos de calado.

No quiero que me mires

China es líder mundial en identificación facial mediante videovigilancia. AWS de Amazon es poca cosa comparada con la red estatal. Pero esta ha tenido un tropiezo en la ciudad-estado de Hong Kong, cuyos habitantes no se sienten chinos y buscan una mayor independencia.

En el tuit embebido podemos ver un enfrentamiento entre población civil y la policía con motivo de esta reivindicación. Si resulta relevante es porque la población civil se defiende de la identificación facial mediante el uso de láseres. Estos inhabilitan una identificación positiva.

En países como España aún estamos muy lejos tanto de la lucha tecnológica como de la identificación facial, que no parece interesar demasiado ni a gobernantes ni población civil. Pero no es el caso en Reino Unido. Londres ya está testando sistemas de reconocimiento (con bajo éxito).

De momento estos sistemas fallan tanto que no podrían usarse para dar una identificación positiva con seguridad total. Sin embargo, su implantación en países como los Estados Unidos parece soportar bien el conflicto de no funcionar.

La batalla se lucha en EEUU

En el documental ‘Bitcoin, blockchains, and the future of money’ se habla de los registros masivos de información y cómo “podría funcionar muy bien en una sociedad moderna y liberal como Suiza”. Las palabras son de Vinay Gupta, reconocido experto en sistemas de información. “El problema es que, si algo sale mal, bienvenido a tu super estado autoritario”.

Lo mismo ocurre con las cámaras de identificación facial, y Estados Unidos es el campo de batalla para la aceptación de esta tecnología en occidente. Mientras que numerosos estados están empezando a utilizarla (a veces mediante AWS Rekognition), diferentes movimientos de oposición están retrasando su implantación.

reconocimiento facial estado del arte

Uno de los más sonados es la decisión del Congreso de los Estados Unidos con su ‘Commercial Facial Recognition Privacy Act of 2019’. Esta busca prohibir a ciertas “entidades” el uso de tecnología de identificación facial sin su consentimiento, previa explicación de los propósitos de tal vigilancia.

En la misma línea se aprobó una ley en Massachusetts contra “los sistemas de vigilancia biométrica” y un pleno del consistorio de San Francisco recogía una impresión similar. Esto hace inviable el uso del reconocimiento facial por la calle, pero totalmente coherente la identificación biométrica en los dispositivos. Si un usuario quiere desbloquear su smartphone con el rostro, podrá hacerlo.

“Disculpe, pero nos hemos equivocado”

Nadie discute la utilidad de estos sistemas. Imaginemos un mundo en que robar carece de sentido porque sabes que te van a pillar. El problema es que sigue fallando demasiado, y que usarla de forma poco ética es notablemente fácil. Pensemos en el caso de Londres, cuya prueba veíamos arriba.

Por un lado la Policía Metropolitana de Londres dice que el error del sistema es de 0,1%, pero un informe independiente la sitúa en el 81%. Es decir, cuatro de cada cinco sospechosos serán inocentes. Las cosas no pintan bien para este tipo de tecnología porque aún tiene que mejorar demasiado.

portatil tecnologia mejora

Dicho esto, la tecnología mejora de forma gradual y en todos los ámbitos. Pensemos en cómo han cambiado los monitores en apenas unas décadas, de aquellos con tubo catódico a pantallas que rozan el 90% del espacio frontal, como es el caso del Acer Swift 5.

Comparado con la nueva versión (2019) el Swift 5 anterior tenía notables limitaciones de espacio. Pero de 14” pasó a 15,6” Full HD IPS. Dentro de unos años es probable que la pantalla llegue al 99% del espacio frontal, y que los sistemas de reconocimiento facial no fallen salvo excepciones. Pero, ¿los usaremos?

¿Queremos vivir en un panóptico?

El panóptico es un tipo de diseño carcelario en el que el preso no sabe cuándo le vigilan. Como resultado se comporta siempre de forma cívica, pero renunciando a buena parte de su libertad (y cordura). La paranoia acentuada por no saber si el guardia te vigila es un ejemplo de sus consecuencias. Es posible que un estado de hipervigilancia genere esto.

reconocimiento facial una camara en cada esquina

De momento los ciudadanos de las grandes ciudades europeas se han acostumbrado a pasear por calles repletas de cámaras. El centro de estas urbes tiene una elevada concentración y, salvo algunos movimientos de oposición hace años, hoy no parece importar a nadie. Probablemente porque son democracias.

En países democráticos con derechos civiles básicos cubiertos que siempre haya alguien mirando no parece grave. De hecho todos paseamos con la cámara de nuestro smartphone, y los centros turísticos están siendo grabados y registrados desde todos los ángulos 24/7 por los viajeros.

Pero la perspectiva cambia mucho cuando hablamos de sistemas represivos o injustos. China es un ejemplo de ello. Estados Unidos, si mantiene el sesgo en su software, también. Para que esta tecnología cumpla los derechos humanos será imprescindible que funcione como un reloj. De momento esto no ocurre.

En InGET by Acer | ¿Para qué usaremos la capacidad de crear miles de rostros falsos?

En InGET by Acer | Ha llegado el momento de plantearnos la navegación privada 24/7

Imágenes | iStock/Ralf Geithe, iStock/Askolds, iStock/Maridav

Alma Landri