70 catedráticos y expertos piden al Gobierno que actúe ante el reconocimiento facial “por sus graves deficiencias y riesgos”

https://static.eldiario.es/clip/1c4b59d6-93ca-416e-98f0-eb801824c821_16-9-discover-aspect-ratio_default_0.jpg

Un grupo de 70 expertos en inteligencia artificial ha enviado una carta al Gobierno para solicitarle que suspenda cuanto antes el empleo de sistemas de reconocimiento facial por parte de organismos públicos y privados. Los firmantes, entre los que hay catedráticos, investigadores y profesionales especializados, recuerdan que esta tecnología todavía tiene “graves deficiencias y riesgos”, como la ausencia de evidencia científica para algunas de sus categorizaciones, su alto índice de error, la opacidad sobre por qué toman cada una de sus decisiones o su potencial discriminador. “Están en juego cuestiones fundamentales de justicia social, dignidad humana, equidad, igualdad en el trato e inclusión”, avisan en la misiva.

Un grupo de 70 expertos en inteligencia artificial ha enviado una carta al Gobierno para solicitarle que suspenda cuanto antes el empleo de sistemas de reconocimiento facial por parte de organismos públicos y privados. Los firmantes, entre los que hay catedráticos, investigadores y profesionales especializados, recuerdan que esta tecnología todavía tiene “graves deficiencias y riesgos”, como la ausencia de evidencia científica para algunas de sus categorizaciones, su alto índice de error, la opacidad sobre por qué toman cada una de sus decisiones o su potencial discriminador. “Están en juego cuestiones fundamentales de justicia social, dignidad humana, equidad, igualdad en el trato e inclusión”, avisan en la misiva.

Nos parece necesario que el Gobierno intervenga de manera rápida antes de que estos sistemas continúen expandiéndose

“Nos parece necesario que el Gobierno intervenga de manera rápida antes de que estos sistemas continúen expandiéndose y se conviertan en estándares de facto, a pesar de la intromisión que suponen en la esfera privada de las personas sin su consentimiento explícito”. Por ello, piden al Ejecutivo que impulse una comisión de investigación que analice la posibilidad de imponer una moratoria en su uso y comercialización. Una prórroga que impida que el reconocimiento facial se siga extendiendo “hasta que las Cortes Generales y las instituciones legislativas europeas debatan cuáles, de qué manera, en qué condiciones, con qué garantías y con qué objetivos debe permitirse, si cabe, el uso de estos sistemas”.

Evitar que casos como el de Renfe pasen desapercibidos

Como ejemplo a evitar, los firmantes de la carta citan lo ocurrido recientemente con Renfe. La operadora ferroviaria abrió un concurso público para contratar un sistema de vigilancia para detectar si los viajeros llevan mascarilla, el aforo o la distancia interpersonal entre unos y otros. No obstante, también solicitaba a las empresas que quisieran hacerse con los más de 700.000 euros del concurso que su software pudiera interpretar “conductas antisociales” o predecir “comportamientos anómalos” de los usuarios del servicio, así como su etnia o el tipo de ropa que usan. Renfe tuvo que retirar el pliego de condiciones solo unas horas después de que saliera a la luz “para revisarlo”.

El objetivo que perseguía la empresa pública con su sistema de vigilancia puede agravar prácticas de seguridad discriminatorias, en especial contra colectivos que ya la sufren, recuerdan los firmantes. “Hay suficientes evidencias que indican que asociar posturas, gestos, rasgos faciales, colores de piel, peinados o prendas de vestir a posibles comportamientos ‘problemáticos’, capacidades intelectuales o económicas puede resultar en clasificaciones racistas, clasistas y/o sexistas”. Por otro lado, “que una persona sea clasificada en una categoría o perfil determinados no determina su comportamiento futuro, esto viola la idea fundamental de que los seres humanos tenemos libre albedrío”, recalcan.

Los firmantes exponen a su vez que esta tecnología adolece de otros problemas asociados al panorama digital actual, como la opacidad de sus algoritmos (lo que hace imposible fiscalizarlos), o su poca capacidad de adaptación a contextos que no estaban presentes en su entrenamiento.

Hay suficientes evidencias que indican que asociar posturas, gestos, rasgos faciales, colores de piel, peinados o prendas de vestir a posibles comportamientos ‘problemáticos’ puede resultar en clasificaciones racistas, clasistas y/o sexistas

Las conclusiones de la carta no son ni mucho menos inéditas. Ya en 2019 el Instituto AI Now de la Universidad de Nueva York, una de las instituciones de referencia en el estudio de la Inteligencia Artificial, pidió a las autoridades que prohibieran algunos de los usos que se le dan a esta tecnología. Entre ellos, todos los que se centraban en una “predicción del comportamiento”. Otro estudio más reciente, elaborado por la organización Article19, avisaba que este tipo de sistemas de vigilancia se está extendiendo gracias a empresas chinas que los desarrollan con su gobierno como financiador y cliente, a pesar de que “son pseudociencia”.

Por el momento, el Gobierno no ha expresado voluntad de impedir el uso del reconocimiento facial más allá de las actuales leyes de privacidad y protección de datos. El Ministerio de Defensa, de hecho, acaba de imponerlo en un hospital militar para controlar el horario de los trabajadores, pese a que los sindicatos lo consideran una “tecnología desproporcionada”. La Estrategia Nacional de Inteligencia Artificial, presentada por Pedro Sánchez el pasado mes de diciembre, tampoco hace ninguna referencia al reconocimiento facial.


+info relacionada: Reconocimiento facial, una distopía para vender humo – 13-10-2020

Etiquetado con: ,
Top