“Cuanto mayor es la puntuación de riesgo, más se intensifica el control”

“Cuanto mayor es la puntuación de riesgo, más se intensifica el control”

DDesde hace varios años, la inteligencia artificial (IA) va entrando sigilosamente en nuestras vidas. Analiza nuestras interacciones diarias. Transforma nuestras opciones de consumo. Y ahora interviene en la forma en que el Estado administra nuestros servicios públicos. Pero detrás de los dispositivos de la modernidad y bajo el pretexto de la eficiencia, se extiende una amenaza invisible pero cuyos efectos son grandiosos: el uso de algoritmos para generalizar la vigilancia masiva.

Como suele ocurrir, los ataques a los derechos fundamentales recaen primero en los más vulnerables. Porque, por supuesto, son los pobres los que merecen ser más vigilados. No importa que el fraude en las prestaciones sociales sea más de treinta veces menor que el fraude en las cotizaciones a la seguridad social y el fraude fiscal…

Así, en nombre de la “lucha contra el fraude”, es en el sector de la protección social donde se implementa esta calificación algorítmica de las personas. Como era de esperar, resulta ser un arma formidable que refuerza las desigualdades contra las personas más vulnerables de nuestra sociedad.

Perfiles raciales

Por eso, el 15 de octubre, Amnistía Internacional, junto con una coalición de 14 organizaciones contratadas por La Quadrature du Netpresentó una denuncia histórica ante el Consejo de Estado. Exigen el cese inmediato del algoritmo de calificación de riesgo utilizado por el Fondo Nacional de Asignaciones Familiares, un sistema que funciona desde 2010 para rastrear los pagos excesivos en prestaciones sociales.

Vuelva a leer nuestra encuesta: Artículo reservado para nuestros suscriptores. Perfilamiento y discriminación: investigación sobre los abusos del algoritmo de las cajas de asignaciones familiares

Desde 2010, este algoritmo asigna una puntuación de riesgo a cada beneficiario, determinando quién merece estar sujeto al seguimiento acumulado. Este sistema no es neutral. Nunca lo son. Se basa en criterios discriminatorios que transforman –por defecto– a las personas que viven en barrios desfavorecidos, a los desempleados, a las personas con discapacidad, así como a las familias monoparentales, como tantos sospechosos.

Este mecanismo de vigilancia masiva estigmatiza sistemáticamente al tratar específicamente a ciertas audiencias como potenciales estafadores. En 2023, La Quadrature du Net reveló, gracias al acceso al código fuente de este algoritmo, correlaciones directas entre los criterios de calificación y los factores socioeconómicos discriminatorios. Cuanto mayor sea la puntuación de riesgo, más intenso será el control. Los grupos más frágiles de la sociedad –aquellos que se supone debe proteger la Seguridad Social– se convierten así en objetivos privilegiados de un sistema específico y deshumanizador.

Te queda el 57,39% de este artículo por leer. El resto está reservado para suscriptores.

otras noticias