Funcionarios de la Agencia Tributaria

Análisis
Los riesgos del uso de IA para evitar fraudes en el pago de impuestos. ¿Quién nos protege?

Detrás del uso frenético de sistemas algorítmicos y de IA está el discurso manido que nos habla de herramientas objetivas y resultados neutrales, pero la experiencia demuestra que esto está lejos de ser así.
3 sep 2024 06:00

En mayo pasado, la Agencia Estatal de Administración Tributaria (AEAT) presentó su Estrategia de Inteligencia Artificial, en la que destaca el desarrollo exitoso de “nuevos algoritmos y métodos de aprendizaje automático”, y en la que afirma que la IA es “una de las tecnologías con una mayor capacidad transformadora de las economías y las sociedades”.

El documento —que se enmarca en la Estrategia Nacional de Inteligencia Artificial 2024 elaborada por el gobierno— refleja la apuesta decidida de la Agencia Tributaria por el uso de IA con el fin de “prestar servicios y asistencia al contribuyente”, “incrementar la eficiencia” y “luchar contra el fraude fiscal y aduanero”. De esta forma, la AEAT va a reforzar a través de herramientas de IA el cruce de datos entre los formularios presentados por los y las contribuyentes con su propia información interna, con el fin de conseguir que los datos declarados “contengan menos errores”.  El documento pone énfasis en que esto impedirá que las personas hagan declaraciones con información errónea y que, a su vez, permitirá ahorrar los recursos y el tiempo que actualmente se invierten en procedimientos de comprobación. 

El programa del gobierno de Países Bajos cruzaba a escala masiva datos privados de personas beneficiarias de una ayuda social para crear informes de riesgo de individuos proclives a defraudar al Estado

Lo cierto es que la apuesta de la Agencia Tributaria por el uso de algoritmos para luchar contra el fraude no es algo nuevo. Uno de los casos más conocidos es el de SyRI (acrónimo de Systeem Risico Indicatie), puesto en marcha por el gobierno de Países Bajos en 2014, que cruzaba a escala masiva datos privados de personas beneficiarias de una ayuda social, como nivel de ingresos, pensiones, bienes muebles e inmuebles, educación, multas, deudas, subsidio de desempleo, “integración”, etc., con el objetivo de crear informes de riesgo de individuos proclives a defraudar al Estado. En otras palabras, con el fin de predecir perfiles de “personas sospechosas”. 

El Ministerio de Asuntos Sociales y Empleo neerlandés extraía toda esta información de agencias públicas como la Seguridad Social, el sistema público de empleo, de información almacenada por los gobiernos locales y de las autoridades fiscales, entre otras, y luego aplicaba este algoritmo en barrios de clases trabajadoras y migrantes, consideradas zonas “problemáticas”.

Desde el inicio SyRI comenzó a ser cuestionado por violar la privacidad de la ciudadanía y discriminar y estigmatizar a grupos demográficos concretos, al punto de que en 2018 una coalición de organizaciones de la sociedad civil presentó una demanda contra el estado neerlandés, que concluyó en 2020 con una sentencia histórica del tribunal de La Haya, que paralizó este sistema por considerar que vulneraba el artículo 8 del Convenio Europeo de Derechos Humanos relativo al derecho a la vida privada y familiar. Además, señalaba el riesgo de discriminación real al tratarse de un algoritmo que tomaba en cuenta, entre otras cosas, el estatus socioeconómico y los antecedentes migratorios de las personas. Este dictamen se conoció como la primera sentencia conocida en Europa que declaró ilegal el uso de algoritmos para evaluar características personales de la ciudadanía. 

Pese a ello, Países Bajos ha continuado usando sistemas parecidos a SyRI. En 2021 estalló un escándalo al hacerse público que habían estado utilizando un algoritmo para determinar si en las solicitudes de subvención para el cuidado infantil había peticiones fraudulentas. Miles de familias de bajos ingresos, pero sobre todo mujeres migrantes, fueron señaladas falsamente de cometer fraude, y aunque el escándalo llevó a la dimisión al completo del gobierno neerlandés de entonces, este país continúa usando sistemas algorítmicos en sus Administraciones.

La digitalización del estado de bienestar 

España no escapa a esta euforia por la digitalización del estado. Ya en 2018, mucho antes del anuncio de la Agencia Tributaria, la Seguridad Social había comenzado a utilizar un sistema de IA para rastrear bajas laborales y detectar fraudes. Una investigación conjunta de Lighthouse Reports y El Confidencial sobre el funcionamiento de este sistema, señala que un algoritmo analiza los datos contenidos en los expedientes de baja laboral con el fin de “predecir” qué personas deberían estar ya de vuelta en su trabajo, si después de una fecha concreta estas personas no han pedido el alta, sus expedientes se clasifican como un posible caso de fraude y son revisados de forma prioritaria por los médicos inspectores del Instituto Nacional de la Seguridad Social (INSS). De este modo, el algoritmo define el orden en que las y los trabajadores deberán visitar a un médico para saber si pueden seguir cobrando el subsidio. 

La investigación afirma que, pese a que han podido desgranar a grandes rasgos su funcionamiento, el sistema sigue siendo opaco, cuestión que corroboran los médicos inspectores que están en contacto directo con la herramienta y que fueron entrevistados en profundidad, quienes aseguran que no sabrían explicar exactamente cómo funciona este sistema. No hay información sobre qué datos se usaron para entrenar el algoritmo, qué peso se le asignó a cada variable o cómo se hace la puntuación final. 

Debido a esta opacidad se desconoce si los datos que se manejan, altamente sensible por tratarse de información médica, están siendo tratados de manera correcta y de acuerdo a la ley de protección de datos. Tampoco se sabe si se están haciendo evaluaciones internas sobre su funcionamiento, o si su uso está derivando en una vulneración al derecho al acceso a una prestación pública. Todo ello, sin contar con el hecho de que las personas investigadas no han dado su consentimiento explícito para este uso de sus datos personales.

Inteligencia artificial
Panorama Tecnología del futuro, explotación del pasado
El control de los ritmos de trabajo por parte de los algoritmos combina el uso más avanzado de la tecnología con prácticas y métodos que recuerdan a los sistemas de explotación laboral del siglo XIX y al vasallaje del medioevo.

En su libro La automatización de la desigualdad, herramientas de tecnología avanzada para supervisar y castigar a los pobres, la investigadora Virginia Eubanks realiza una exhaustiva investigación sobre cómo la minería de datos y las políticas sociales basadas en algoritmos están afectando negativamente en los derechos y la equidad económica. “Sistemas de elegibilidad automatizados, algoritmos de clasificación y modelos de predicción de riesgos controlan qué barrios se someten a vigilancia policial, qué familias reciben los recursos necesarios, a quién se preselecciona para un empleo y a quién se investiga por fraude”, afirma Eubanks.

Uno de los casos expuestos en su investigación es el de las familias del estado de Maine (Estados Unidos) que recibían prestaciones del programa de Asistencia Temporal a Familias Necesitadas (TANF por sus siglas en inglés) y quienes en 2014 fueron acusadas por el gobernador republicano Paul LePage de defraudar al Estado. 

Estas prestaciones se cargan en tarjetas de transferencia electrónica que dejan un registro digital del lugar y la fecha en que se retira el dinero. El gobierno de LePage cruzó datos de organismos estatales y federales y elaboró una lista de cerca de cuatro mil retiradas de dinero en cajeros de estancos y de fuera del estado de Maine. A pesar de que estas transacciones sólo representaban el 0,03 por ciento del total del dinero retirado en el marco del programa TANF, y de que no se podía saber en qué se había gastado el dinero, LePage usó esta información para insinuar que las familias beneficiarias de esta prestación estaban defraudando al estado invirtiendo el dinero recibido en cigarrillos y alcohol. Además, amplificó el señalamiento poniendo estos datos a disposición del público en Google Docs. 

En el corazón de la digitalización del estado de bienestar, yace la obsesión de los gobiernos por la caza del fraude, cuya idea base es la creencia de que las personas siempre engañan al Estado

Este caso no solo es un ejemplo de cómo la vigilancia digital de los datos está derivando en criminalización de grupos ya vulnerabilizados, sino de cómo, en el corazón de la digitalización del estado de bienestar, yace la obsesión de los gobiernos por la caza del fraude, cuya idea base es la creencia de que las personas siempre engañan al Estado. 

En Reino Unido, una investigación de The Guardian reveló que el gobierno de este país utiliza en al menos ocho ministerios herramientas de IA para tomar decisiones sobre justicia penal, bienestar e inmigración, lo que refleja “una forma descontrolada y potencialmente discriminatoria de utilizar la tecnología”, según el periódico británico. Entre los ejemplos que cita está el algoritmo utilizado por el Ministerio del Interior para detectar matrimonios fraudulentos, que “casualmente” recomienda investigar uniones civiles cuando uno de los cónyuges posee una nacionalidad concreta. 

Los riesgos 

El uso masivo de tecnologías de IA para cazar fraudes es una realidad en aumento. De hecho, en 2023 la Organización para la Cooperación y el Desarrollo Económico (OCDE) publicó un informe en el que señala que de los 52 países que forman parte de su Foro de Administración Tributaria, casi el 50 por ciento utiliza herramientas de IA para la detección de evasión y fraude en el pago de impuestos. 

Ante esto cabe preguntarse ¿qué perfiles de personas estamos en la primera línea de vigilancia?, ¿y quién vigila a quienes nos vigilan?  

A pesar de que en su documento de Estrategia de Inteligencia Artificial la Agencia Tributaria dice que “se trabajará en la detección y corrección de eventuales sesgos que pudieran estar contenidos en los datos”, y de que afirma que harán una “recogida de la evaluación del funcionamiento de los sistemas por parte de los usuarios finales de los mismos”, en ninguna parte del texto se explica la manera exacta en que estos procedimientos de supervisión y evaluación se llevarán a cabo. No se plantea una metodología ni se explica de qué manera organizaciones y colectivos que trabajan por los derechos digitales podrán participar en estudios de evaluación de impacto o proponer auditorías externas.

Análisis
Análisis AI Act: un reglamento nuevo para afianzar el orden racial y colonial de siempre
La nueva normativa de Inteligencia Artificial establece una “regulación paralela” en función de quienes son las personas afectadas, algo observable en los usos que se prevén en contextos fronterizos y policiales.

Por otro lado, en cuanto a los equipos, la Agencia Tributaria dice que “el diseño, desarrollo y despliegue de los proyectos de IA se realizará por equipos multidisciplinares que integrarán tanto expertos en el negocio, como técnicos informáticos y científicos de datos especializados en IA”. Es decir, no está contemplada ni la participación de perfiles sociales diversos ni de expertos y expertas que trabajan por la justicia social en el actual contexto de las sociedades datificadas. 

Esto quiere decir que quienes van a hacer la interpretación de los datos —datos fríos que podrían cruzarse con el análisis de información como la nacionalidad del contribuyente, su lugar de nacimiento, edad, sexo o nivel de estudios… no lo sabemos—, serán técnicos probablemente más centrados en buscar patrones e identificar anomalías que en aplicar de manera justa el sistema de inteligencia artificial.  El texto tampoco plantea de qué forma la ciudadanía podrá presentar una queja ante una decisión tomada por el sistema, qué canales de reclamación serán habilitados, cuáles serán los plazos, etc. 

Detrás del uso frenético de sistemas algorítmicos y de IA está el discurso manido que nos habla de herramientas objetivas y resultados neutrales, pero los ejemplos expuestos arriba demuestran que esto está lejos de ser así. Por el contrario, estas herramientas están reproduciendo patrones históricos de poder, perjudicando a los mismos grupos demográficos vulnerabilizados de siempre. 

Hasta ahora ninguna herramienta tecnológica ni de IA ha sido diseñada para cazar a los grandes estafadores, blanqueadores de capitales ni a las grandes compañías evasoras de impuestos. Preguntémonos por qué. 

Informar de un error
Es necesario tener cuenta y acceder a ella para poder hacer envíos. Regístrate. Entra en tu cuenta.

Relacionadas

Inteligencia artificial
Militarismo La máquina de los asesinatos en masa: Silicon Valley abraza la guerra
Las fantasías distópicas sobre los futuros usos de las máquinas en la guerra están más extendidas que el relato de lo que ya está pasando en los campos de batalla.
Inteligencia artificial
Análisis Amor artificial: soledad, experiencias inmersivas y elon muskitos
La novia IA no tendrá cuerpo, ni agencia, ni necesidades ni deseo propios, pero tiene una gran facultad cada vez más rara en el mercado de los afectos: adaptarse a su novio/usuario.
3jackdaws
3jackdaws
3/9/2024 11:49

Creo que el origen de todo esto es el Ministro Escrivá, primero estuvo en seguridad social y ahora en tecnología, un Ministro liberal "infiltrado" en este supuesto gobierno progresista.

0
0
Gobierno de coalición
Gobierno de coalición El PSOE da muestras de cansancio con Yolanda Díaz
Tanto en Moncloa como en Ferraz la opinión sobre la gestión política de la vicepresidenta está en mínimos. Sin criticar su labor en Trabajo, la tropa de Sánchez ya anhela un socio que impulse la unidad a su izquierda con la mira puesta en el 2027.
Palestina
Palestina Israel prohíbe regresar a los 40.000 palestinos desplazados en el norte de Cisjordania
El ejército de Israel desplaza a miles de sus casas en campos de refugiados en diferentes ciudades de Cisjordania ocupada. Mientras, Israel presiona para no llegar a una segunda fase de alto el fuego.
Turismo
Turismo depredador Poca agua, mucho turismo: la crisis hídrica amenaza las islas Eolias en Italia
Las islas italianas del Mediterráneo están acusando especialmente las consecuencias de la turistificación, pero también de una crisis hídrica sin precedentes provocada por el cambio climático. Es el caso de las islas Eolias, en el norte de Sicilia.
Palestina
Palestina Illan Pappé: “No esperaba esta magnitud de indiferencia europea ante lo que está sucediendo en Palestina”
El historiador de origen israelí no se ha sorprendido la violencia cometida por Hamás en octubre de 2023 ni de la reacción de Israel o el apoyo a Estados Unidos, pero sí de cómo ha abordado la cuestión la sociedad europea.
Argentina
Argentina Gauchito Gil, uno de los nuestros hace milagros
En enero, más de 620.000 personas llegaron a Mercedes, una localidad de la provincia de Corrientes, en Argentina. Caminando, de rodillas, a caballo, para agradecer y hacer promesas a un santo popular: el Gauchito Gil.
Andalucismo
Día de Andalucía ¿Por qué Andalucía sigue celebrando el 28F?
Las andaluzas y andaluces celebramos el día de Andalucía entre los actos institucionales y las reivindicaciones políticas, reflexionamos sobre la vigencia y la influencia política de este día.
Macrogranjas
Maltrato animal Una investigación revela una nueva “masacre” en una granja de pollos que salpica a Mercadona
En España, la granja investigada comercializa el producto ‘Cuartos traseros de pollo’ en la cadena de Juan Roig y está certificada con el sello catalán Welfair de bienestar animal, según denuncia el colectivo ARDE que ha realizado la investigación.
Oriente Próximo
Oriente próximo Abdullah Öcalan llama a deponer las armas para lograr la plena democracia para el pueblo kurdo
El líder del Partido de los Trabajadores de Kurdistán llama a la disolución de la organización. Ankara dice que “estudiará” la situación, que también influye sobre Siria, Irán, Iraq y la situación en los países de Oriente Próximo.

Últimas

Ley de dependencia
Derechos sociales Reclaman más financiación para la ley de dependencia ante el nuevo anteproyecto
Bustinduy garantiza como universales servicios como la teleasistencia o recibir sanidad se resida donde se resida, en referencia a los protocolos del covid en las residencias.
Opinión
Opinión De Errejón a Monedero: reflexiones sobre el ciclo del desasosiego
¿Qué pasa cuando quien abusa ha sido o es tu compañero de filas, tu colega, alguien que se consideraba feminista, y no una caricatura facha o un incel de manual? ¿Cómo manejamos la complejidad?
Barcelona
Activismo Absueltos los ecologistas que pintaron el megayate de Walmart en Barcelona
La sentencia afirma que la acción no constituye un delito de daños leves, ya que “la pintura biodegradable fue fácilmente limpiada con una manguera de agua”.
Sanidad pública
Barómetro sanitario La mitad de las personas que piden cita en el centro de salud esperan más de seis días para ser atendidas
De media, la población espera 8,7 días para ser atendida por su médico o médica de Atención Primaria, cuando hace diez años la espera media era de 3,5 días.
Más noticias
Ecuador
América Latina El final abierto de las elecciones en Ecuador
El 13 de abril, la correísta Luisa González y el multimillonario y actual presidente Daniel Noboa se disputan la presidencia de Ecuador en la segunda vuelta. Todas las miradas están en la posición del poderoso movimiento indígena.

Recomendadas

Pensamiento
Mar García Puig “Habitar la metáfora es un peligro que merece la pena”
La escritora catalana Mar García Puig publica ‘Esta cosa de tinieblas’, un breve ensayo narrativo que defiende el poder liberador de la metáfora frente a una pureza simplificadora y paralizante.
Guerra en Ucrania
Geopolítica Trump fuerza a Zelensky a hipotecar la explotación de minerales críticos a cambio de su apoyo
Según el borrador del acuerdo comercial presentado por EE UU, esta potencia deberá obtener el 50% de todos los beneficios de las nuevas explotaciones minerales de Ucrania.
Represión
Represión Javitxu, desde la cárcel de Zuera: “Lo que peor llevo es estar lejos de la gente que más quiero”
Francisco Javier Aijón, Javitxu, es uno de ‘los seis de Zaragoza’. Entró en la cárcel el pasado mayo con una condena de casi cinco años basada en las declaraciones policiales durante el juicio.
Racismo
Fatima Ouassak “Las madres tenemos un papel estratégico dentro del feminismo”
En Francia hay una organización antirracista que lucha por una infancia sin violencia. Es el Frente de Madres y Fatima Ouassak es su fundadora. En ‘El poder de las madres’ (Capitán Swing, 2025) defiende la maternidad como sujeto político.