We can't find the internet
Attempting to reconnect
Something went wrong!
Hang in there while we get back on track
Videovigilancia
Videovigilancia algorítmica en nombre de la seguridad de los Juegos Olímpicos de París
A menos de cien días para la inauguración de los Juegos Olímpicos de París, se van aclarando muchas de las promesas que se han ido haciendo en los últimos años y van conociéndose los detalles que prepara la organización. Después de muchas dudas, parece que será posible celebrar la ceremonia de inauguración a lo largo del río Sena, aunque el número de asistentes no será de 500.000 personas, como se había anunciado inicialmente, y la cifra se ha ido reduciendo hasta las 300.000 personas. El grueso de esa reducción afectará a los espacios que estaban previstos para el acceso gratuito por cuestiones relativas a la seguridad, según ha explicado el comité organizador.
Los riesgos para la seguridad de los Juegos Olímpicos y Paralímpicos han crecido en los últimos meses, entre otras razones por la vigencia de la guerra de Ucrania o la persistencia del gobierno de Israel en sus ataques indiscriminados sobre territorio palestino y el genocidio de su población. Mientras el Comité Olímpico Internacional (COI) descarta la aplicación de sanciones sobre la delegación israelí, sigue aumentando el temor a un atentado durante los Juegos y aumenta también la preocupación de diferentes sectores de la sociedad civil francesa por las líneas rojas que se pueden traspasar en nombre de la seguridad.
En el foco de la polémica está el uso de la videovigilancia algorítmica; una tecnología de seguridad que utiliza la inteligencia artificial para detectar y prever eventos predefinidos gracias al análisis en tiempo real de las imágenes obtenidas por cámaras de vídeo y cuyo uso genera mucha preocupación entre asociaciones defensoras de los derechos humanos. En declaraciones a El Salto, Beatriz Martos Vergara, Responsable de Campañas sobre Tecnología y Derechos Humanos de Amnistía Internacional (AI), explica que “esta vigilancia biométrica, que incluye el reconocimiento facial, de emociones y del lenguaje corporal, es enormemente invasiva, viola el derecho a la privacidad y amenaza el derecho a la libertad de expresión y de reunión pacífica, así como el derecho a la igualdad y a la no discriminación. Por eso, los gobiernos deben impedir el desarrollo, la venta y el uso de esta tecnología”.
La videovigilancia algorítmica fue autorizada por la Asamblea Nacional y el Senado francés en mayo de 2023, dentro de la Ley para los Juegos Olímpicos y Paralímpicos, convirtiendo así a Francia en el primer país de la Unión Europea en legalizarla
La videovigilancia algorítmica fue autorizada por la Asamblea Nacional y el Senado francés en mayo de 2023, dentro de la Ley para los Juegos Olímpicos y Paralímpicos, convirtiendo así a Francia en el primer país de la Unión Europea en legalizarla. En ese momento, la sociedad civil francesa denunció la amenaza que suponía para el derecho a la privacidad y a no sufrir discriminación y presionó para que, en noviembre, el Tribunal Constitucional prohibiera la activación remota de dispositivos electrónicos para la captación de sonidos e imágenes. Aunque sí fue aprobada la activación remota de la geolocalización.
Según establece la Ley Olímpica, cualquier uso de la videovigilancia algorítmica debe contar con una autorización de la Comisión Nacional de Informática y Libertades (CNIL); lo que ya ocurrió el pasado marzo, cuando se permitió probar el uso de esta tecnología en los dos conciertos que ofreció Depeche Mode en la Arena de Bercy y se volvió a probar el 20 de abril para el concierto de Black Eyed Peas y el 21 con motivo del partido de fútbol entre el París Saint-Germain y el Olympique de Lyon en el Parque de los Príncipes. Los recelos de las asociaciones francesas por los derechos humanos han aumentado recientemente, cuando la policía anunció, con diez horas de antelación nada más, la autorización del uso de videovigilancia algorítmica en dos estaciones de metro y una de cercanías del barrio de La Defense (París) con motivo del concierto de Taylor Swift.
“Infraestructuras digitales incompatibles con los derechos humanos están siendo instaladas y utilizadas para, a través de la vigilancia masiva, ahogar las protestas y acosar a los grupos históricamente marginados”, dice Beatriz Martos Vergara, de Amnistía Internacional
Aunque las autoridades francesas han asegurado que no se utilizará el reconocimiento facial durante los Juegos Olímpicos y Paralímpicos de París, desde diferentes asociaciones se apunta al riesgo de que proteger la seguridad durante los Juegos sirva como excusa para que el uso de la videovigilancia algorítmica termine por convertirse en permanente. En este sentido, sorprende que la Ley para los Juegos Olímpicos y Paralímpicos autorice su uso hasta mayo de 2025, varios meses después del final de la competición. Desde Amnistía Internacional, Beatriz Martos Vergara apunta que “alrededor del mundo, infraestructuras digitales incompatibles con los derechos humanos están siendo instaladas y utilizadas para, a través de la vigilancia masiva, ahogar las protestas y acosar a los grupos históricamente marginados, como las personas racializadas (migrantes, refugiadas, solicitantes de asilo y minorías étnicas)”.
El uso de la videovigilancia algorítmica es ya una práctica habitual en numerosos países alrededor del mundo. En Rusia se ha denunciado la detención de activistas y periodistas identificados mediante tecnología de reconocimiento facial. En China, su uso se extendió durante la pandemia de covid19 para tratar de garantizar el cumplimiento de las restricciones por parte de la población y en la provincia de Xinjiang, la policía la utiliza para el control de la población de etnia uigur. Estados Unidos también acumula denuncias por el uso generalizado de tecnologías de reconocimiento facial en espacios públicos y por la ausencia de una ley federal que regule la recopilación y el uso de datos biométricos.
Cuando en mayo de 2025 termine la vigencia de la Ley Olímpica, la policía francesa seguirá contando con la tecnología necesaria para la aplicación de inteligencia artificial en las cámaras de seguridad y crecen las dudas respecto a que no se vaya a legalizar su uso permanente
Ahora, garantizar la seguridad durante la celebración de los JJ OO ha permitido al gobierno francés legalizar el uso de la videovigilancia algorítmica. Sin embargo, cuando en mayo de 2025 termine la vigencia de la Ley Olímpica, la policía francesa seguirá contando con la tecnología necesaria para la aplicación de inteligencia artificial en las cámaras de seguridad y crecen las dudas respecto a que no se vaya a legalizar su uso permanente. Ya ocurrió en Londres 2012, cuando las diferentes medidas de seguridad utilizadas para garantizar la seguridad del evento se convirtieron en permanentes una vez terminados los JJ OO. Esta situación se repitió en Río de Janeiro y Tokyo tras los Juegos de 2016 y 2020.
Por el momento, en la Unión Europa el uso de la vigilancia biométrica quedará prohibido cuando entre en vigor la Ley de IA aprobada el pasado 13 de marzo. Sin embargo, esa misma ley establece determinadas excepciones, en las que una autorización judicial o administrativa permitirían su uso. Es el mismo caso que se ha dado en Francia con motivo de los Juegos y aunque el presidente del comité organizador, Tony Estanguet, ha declarado que “queremos que el legado sea muy diferente a las anteriores ediciones”, los Juegos Olímpicos de París ya han sentado un peligroso precedente.