En el gran evento que se celebra en la capital francesa se emplean tecnologías basadas en IA, dentro y fuera de las competencias. Hay polémica: ¿los sistemas de seguridad violan las leyes de privacidad europeas?
29 de julio 2024, 08:19hs
En ese marco, hay polémica: ¿esa nueva forma de vigilancia viola las leyes de privacidad que rigen en Europa?
Inteligencia artificial en los Juegos Olímpicos 2024, un nuevo vigilante en las calles de París
Cerca de la Torre Eiffel y del río Sena, y a un costado del protagonismo de los atletas, la inteligencia artificial es una de las claves en los Juegos Olímpicos. En este caso, para la vigilancia. Nuevos y poderosos modelos de IA revisan imágenes en busca de peligros escondidos entre la multitud. “Es una de las formas en que Francia está utilizando la tecnología para hacer que los JJ.OO. de este año sean uno de los más fuertemente monitoreados que se recuerden”, señala el sitio Popular Science.
Leé también: Crece la preocupación de los argentinos por la privacidad y uso de sus datos para entrenar herramientas de IA
¿Qué ocurre, en la práctica? Con esas nuevas tecnologías, organismos de seguridad barren los circuitos cerrados de televisión para detectar posibles anomalías o disturbios, tanto en los estadios como en las inmediaciones y medios de transporte parisinos. Por ejemplo, si algún espectador tiene un arma o peleas en las tribunas. Si la IA encuentra un problema, la reporta a agentes humanos. Antes del gran evento deportivo, el nuevo sistema fue testado en estaciones de metro, en el Festival de Cine de Cannes y en un show de Depeche Mode.
Para calmar las aguas, los funcionarios aseguraron que el análisis en tiempo real se lleva a cabo sin recopilar información sensible de las personas: por caso, dicen que no hay reconocimiento facial u otras revisiones biométricas. En cambio, dicen que solamente me miden “patrones de comportamiento”.
Leé también: Los bots de inteligencia artificial generan dudas sobre la privacidad de los datos que usan para entrenarse
En diálogo con la fuente mencionada, el especialista en IA y asesor de Amnistía Internacional, Matt Mahmoudi, dijo que no es tan sencillo usar ese tipo de sistemas de vigilancia sin recopilar información biométrica. En ese sentido, señaló que “el seguimiento del comportamiento implica la identificación y detección de rostros, cuerpos, sus gestos, patrones y movimientos, todas formas diferentes de datos biométricos, lo que somete a las comunidades a una vigilancia masiva y, a menudo, a la discriminación racial”.
“Ningún evento deportivo debería implicar la generación de filas policiales virtuales de los asistentes, que por defecto resultan sospechosos. La tecnología es totalmente indefendible y viola el derecho internacional”, aseguró Mahmoudi.