1
Article 4 minutes de lecture

L’IA s’invite aux JO de Paris et cela pose beaucoup de questions

Auteurice de l’article :

François Genette

Accro à l’actu, fan de la culture geek, aficionado de tech digitale et gamer acharné, François Genette est passionné par tout ce qui touche au numérique. Journaliste pendant près de 15 ans dans les grands médias nationaux et locaux, il utilise aujourd’hui sa plume pour partager ses découvertes venant des univers qu’il affectionne.

en savoir plus

C’est une première en Europe. Pour assurer la sécurité des Jeux Olympiques d’été qui auront lieu à partir de juillet à Paris, le gouvernement français a promulgué une loi qui autorise l’utilisation d’un système de vidéosurveillance assisté par l’intelligence artificielle. Une décision qui inquiète en France, mais également chez nous en Belgique.

La « Loi JO », c’est son nom, a été votée en procédure accélérée en mars de l’année passée. Son objectif : définir l’ensemble des moyens et des actions légalement permis par le gouvernement et la ville de Paris pour assurer la sécurité de chacun lors de l’événement mondial qui aura lieu dans la capitale française en juillet et en août prochain.

Au sein de la batterie de mesures et de règles que cette loi contient, on retrouve dans l’article 7 la possibilité pour les autorités de mettre en place un système de caméras de vidéosurveillance pour scruter les faits et gestes des millions de personnes qui se promèneront à Paris durant toute la période des Jeux Olympiques. Mais attention, ce dispositif a quelque chose de particulier puisqu’il sera « soutenu » par l’intelligence artificielle.

La VSA en pratique

Nommé « VSA » pour vidéo-surveillance algorithmique, le système choisi en France utilise, comme son nom l’indique, un réseau d’algorithmes pour traiter et vérifier les millions d’images qui seront prises par les caméras de surveillance. Cette intelligence artificielle, spécialement entraînée, sera capable de détecter des événements anormaux dans une série de situations prédéfinies. Ces dernières ont été précisées dans la « Loi JO » du gouvernement français. On y retrouve des comportements dissonants comme le non-respect du sens de circulation par une ou plusieurs personnes ou véhicules, le franchissement de zones interdites, un mouvement de foule anormal, une ou plusieurs personnes restant au sol, une densité trop importante de personnes à un endroit donné mais également des événements sortant de l’ordinaire comme des départs de feu ou la détection de colis abandonnés.

La technologie, portée par l’entreprise parisienne Wintics, a déjà été testée il y a moins d’un mois lors du concert de Depeche Mode à l’Accor Hotel Arena de Bercy. Six caméras ont été déployées à titre de test. L’intelligence artificielle qui les chapeautait avait en effet pour instruction d’envoyer un message en cas de détection de quelque chose d’anormal par rapport à sa grille d’observation nominale, sans pour autant mener à des interpellations.

L’ouverture d’une boîte de Pandore ?

Quoi qu’il en soit, ce nouveau dispositif fait réagir. Pour les défenseur·euses de cette technologie, il s’agit d’une aide efficace à la surveillance ; pour les détracteurices, c’est un logiciel qui risque de réduire les libertés. “Il n’y a pas d’analyse comportementale, pas de reconnaissance faciale, pas de lecture de plaques d’immatriculation, on va seulement analyser des silhouettes”, explique à la RTBF Matthias Houllier, co-fondateur de Wintics, l’entreprise choisie par l’appel d’offres publié pour la sécurisation des Jeux Olympiques

Mais l’usage de l’intelligence artificielle comme soutien à la vidéosurveillance est loin de faire l’unanimité. Plusieurs avocat·es français·es et des représentant·es du Conseil national des barreaux (CNB) ne sont pas rassuré·es : “Du point de vue des avocat·es, cette technologie suscite plus de craintes que d’espoir. On comprend qu’il doive y avoir des mesures pour assurer la sécurité et le bon déroulement d’un événement sportif comme les Jeux olympiques et paralympiques. Pour autant, on doit trouver le juste équilibre entre ce besoin de sécurité et le respect des droits et des libertés individuelles”, expliquent-ils ainsi, toujours sur la RTBF.

De nombreuses associations, notamment Amnesty International, s’inquiètent des possibles impacts sur les libertés individuelles que ces dispositifs pourraient entraîner. Dans son communiqué, cette dernière étaye ses craintes : « Le fait que des algorithmes analysent en direct les comportements des individus repose sur une collecte de données personnelles préoccupante quant au respect du droit à la vie privée. Toute surveillance dans l’espace public est une ingérence dans le droit à la vie privée. Pour être légale, une telle ingérence doit être nécessaire et proportionnée. »

Et ce n’est pas tout, l’ONG pointe également les risques de stigmatisation liés à l’entraînement reçu par l’IA chargée d’analyser les images des caméras : « Qui dit vidéosurveillance algorithmique dit algorithmes. Pour que les caméras détectent des situations « anormales » ou « suspectes », des algorithmes doivent être entraînés. Par des humains. Ce sont des personnes qui choisissent quelles données vont entraîner les algorithmes en déterminant préalablement ce qui est « normal » ou « anormal ». Ces données dites “d’apprentissage” peuvent comporter des biais discriminatoires. Une personne sans abri ou une personne qui joue de la musique dans la rue pourrait-elle un jour être considérée comme « suspecte » parce que son comportement ne correspondrait pas à la « norme » définie ? C’est le type de risque de la vidéosurveillance algorithmique. »

La Belgique s’inquiète aussi

En Belgique aussi, on voit d’un mauvais œil cette première utilisation de l’intelligence artificielle dans le cadre de la sécurisation de l’espace public. Et pour cause, cette technologie se rapproche très fortement d’un autre moyen de surveillance très spécifique : la reconnaissance faciale. Les expert·es le confirment d’ailleurs, cette technologie est au point et tout à fait déployable au sein du système qui sera mis en place pour les JO. La seule chose qui empêche son utilisation est la volonté propre de l’entreprise en charge de brider au sein du programme cette fonctionnalité.

De quoi inquiéter, notamment chez nous. Car il existe des exemples où des événements ont été utilisés pour mettre en place des systèmes de ce genre. C’est par exemple le cas en Russie, où la surveillance vidéo avec l’appui de l’intelligence artificielle a été instaurée dans le cadre de la Coupe du Monde 2018. Et si à l’époque, le gouvernement russe avait annoncé qu’il s’agissait d’une mise en place éphémère, le système n’a jamais été démantelé depuis lors et est largement utilisé par les autorités pour asseoir leur pouvoir, y compris en traquant grâce à ce dernier les manifestant·es ou les dissident·es opposé·es au régime de Vladimir Poutine.

Et ce n’est pas la promesse du gouvernement français de n’utiliser le système que pour une période de maximum un an qui rassure les sceptiques en France et ailleurs. À tel point que chez nous, plusieurs associations ont déposé une pétition devant le parlement bruxellois. Nommée “Protect my face” (Protégez mon visage), cette dernière demande l’interdiction pure et simple de l’emploi de systèmes d’intelligence artificielle permettant la reconnaissance faciale dans l’espace public de la capitale.

Appel à projet

Une histoire, des projets ou une idée à partager ?

Proposez votre contenu sur kingkong.

Partager cet article sur

à découvrir aussi