Ne me regarde pas - ForkLog : cryptomonnaies, IA, singularité, avenir

img-b3324e1a267cbfea-7852159350685838# Ne me regarde pas

Les caméras de surveillance classiques dans les mégapoles ont depuis longtemps été remplacées par des systèmes entiers équipés d’intelligence artificielle. Malheureusement ou heureusement, beaucoup d’entre nous doivent accepter comme un fait ce que nous lisions auparavant dans des dystopies.

Krzysztof Szpak a analysé comment fonctionnent les systèmes de surveillance IA dans les grandes villes et pourquoi les États se sont précipités à leur déploiement généralisé.

Flock police

En septembre 2025, devant la porte de la maison de Krisanna Elzer à Denver, se tenait un officier de police avec une assignation. La propriétaire était accusée d’avoir volé un colis posé devant chez un voisin.

La preuve du crime provenait des données du système automatisé de vidéosurveillance de la société commerciale Flock Safety, où l’on voyait la voiture d’Elzer. Cependant, l’officier a refusé de partager ces détails avec la suspecte. Il lui a conseillé de présenter ses objections devant le tribunal.

« Vous savez que nous avons des caméras dans cette ville. Même un souffle d’air frais ne passe sans notre connaissance », — a expliqué le policier.

Elzer, convaincue de son innocence, a commencé à rassembler ses propres preuves. Le jour du crime, elle était effectivement à proximité — elle rendait visite à un tailleur, mais ne volait pas de colis étrangers.

Elle a collecté des données provenant de GPS dans ses applications téléphoniques et dans sa voiture, des enregistrements de son dashcam, des témoignages oraux, et même des photos de ses vêtements portés ce jour-là.

Après de nombreuses tentatives infructueuses pour transmettre ces informations aux autorités, la suspecte a écrit directement à son chef de police. Celui-ci l’a félicitée pour son travail et a annoncé l’annulation de l’assignation.

En décembre 2025, Flock Safety proposait un accès à 80 000 caméras dans 49 États américains.

Du van avec moniteurs à la prévision de crimes

Les caméras de surveillance dans les rues, magasins et institutions sont depuis longtemps une réalité courante. Cependant, les caméras intelligentes modernes et les méthodes de traitement de l’information représentent quelque chose de nouveau par rapport à leurs prédécesseurs.

CCTV de l’ère analogique

Autrefois, le système de vidéosurveillance (CCTV, Closed-circuit television) désignait un réseau fermé de caméras dont le signal était dirigé vers une dizaine d’écrans devant un agent de sécurité ennuyé dans un centre commercial.

La technologie se limitait à des capteurs vidéo, des écrans et du matériel d’enregistrement.

Les forces de l’ordre expérimentaient avec des systèmes de surveillance depuis au moins la moitié du XXe siècle.

Test du système CCTV de la police britannique sur Trafalgar Square, 1960. Source : The National Archives En 1960, la police britannique a testé deux caméras de surveillance sur Trafalgar Square lors de la visite du roi et de la reine de Thaïlande. Les moniteurs étaient placés dans une camionnette à proximité. Cette expérience a permis d’identifier plusieurs problèmes techniques et a suscité des réactions mitigées.

En 1979, la branche de développement scientifique de la police britannique a développé la technologie ANPR basée sur des méthodes optiques de reconnaissance de caractères disponibles à l’époque.

Dans les années 1990, les caméras aux intersections et sur les façades sont devenues la norme. La police a intégré CCTV et ANPR dans ses outils quotidiens.

Caméras intelligentes

Avec la miniaturisation des composants informatiques, la croissance de la connectivité et l’émergence de l’IA, la CCTV traditionnelle est remplacée par des caméras intelligentes dotées d’une base de données centralisée et d’un système d’analyse automatique.

Ces appareils sont équipés d’un processeur avec un OS, un stockage, des interfaces pour la connexion locale et Internet, et parfois un microphone pour l’enregistrement audio.

Caméra Flock Safety avec fonctions ANPR. Source : Wikimedia Certains fabricants intègrent des accélérateurs IA et des modules NPU (Neural Processing Unit) pour traiter les données en temps réel directement sur l’appareil. D’autres utilisent du matériel externe pour l’analyse IA.

Ces systèmes peuvent identifier des objets, reconnaître des numéros de plaques et des visages, en conservant un résumé de ce qui a été vu. La gamme de fonctionnalités dépend de la configuration logicielle et des préférences du fournisseur.

Le cerveau derrière la scène

Une caméra intelligente peut reconnaître des objets et enregistrer leurs identifiants — numéro de voiture, visage ou démarche. Le centre analytique collecte ces données, les croise avec d’autres sources, et envoie ses conclusions à l’opérateur.

Flock Safety propose une solution similaire avec Nova — « plateforme de données pour la sécurité publique », qui rassemble non seulement les enregistrements des caméras, mais aussi des informations issues de fuites, de bases de données de courtiers et d’autres sources commerciales.

Ce système crée un dossier avec une carte des déplacements, préférences, historique de visionnage, habitudes, dossiers policiers et autres données.

Doté d’un tel volume d’informations, l’IA peut faire des hypothèses sur le comportement des personnes et alerter l’opérateur sur des situations qu’elle considère comme suspectes. Cette option est déjà disponible pour les clients de Flock.

Selon la société, Nova permet aux forces de l’ordre de clôturer des affaires « en un clic ».

Selon les critiques, c’est une façon d’éviter la procédure d’obtention d’un mandat pour la surveillance et une base pour de vastes violations de la vie privée.

Couleurs de cheveux et injections de code

Beaucoup se moquent de la surveillance de masse. Pour eux, c’est simplement un outil pour détecter et prévenir les crimes. Mais tout le monde ne reste pas indifférent aux limites de la liberté personnelle.

Le conflit entre caméras intelligentes et ceux qui veulent préserver leur vie privée se déploie sur plusieurs plans.

En plus du combat juridique au niveau de la politique nationale, les passionnés recourent à l’art du camouflage et à des méthodes de piratage plus classiques.

Spoofing

La méthode d’attaque la plus intéressante contre ces dispositifs est le spoofing ou « attaques de présentation ». Ce terme désigne des techniques de manipulation de l’image captée par la caméra.

Il s’agit de masques, réflecteurs, textures spécialisées et autres méthodes pour « gâcher » l’image, empêchant le système de reconnaître ou d’identifier correctement l’objet.

En 2016, le projet Reflectacles du designer Scott Urban a proposé une paire de lunettes avec un réflecteur qui renvoie la lumière infrarouge de l’éclairage de la caméra de surveillance, aveuglant l’image du visage.

Reflectacles en vidéo avec une caméra de surveillance. Source : Kickstarter. Cette technique de brute-force ne laisse pas de données exploitables à une seule caméra, mais est inefficace en surveillance multi-angle.

L’artiste et chercheur berlinois Adam Harvey a développé une série de solutions CV Dazzle pour contrer la reconnaissance faciale.

Les modèles des années 2010 utilisaient des coiffures asymétriques et du maquillage destiné à tromper l’algorithme de Viola-Jones, qui détecte les visages en analysant les ombres sous les yeux et le nez, la symétrie et la position du pont nasal.

En réponse, l’artiste a appliqué des configurations de taches d’ombre inhabituelles et des couleurs contrastantes avec la peau.

CV Dazzle Look 5. Source : Adam.harvey.studio Avec l’arrivée des systèmes IA de reconnaissance faciale, ces anciennes méthodes sont devenues obsolètes, et en 2020, Harvey a proposé une version modernisée du maquillage.

CV Dazzle Look 6 et 7. Source : Adam.harvey.studio. L’artiste souligne qu’il s’agit d’une démonstration de technique, pas de motifs spécifiques, et que la solution optimale dépendra des conditions de surveillance.

Des méthodes similaires s’appliquent aux systèmes de reconnaissance de plaques. L’enthousiaste américain Benn Jordan a décrit des techniques pour créer des textures « hostiles » aux détecteurs ANPR.

En utilisant des modèles de reconnaissance ouverts, Jordan a entraîné un réseau neuronal à générer du bruit visuel qui, appliqué sur une plaque, induit la lecture erronée de caractères ou empêche la détection.

Les méthodes visuelles sont souvent peu fiables, leur efficacité dépendant des conditions et du nombre de caméras. En même temps, les fournisseurs étendent les caractéristiques utilisées pour la reconnaissance, comme la démarche spécifique ou la couleur de la voiture, ou encore des modifications externes individuelles.

Les chercheurs cherchent toujours des moyens de contourner ces modèles avancés, mais la menace la plus concrète pour les systèmes à caméras intelligentes vient des hackers.

Piratage et attaques réseau

Comme tout ordinateur connecté à Internet, quelle que soit la puissance ou la présence d’IA, les caméras intelligentes et leur infrastructure serveur sont potentiellement vulnérables aux attaques de hackers.

Au fil du temps, de nombreuses vulnérabilités de différentes gravités ont été documentées.

En 2021, une faille dans le code des caméras Hikvision a été découverte, permettant des attaques par injection de code. La brèche donnait un contrôle total sur les appareils, la possibilité d’installer des logiciels, et l’accès à d’autres caméras du réseau.

En 2023, une vulnérabilité dans le système d’exploitation des caméras Axis a permis l’exécution de commandes arbitraires lors de l’installation d’applications ACAP.

En 2025, deux failles ont été trouvées dans les systèmes Dahua, liées à l’exécution à distance de commandes et au dépassement de tampon. Elles permettaient à un attaquant de prendre le contrôle total de la caméra.

Un autre vecteur d’attaque est l’interaction directe avec l’équipement, souvent placé en extérieur dans des lieux publics. Un malfaiteur peut exploiter les interfaces de maintenance, accéder au stockage local ou modifier l’appareil à ses fins.

Pour se protéger, les fabricants utilisent le chiffrement des données, des méthodes matérielles de vérification logicielle, et ajoutent des signatures cryptographiques aux fichiers vidéo.

Un appareil configuré avec les mesures de sécurité appropriées ne peut pas simplement être « reprogrammé » ou voir ses données téléchargées facilement. Mais des erreurs peuvent survenir.

En 2025, le média 404 Media a rapporté qu’au moins 60 caméras IA Condor de Flock Safety, équipées de la fonction de suivi des personnes, étaient vulnérables à un accès non autorisé.

Le spécialiste en cybersécurité John Gainey et le chercheur Benn Jordan ont trouvé les adresses IP de ces appareils via le moteur de recherche Shodan, et ont découvert qu’ils pouvaient se connecter sans login ni mot de passe.

Un spectateur peut regarder en direct, télécharger les archives des 30 derniers jours, modifier les réglages et consulter les logs système.

Le fournisseur a expliqué cet incident par une « erreur de configuration affectant un nombre limité d’appareils » et a annoncé la correction du problème.

Les mêmes chercheurs ont indiqué qu’un autre modèle de caméras Flock offre un point d’accès WiFi ouvert, accessible en appuyant de manière spécifique sur certains boutons du boîtier. Cela permettait de prendre le contrôle total de l’appareil et de son logiciel.

Gainey a publié une analyse de ces vulnérabilités et d’autres dans un document séparé, comprenant 55 points.

Dans sa réponse officielle, la société a affirmé que ces problèmes étaient déjà connus, et que les hackers potentiels comptaient sur un accès direct aux caméras et une connaissance approfondie de leur architecture interne.

Le fournisseur a souligné que toutes les mises à jour nécessaires sont déployées automatiquement, sans intervention du client, et qu’il n’y a aucune menace pour le fonctionnement des systèmes.

Lutte contre les « partiellement compétents »

Les systèmes de surveillance automatiques, surtout avec l’intégration de l’IA, sont devenus un outil pratique pour les forces de l’ordre.

Les fournisseurs assurent à leurs clients que leurs solutions permettent de retrouver un suspect ou de suivre ses déplacements, voire d’obtenir une adresse. Désormais, une affaire peut se clore en un clic.

Il est facile de s’y habituer. Les gens ont tendance à faire une confiance excessive aux données des systèmes automatisés. Ce phénomène est lié à un biais cognitif courant.

L’automatisation avec l’IA obéit aux mêmes principes : beaucoup de utilisateurs considèrent les réponses de ChatGPT comme correctes, en ignorant d’éventuelles contradictions. En usage quotidien, cela peut déformer la perception de l’utilisateur et, dans certains cas, provoquer des psychoses.

Même dans un cadre d’ingénierie parfaite et sous contrôle total d’un opérateur autorisé, un système de surveillance massif avec analyse IA peut causer du tort.

En 2025, les autorités américaines ont lancé une enquête sur l’utilisation potentielle des technologies Flock Safety dans une surveillance illégale. Les forces de l’ordre sont soupçonnées d’avoir utilisé le système pour traquer des immigrants ou surveiller des femmes traversant les frontières d’État à la recherche de juridictions avec des lois sur l’avortement plus permissives.

Dans ce cas, le système a fonctionné normalement, sans manipulation de l’automate, sans piratage ni vidéo falsifiée.

Ne pas casser, mais améliorer

Les systèmes CCTV sont largement répandus depuis longtemps. La fourniture d’une surveillance vidéo basée sur l’IA est une nouvelle réalité.

Même le masque asymétrique le plus sophistiqué ou la plaque d’immatriculation entièrement dissimulée ne suffisent pas à préserver la vie privée dans un contexte de collecte massive de données.

Comme tout outil puissant, les systèmes de surveillance IA nécessitent une régulation pour prévenir leur usage illicite et la négligence en matière de sécurité par les fournisseurs et opérateurs.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler