AccueilActualités informatiqueAlgorithmes vs. Corona : exagération, battage médiatique et surveillance accrue

Algorithmes vs. Corona : exagération, battage médiatique et surveillance accrue

L’utilisation de systèmes de prise de décision automatique (SMA), y compris l’intelligence artificielle (IA), pour contrôler la pandémie de la maladie de Corona, qui dure depuis deux ans, a suscité et suscite toujours de grands espoirs. Pourtant, les gouvernements et les entreprises ont souvent introduit cette technologie prometteuse avec des résultats mitigés et « sans aucune transparence, sans preuve de son efficacité, sans mesures de sécurité adéquates et sans débat démocratique suffisant ». C’est la conclusion à laquelle parvient l’organisation à but non lucratif AlgorithmWatch dans son rapport final publié jeudi sur ses recherches et intitulé « Tracing the Tracers ».

Sommaire

Les SMA devaient, entre autres, contribuer à réduire les infections, à désengorger les hôpitaux, à faciliter les voyages et les rencontres interpersonnelles en toute sécurité et à fournir des vaccins en priorité aux personnes les plus vulnérables. Mais ces objectifs n’ont pas été atteints en grande partie.

Certaines mesures basées sur des algorithmes ont certes contribué à la lutte contre le Covid-19, font remarquer les auteurs, comme par exemple la contribution positive prouvée à l’endiguement des infections par des applications de traçage en Angleterre et au Pays de Galles. Mais jusqu’à présent, il n’existe généralement pas de preuves scientifiques suffisantes pour démontrer que les applications numériques de recherche de contacts, les certificats numériques Covid ou l’IA « ont été essentiels, fondamentaux ou même nécessaires pour une réponse efficace à la pandémie ».

Jusqu’à présent, les résultats obtenus par l’intelligence artificielle ont été « fortement exagérés, surévalués et même exploités pour une dangereuse propagande de type guerre froide » entre des superpuissances ennemies comme les États-Unis et la Chine, souligne Fabio Chiusi dans son résumé. C’est surtout en dehors de l’Europe que des « applications dystopiques » ont été testées et utilisées à maintes reprises.

Selon lui, les choses vont mieux dans la recherche sur les vaccins, le diagnostic précoce Covid-19, l’évaluation du risque d’évolution grave, le développement de stratégies de test efficaces et l’aide aux médecins dans leur prise de décision.

Le chercheur a identifié comme tendance la plus inquiétante le fait que la crise a été utilisée comme prétexte pour « consolider et normaliser la surveillance, le contrôle, la mesure et la prévision d’un nombre croissant d’activités quotidiennes » à des fins de santé. Il ne faut pas oublier le nombre d’erreurs, de fuites de données et de restrictions fonctionnelles des outils ADM dans le monde entier. Chiusi rappelle par exemple un bug dans le cadre de traçage d’Apple et de Google, découvert par un étudiant portugais. Il aurait ainsi été possible d’interrompre les transferts de données via Bluetooth, ce qui aurait effectivement rendu les apps inutilisables.

Dans l’application d’enregistrement locale controversée Luca, une faille de sécurité aurait été découverte, permettant à des pirates de paralyser des services de santé entiers. Selon l’auteur, l’application malaisienne Tracing envoyait même des mots de passe à usage unique non demandés à des numéros de téléphone aléatoires en raison de « scripts malveillants ». Les utilisateurs ont ainsi été informés par e-mail qu’ils avaient été testés positifs au Covid.

Dans de nombreux pays, même les forces de l’ordre ont eu accès à des données permettant de suivre les contacts. « La pandémie a contribué à promouvoir les contrôles biométriques comme condition préalable à la sécurité des voyages internationaux », explique M. Chiusi.

En Inde, la reconnaissance faciale automatisée a été utilisée pour vérifier les personnes vaccinées, bien qu’il n’y ait pas de base légale pour cela. Les autorités du sud de l’Australie et de la Pologne ont utilisé des applications de quarantaine pour effectuer plusieurs fois par jour des contrôles aléatoires de localisation avec vérification faciale en direct. La ville chinoise de Yunnan a associé la procédure biométrique à des codes de santé personnels et en a fait un usage abusif à des fins de contrôle social.

Selon le scientifique, l’effort mondial pour répondre aux attentes des systèmes SMA n’a pas seulement concerné les secteurs de la santé et de la mobilité. « Cela a également changé la façon dont les activités humaines de base comme l’apprentissage et le travail se déroulaient ». La crainte d’une intrusion sans précédent et injustifiable dans la vie et le domicile de millions d’étudiants dans le monde entier aurait conduit à des mises en garde contre un nouveau « 1984 ». Les employeurs n’auraient pas non plus hésité à tirer le meilleur parti possible des nouvelles possibilités de surveillance.

Selon le rapport, les « promesses exagérées » semblent être la règle dans l’histoire de l’IA. Le chercheur de Cambridge Michael Roberts et ses collègues auraient par exemple publié un aperçu des applications de l’apprentissage automatique pour la détection de Covid-19 à partir de radiographies du thorax et de tomodensitométries. Dans tous les travaux publiés dans ce domaine entre janvier et octobre 2020, ils n’ont donc trouvé aucune indication d’instruments « suffisamment bons pour être utilisés en clinique ».

« La pandémie est un problème complexe qui a d’énormes conséquences économiques, sociales, normatives, technologiques et sanitaires », concluent-ils. Selon lui, la technologie seule ne peut pas y apporter de solution. A une époque où les systèmes ADM pourraient contribuer à des décisions potentiellement salvatrices, il est encore plus urgent d’ouvrir la « boîte noire » des procédures utilisées et de les légitimer démocratiquement. La surveillance de masse, par exemple par des méthodes de reconnaissance biométrique, doit être interdite. L’Europe devrait jouer un rôle de leader en matière de pratiques et de normes.

Plus d'articles