Politique de cookies
Le groupe AEF info utilise des cookies pour vous offrir une expérience utilisateur de qualité, mesurer l’audience, optimiser les fonctionnalités et vous proposer des contenus personnalisés. Avant de continuer votre navigation sur ce site, vous pouvez également choisir de modifier vos réglages en matière de cookies.
Politique de protection des données personnelles

Revenir en haut de la page

Les fausses informations, un enjeu de sécurité nationale ?

Les fausses informations, nouvel enjeu de sécurité ? Les experts invités mi-décembre au forum Cyberdéfense & Stratégie – organisé par le commandement de la cyberdéfense du ministère des Armées – ont débattu autour de ce thème, avec un constat : les géants du numérique doivent être régulés, mais la France ne peut agir seule. Les espoirs se tournent vers l’Union européenne et le Digital Service Act. Mais confier à l’État et aux pouvoirs publics le contrôle des "fake news" reviendrait à de la censure, et le déléguer aux plateformes à court-circuiter la justice, estiment plusieurs intervenants.

photo d'illustration Libre de droits - © Tirza van Dijk/Unsplash

"La France seule ne peut rien faire contre les plateformes", lance le député Bruno Studer, (LREM, Bas-Rhin). La formule fait consensus parmi les intervenants du forum Cyberdéfense & Stratégie organisé par le commandement de la cyberdéfense du ministère des Armées. Cette phrase peut résumer la teneur des échanges qui ont eu lieu jeudi 17 décembre 2020, autour du thème : "La lutte contre les manipulations de l’information, quel rôle pour les États ?" Les plateformes font partie du problème, véritable enjeu de sécurité, et détiennent la solution. "Leur puissance de feu est vertigineuse", s’inquiète l’élu, rapporteur de la loi du 22 décembre 2018 "relative à la lutte contre la manipulation de l’information". "Les algorithmes nous font rencontrer des contenus auxquels nous pouvons difficilement échapper" (lire sur AEF info), dénonce-t-il avant d’illustrer : "Le terroriste responsable de la tuerie de Christchurch en Nouvelle-Zélande s’est radicalisé sur YouTube" (lire sur AEF info). Pour lui, "la viralité est l’arme du XXIe siècle".

Gafam

Bruno Studer se félicite cependant de la présentation par les Commissaires européens Margrethe Vestager et Thierry Breton du Digital Services Act (DSA) et du Digital Markets Act (DMA). Les deux projets de règlement européens visent une meilleure régulation des géants du numérique, notamment dans la modération de leurs contenus (lire sur AEF info). "Les plateformes semblent réagir positivement à ces textes, peut-être trop d’ailleurs", commente le député de la majorité. Il reste dubitatif sur le statut d’hébergeur passif, qui assure à ces entreprises de ne pas être tenues pour responsables des publications de leurs utilisateurs. "Les plateformes ne peuvent se cacher éternellement derrière ce statut, nous devons aller plus loin", presse le parlementaire, également soucieux d’assurer une transparence des algorithmes utilisés par les GAFAM.

L’État ne devrait pas intervenir directement non plus selon intervenants invités au débat. S’appuyer sur l’expertise des acteurs traditionnels du champ informationnel revient souvent dans les propositions. "Il faut financer l’information, continuer d’aider la presse pour qu’elle puisse continuer d’exister. Les journalistes ont besoin de temps et d’argent", déclare Bruno Studer, qui salue l’aide à la presse dans le plan de relance du gouvernement. Si l’école et l’éducation semblent faire partie de la solution, l’ancien professeur s’inquiète que "les théories du complot soient aussi irriguées par des gens éduqués". Il se positionne pour une professionnalisation des enseignants sur les questions de sciences cognitives et de l’information (lire sur AEF info). "Face au flux d’informations, nous devrions être sur le qui-vive en permanence, comme le 1er avril ! Comment cette information est arrivée jusqu’à moi ? Est-elle vérifiée ? La démocratie n’est pas compatible avec la paresse, il faut se poser des questions en permanence".

L’ancien fonctionnaire voit cette formation accrue des personnels de l’Éducation nationale comme une riposte à l’expertise de l’ennemi : "Les gens derrière les manipulations, États ou organisations criminelles, savent ce qu’ils font. Les membres de Daech ne sont pas des amateurs sur les réseaux, ce sont des pros".

Injure et diffamation

"Dès lors qu’un avocat intervient, le mal est déjà fait", débute de son côté Nicolas Cellupica, avocat au barreau de Paris. "Il n’y a pas beaucoup d’outils, et ils sont plus ou moins efficaces", explique-t-il avant d’énumérer : "Il y a l’injure et surtout la diffamation, tirées de la loi de 1881 sur la liberté de la presse." Si le spécialiste du droit de la presse rappelle que cette loi date du XIXe siècle, il la défend comme un texte utile pour des problématiques nouvelles. Il cite pour exemple la récente condamnation de l’auteur d’une vidéo complotiste sur le coronavirus pour diffamation, à la suite d’une plainte de l’Institut Pasteur. L’internaute accusait l’institution d’avoir créé le virus pour vendre son vaccin. La vidéo a été retirée de Facebook, mais avait cumulé plus d’un million de vues en une journée.

L’avocat spécialiste en e-réputation pointe en revanche la "marginalité" du champ d’application de la loi contre la manipulation de l’information de 2018 : "Elle ne vise que les élections politiques nationales. Elle introduit un référé pour demander au juge de supprimer un contenu, mais de manière très restrictive."

Nicolas Cellupica présente un autre texte juridique, trop méconnu selon lui. "La loi du 21 juin 2004 pour la confiance dans l’économie numérique permet d’obtenir des informations utiles sur l’auteur d’un contenu et peut permettre la suppression du contenu avant toute procédure contentieuse." Un outil "puissant et rapide", se félicite l’avocat. "Un juge signe une ordonnance pour saisir une plateforme, enjoindre la suppression d’un contenu et obtenir des informations du compte litigieux : adresse électronique, numéro de téléphone, adresse IP…", explique le juriste. Pour obtenir ces informations, l’ordonnance s’exécute par huissier qui agit auprès d’un homologue étranger où réside le siège du service visé – le plus souvent à Dublin, où résident Facebook et Google. "Les hébergeurs s’exécutent assez spontanément, ils jouent le jeu. Ce qui n’était pas le cas il y a cinq ou six ans", observe-t-il.

Cependant, la procédure se complique à partir du moment où la demande se dirige vers un hébergeur aux États-Unis, où la liberté d’expression prime. L’avocat ne juge pas nécessaire de se doter de nouveaux outils mais estime important de "créer des obligations à l’échelle européenne pour obtenir des données plus facilement et rapidement."

"Se taire, c’est perdre à chaque fois"

À une question sur la création d’une unité de "contre-discours républicain" annoncé par la ministre déléguée chargée de la Citoyenneté Marlène Schiappa, le député de la majorité Bruno Studer réagit positivement : "Si de fausses informations circulent, soit vous vous taisez, soit vous vous exprimez. Dans le premier cas, vous perdez à chaque fois." Pour Nicolas Cellupica, laisser à l’État le contrôle des contenus n’est pas une bonne chose, mais laisser ce rôle aux plateformes pose également question. "C’est accepter de déléguer un pouvoir dont le juge dispose normalement. YouTube a exclu et supprimé toutes les vidéos de Dieudonné. Il faut supprimer les vidéos litigieuses, mais est-il légitime de laisser YouTube décider de ce qui est légitime ou pas sur sa plateforme ?", s’interroge-t-il.

Jean-Louis Gergorin, coauteur avec Léo-Isaac Dognin de "Cyber, la guerre permanente" (1) a le mot de la fin. "Les intervenants ont eu un optimisme non pas inquiétant mais qui sous-évalue la menace des 'Deepfake' [voir encadré]. Le Conseil en stratégie appelle à la vigilance, si aucun cas d’espèce ne s’est encore présenté en France, cette question se posera indubitablement." Pour l’ancien diplomate, cyberattaques et manipulations de l’information sont indissociables : "Les attaques se mènent autant sur les infrastructures – le contenant – que dans les messages – le contenu." Il met en garde contre ces attaques, pleinement intégrées dans les stratégies de certains États, citant la Russie et la Chine. "Quand l’Australie et la France ont demandé à l’OMS une enquête indépendante sur l’origine de l’épidémie due au Coronavirus, des campagnes informationnelles hyperréactives ont été lancées", raconte-t-il.

"En France, en mars dernier, les serveurs de l’AP-HP ont été la cible d’une cyberattaque qui a affecté le système pendant une heure (lire sur AEF info)". Une "pichenette", selon lui, mais suffisante pour faire passer un message. Il se félicite des avancées au niveau européen et espère voir advenir une transparence et une possible contre-expertise des algorithmes des plateformes. "Il est hors de question de voir des exécutifs contrôler l’information. Mais pourquoi ne pas créer une autorité administrative indépendante pour informer, poser des jalons, apposer des informations sur des sites pour juger de leur fiabilité ?" L’enseignement supérieur doit suivre et mettre sur pied des centres de recherche sur cet objet spécifique.

fausses informations et nouvelles technologies : le poison et le remède

 

Lors de la deuxième journée du forum Cyberdéfense & Stratégie, les experts invités ont débattu de la place des nouvelles technologies dans la manipulation de l’information. Quasi unanimement, les intervenants ont estimé la menace technologique surévaluée, notamment à travers l’exemple des "Deepfake".  Cette technique repose sur le trucage hyperréaliste d’une image à l’aide de l’intelligence artificielle. Les débats ont tourné autour d’un de ses exemples les plus connus : l’incrustation d’un visage sur celui d’un autre. "On aime se faire peur avec les Deepfake", juge Benoit Raphaël, journaliste entrepreneur, créateur de Flint, service pour trier l’information. "Nous avons peur des technologies les plus avancées, mais les méthodes artisanales marchent très bien", assure-t-il, avant de le démontrer : "Un internaute a créé un faux document officiel avec un simple montage sur Photoshop pour faire croire à un 3e confinement et ça a fonctionné."

Un propos appuyé par Chine Labbé, rédactrice en chef de NewsGuard, une entreprise qui propose un plug-in installable sur les navigateurs pour noter la fiabilité des sites d’information. "La désinformation artisanale restera toujours un problème", appuie-t-elle avant d’avertir : "Le coût d’entrée baisse pour l’utilisation des Deepfake et pose le problème de sa démocratisation. Il faut garder un œil sur les technologies les plus avancées."

La conférence a été l’occasion de montrer les usages possibles de la technologie pour analyser les campagnes de manipulation de l’information. Grâce à un scan des tendances sur les réseaux sociaux, le Digital Forensic Research Lab de l’Atlantic Council a pu étudier la propagande pro-Azerbaïdjan lors du conflit dans le Haut-Karabagh. Le conflit a suscité une activité anormale sur les réseaux, avec des pics intenses et non-naturels de messages anti-Arméniens. Des mots-clés revenaient :  "#ArmenianTerrorism" ou "#ArmenianAgression", a priori diffusés par des faux comptes animés par des robots.

Dans une courte vidéo, Vincent Claveau, chercheur à l’IRISA-CNRS, a présenté l’utilité des réseaux de neurones et du Deep learning, méthode d’apprentissage automatique d’un algorithme, afin d’identifier certains types de fausses informations. "Ces outils permettent de détecter les zones modifiées d’une image, après avoir trouvé celle d’origine. Ils permettent aussi de scanner les pages de faux sites d’information par exemple, pour dégager une série d’attributs auxquels nous n’aurions pas tout le temps pensé", explique le scientifique.

Les intervenants ont également dû se pencher sur l’équilibre à entretenir entre l’homme et la machine. À plusieurs reprises, Benoit Raphaël cite Alan Thuring – l’un des fondateurs de l’informatique – et ses recherches pour contrer le système Enigma, machine pour crypter les communications allemandes pendant la seconde guerre mondiale. "Il faut une machine pour lutter contre la machine, nous ne pouvons pas nous passer de la technologie", rappelle-t-il.

"La mésinformation, la désinformation, la propagande – la complexité du phénomène se traduit déjà par l’existence de ces sous-catégories – sont difficilement repérables par les intelligences artificielles, contrairement aux contenus pornographiques ou violents", oppose la journaliste Chine Labbé. "Là où l’intelligence artificielle se rend indispensable, c’est pour scanner la toile de manière ultrarapide", admet-elle avant de résumer la problématique : "La complexité revient à l’humain et les étendues infinies à la machine". Lukas Andriukaitis, directeur associé du Digital Forensic Research Lab conclut : "Les analystes doivent s’appuyer sur la technologie, mais la décision revient à l’humain. C’est lui qui doit endosser les responsabilités et trancher, prendre les risques".


(1) Les éditions du Cerf

à découvrir
Fermer
Bonjour

Vous souhaitez contacter

Romain Haillard, journaliste