Xavier DESMAISON, Dirigeant d’ANTIDOX
Le mot de post-vérité vient à peine d’apparaître dans le dictionnaire Oxford en 2016 que nous entrons dans un nouveau mode de construction de l’espace public, que l’on pourrait appeler la vérité algorithmique. Voici une petite dystopie décrivant quelques minutes dans la vie de Tom, un activiste en campagne politique.
Ses outils d’intelligence artificielle ont accéléré sa productivité de trois façons différentes.
Premier avantage : il peut produire davantage de contenus, notamment vidéo, plus rapidement et à faible coût. En quelques minutes, il a créé et planifié la diffusion sur tous les réseaux sociaux de dizaine de photographies et vidéos qui personnifient le candidat adverse dans des postures ridicules postures, rictus et habits ridicules, dans des photographies au visage hybridé de museaux d’animaux, des pauses en compagnie de personnalités controversées, des scènes gênantes, des grossièretés prononcées, des propos choquants…
A l’inverse, Tom fait produire des contenus positifs pour son candidat. Les algorithmes créent différents formats, des posts ou vidéos inédits, des « deepfake » qui inventent des situations crédibles, des « cheapfake » qui transforment simplement des images existantes… Le mot de « fake » ne doit pas tromper : Tom ne cherche pas forcément à mentir ou diffuser de fausses informations ; ce qui l’intéresse dans ses campagnes d’« astroturfing » est essentiellement des effets de répétition, de domination, voire de saturation d’opinions et d’arguments similaires. Chaque brin d’herbe simulé doit finir par constituer une pelouse, la répétitionfinit par générer un effet de conviction. Les amateurs de contenus parodiques, les alliés idéologiques ou les idiots utiles se chargent sans vergogne d’assurer la diffusion de contenus qu’ils savent faux ou biaisés.
Deuxième avantage : en multipliant les formats et en s’inspirant des contenus viraux, l’IA lui donne de meilleures chances de produire des « meme », c’est-à-dire des contenus devenus viraux après avoir remporté la compétition darwinienne de l’espace public.
Et puis, troisième avantage : l’IA peut produire des contenus personnalisés, en croisant les nombreuses données existantes sur les cibles de Tom et en générant automatiquement des contenus imitant les mots, les émotions, le style et les images que ses cibles diffusent et consomment. Les capacités de Tom se rapprochent de plus en plus de ce que vendait la société Cambridge Analytica dans les années 2010. Tom sourit en pensant que ce qui était largement une fiction commerciale pourrait devenir une réalité.
Finalement, si les messages diffusés par les outils de Tom sont suffisamment massifs, ils serviront de base de travail aux algorithmes statistiques qui produiront les nouveaux contenus demain. Ainsi, progressivement, nait un discours sur la réalité travaillée par la vérité algorithmique. Un peu comme pour les algorithmes boursiers de « high frequency trading » : si les algorithmes prennent pour base de travail les orientations données par d’autres algorithmes, des effets de bulle ou d’effondrement peuvent se produire par effet de mimétisme, comme lors du « flash crash » boursier de 2010.
Sauf qu’il ne s’agira pas ici de cours d’actions, mais d’opinions, d’idées, de rumeurs qui structurent nos démocraties fragiles.
À ce moment du texte, me voici obligé de vous avouer un mensonge. La scène que vous venez de lire n’est pas une scène de fiction, qui imaginerait un futur dystopique, en 2025 ou en 2030. Non, elle n’est que le bref compte rendu d’un instant de la vie d’un mercenaire de l’information il y a plusieurs mois déjà, en 2022. Tout est déjà en place pour ce nouveau monde de la vérité algorithmique. En septembre 2023, un faux enregistrement circulait à la veille de l’élection slovaque, dans lequel le candidat Michal Simecka avouait manipuler le vote à un journaliste d’investigation. Toujours en 2023, la société de cybersécurité Mandiant, filiale de Google, relève la production de fausses vidéos, notamment un faux présentateur télévisuel attribué à Dragonbridge, une opération de déstabilisation chinoise ciblant la démocratie américaine. Et puis en mai, la circulation sur Twitter d’une image générée par l’IA décrivant une prétendue explosion près du Pentagone a brièvement eu un impact sur les cours boursiers américains. Le média russe RT et le compte vérifié @BloombergFeed, qui se fait passer pour un compte associé au Bloomberg Media Group, figurent parmi les comptes à la manoeuvre.
Faut-il s’attendre à un « armageddon » de l’intelligence artificielle dans le monde de l’information dans les mois et années à venir ? Comme toujours avec de nouvelles technologies, il faut se méfier des discours qui exagérément optimistes ou pessimistes.
En août 2023, Mandiant note que « les groupes de déstabilisation (« threat actors ») s’intéressent à l’IA générative, mais son utilisation reste limitée ». Dans un récent article d’opinion paru en 2023 dans la Harvard Kennedy School Misinformation Review, les chercheurs Félix Simon (Oxford Internet Institute), Sacha Altay (Université de Zurich), Hugo Mercier (Institut Jean Nicod) estiment que « les craintes concernant l’impact de l’IA générative sur la désinformation sont exagérées ». Pour eux, si l’IA risque bien d’accroître la quantité de fausses informations, elle ne résout pas le problème de la diffusion aux individus, qui reste limitée. Ceux-ci ont, et c’est heureux, leurs propres capacités de construction de leurs opinions via leurs expériences et leurs échanges directs. Par ailleurs, dans certains pays (malheureusement pas la majorité), les écosystèmes médiatiques sont capables de déconstruire les fausses informations car solidement structurés, équilibrés idéologiquement et sur le plan des intérêts. Bref, on ne relève pas à ce stade de changement d’échelle de la désinformation, dans un espace public qui est déjà extrêmement pénétré par ces contenus.
Que faire alors ? Beaucoup de travail pour les juristes des années à venir ! Alors que dans l’art de la guerre de Clausewitz, la défensive est une forme de guerre plus puissante que l’offensive, c’est bien l’inverse qui se produit dans le monde informationnel : l’offensive prime. Il est nécessaire de passer à l’échelle les approches d’identification et d’analyse des fausses informations, notamment en utilisant les capacités des algorithmes à détecter rapidement les traces de stratégies de désinformation, mais aussi de produire rapidement des contenus de « debunking ». Bien sûr, défendre la presse et le travail journalistique. Et puis continuer à travailler avec les plateformes numériques pour faciliter la détection, l’identification et la suppression des contenus manifestement problématiques, dont les algorithmes de modération et de recommandation restent aujourd’hui à la fois vétustes et non transparents. Il sera aussi probablement nécessaire de reprendre la main de façon négociée, collective et démocratique sur les contenus produits automatiquement par les algorithmes, via les tests a priori et a posteriori qui existent déjà et sont contrôlés par les plateformes elles-mêmes.