Tout comme l’invention de l’internet et d’autres outils informatiques, qui font désormais partie intégrante de nos vies, l’intelligence artificielle s’est imposée et semble se répandre rapidement. Bien qu’elle ait été créée pour le bien, elle est devenue une arme à double tranchant. Si ses avantages sont innombrables, ses inconvénients simultanés peuvent être inégalés. D’une part, l’IA est utilisée pour renforcer les sociétés de diverses manières, mais d’autre part, elle sape les fondements de ces mêmes sociétés. Alors que les fils de la sphère numérique tissent les sociétés de manière complexe et intime, l’IA sera toujours présente dans nos vies, ce qui signifie une chose : nous devons apprendre à vivre avec ses bons et ses mauvais côtés. Si elle peut amplifier le « bon », elle fait exploser le « mauvais » encore plus vite et plus largement. Les mensonges, la désinformation et les fausses informations ont soudain trouvé leur force dans ce côté obscur de l’IA.
La montée de la désinformation par l’IA
La désinformation – la diffusion délibérée d’informations fausses ou trompeuses – existe depuis longtemps, mais l’IA a donné un coup de fouet à ses capacités, en rendant plus facile, plus rapide et moins coûteuse la production de faux contenus convaincants. Qu’il s’agisse de fausses vidéos de dirigeants politiques, de clonage de voix de personnalités publiques ou d’articles de presse entièrement fabriqués, l’IA a donné aux agents de désinformation des outils qui étaient autrefois l’apanage d’équipes hautement spécialisées.
Les élections générales pakistanaises de février 2024 en sont un exemple frappant. Derrière les barreaux, l’équipe de l’ancien Premier ministre Imran Khan a utilisé l’IA pour générer une vidéo et un message vocal synthétique déclarant la victoire de son parti avant l’annonce des résultats officiels. Le contenu généré par l’IA a été visionné des millions de fois et a semé la confusion, montrant à quel point les médias manipulés peuvent rapidement influencer la perception du public (BBC, 2024 ; CNN, 2024).
De même, en Slovaquie, un candidat a perdu les élections après qu’un clip audio deepfake viral a prétendu à tort qu’il avait l’intention de truquer le vote. Bien qu’il ait été démenti, les dommages ont été irréversibles (CNN, 2024). Ces cas soulignent les conséquences réelles des campagnes de désinformation alimentées par l’IA, où la perception peut l’emporter sur la vérité et où les récits fabriqués peuvent faire dérailler les processus démocratiques.
L’IA générative : le moteur ultime de la désinformation
L’IA générative, une technologie capable de créer de manière autonome du texte, des images, du son et de la vidéo, a fondamentalement changé la manière dont le contenu est produit. Grâce à des outils tels que ChatGPT, Midjourney et Stable Diffusion, la création de fake news, de deepfakes ou de visuels trompeurs n’est plus l’apanage de spécialistes de la technologie. Les utilisateurs quotidiens peuvent désormais produire du contenu qui semble authentique, ce qui rend de plus en plus difficile la distinction entre la réalité et la fiction (DW Akademie, 2024).
Ces outils peuvent être utilisés pour automatiser des campagnes de désinformation entières. Les robots alimentés par l’IA générative peuvent rédiger des articles persuasifs, créer des sites web synthétiques et amplifier les messages sur les médias sociaux, le tout sans surveillance humaine. Selon NewsGuard, plus de 1 100 sites d’information générés par l’IA ont vu le jour dans le monde, diffusant des récits trompeurs dans plusieurs langues (NewsGuard, 2024).
Cette automatisation entraîne une surcharge d’informations comprenant un volume écrasant de faux contenus, ce qui fait de la vérification traditionnelle des faits une activité cauchemardesque. Tout comme la police et les criminels, les vérificateurs de faits ont toujours du mal à rattraper les auteurs de ces campagnes de désinformation, qui ont toujours une longueur d’avance, inondant les lignes de temps, les fils d’actualité et les discussions de groupe de récits élaborés par l’IA (Université de Zurich, 2023).
Érosion de la confiance
L’impact va au-delà du simple contenu. La désinformation induite par l’IA est en train de remodeler l’espace public. Avec des médias comme CNET qui publient discrètement des contenus générés par l’IA et des modèles génératifs connus pour « halluciner » les faits, la confiance dans le journalisme et les institutions ne cesse de s’éroder (Freshfields Bruckhaus Deringer, 2024).
La confusion du public s’accroît. Alors que les internautes s’efforcent de déterminer si le contenu est d’origine humaine ou généré par l’IA, les indicateurs de confiance traditionnels, tels que le ton professionnel ou le réalisme visuel, ne suffisent plus. Selon Vinton G. Cerf, pionnier de l’internet, nous perdons notre capacité à évaluer la crédibilité parce que nos filtres traditionnels ont été déformés (Freshfields, 2024).
Les conséquences sont considérables. Lorsque la confiance dans les médias s’effondre, il en va de même pour la capacité du public à s’engager de manière significative dans les processus démocratiques. Comme le souligne le Forum économique mondial, cette érosion de la vérité constitue un « risque existentiel » pour l’humanité (WEF, 2024).
Manipulation ciblée et division sociale
En plus de semer la confusion, la désinformation par l’IA peut être ciblée avec précision. Les agents politiques peuvent adapter le contenu trompeur à des groupes démographiques spécifiques à l’aide d’algorithmes d’IA qui exploitent les données, les préférences et les préjugés des utilisateurs. Cela peut aggraver les divisions sociétales et avoir un impact disproportionné sur les groupes vulnérables.
La désinformation genrée, par exemple, exploite l’IA pour produire des contenus misogynes visant à discréditer les femmes politiques ou les militantes. Par ailleurs, les communautés marginalisées peuvent être davantage exposées à des récits nuisibles ou faux conçus pour manipuler leurs décisions politiques (WEF, 2024).
Exploitation autoritaire et implications mondiales
Les régimes autoritaires n’ont pas manqué l’occasion d’exploiter l’IA générative. Selon Democracy Reporting International, des récits contrôlés par l’État sont intégrés dans les chatbots d’IA. Par exemple, lorsqu’il est sollicité de manière spécifique, le ChatGPT reproduit une rhétorique pro-Kremlin, justifiant par exemple l’invasion de l’Ukraine sous couvert de « dé-nazification » (Democracy Reporting International, 2023).
En outre, les modèles open-source dépourvus de garde-fous intégrés permettent aux acteurs malveillants de diffuser plus facilement de la propagande à l’échelle mondiale. Les systèmes juridiques d’au moins 21 pays encourageant la censure par apprentissage automatique, l’IA peut devenir un outil d’autoritarisme numérique, réduisant au silence les dissidents et renforçant les récits soutenus par l’État (Democracy Reporting International, 2023).
Des élections en danger
Les élections sont particulièrement vulnérables à la manipulation par l’IA. Qu’il s’agisse d’un faux appel téléphonique de Biden incitant les électeurs à rester chez eux ou de fausses images de rivaux politiques, l’IA générative fournit de puissants outils d’ingérence électorale. Il ne s’agit pas de risques théoriques : ils se produisent en temps réel et à grande échelle (DW Akademie, 2024).
Les acteurs qui considèrent l’information comme un champ de bataille peuvent désormais faire la guerre avec des récits synthétiques. Les dangers sont à la fois nationaux et étrangers, avec des campagnes de désinformation coordonnées, financées et dont l’impact est mesuré. Comme l’a fait remarquer un expert, « ces acteurs considèrent l’information comme un théâtre de guerre » (Carl Miller, Centre d’analyse des médias sociaux).
La voie à suivre
Si l’IA représente une menace sérieuse, elle offre également une partie de la solution. Les systèmes d’IA peuvent être formés pour détecter des modèles de désinformation, aider à la vérification des faits et analyser la diffusion de contenus trompeurs. Toutefois, les outils techniques ne suffisent pas à eux seuls.
Une approche sur plusieurs fronts est essentielle. Il s’agit notamment de
- Gouvernance transparente de l’IA: Des initiatives telles que l’AI Governance Alliance et la Coalition for Content Provenance and Authenticity (C2PA) militent en faveur d’un déploiement éthique et d’un filigrane du contenu de l’IA (WEF, 2024).
- L‘éducation aux médias: L’éducation du public à l’esprit critique et à la culture numérique peut permettre aux individus d’identifier les informations erronées.
- Collaboration intersectorielle: Les gouvernements, les entreprises technologiques, la société civile et les institutions universitaires doivent travailler ensemble pour définir des normes et répondre aux menaces émergentes en temps réel.
Conclusion : Naviguer dans l’ère de la vérité synthétique
L’IA générative n’est pas intrinsèquement nuisible, mais son utilisation abusive pose un sérieux défi à la démocratie, à la cohésion sociale et à la vérité elle-même. Face à la désinformation générée par l’IA, la société doit agir de toute urgence et collectivement. L’innovation doit s’accompagner de la responsabilité, et les grands pouvoirs, de l’obligation de rendre des comptes. Ce n’est qu’à cette condition que l’IA pourra servir d’outil de progrès et non d’arme de tromperie.
Références
- BBC News (2024). Élections au Pakistan : La vidéo d’Imran Khan sur l’IA suscite la controverse.
- CNN (2024). Le son généré par l’IA influe sur le résultat des élections en Slovaquie.
- Democracy Reporting International (2023). L’IA et la désinformation : Un rapport de recherche.
- DW Akademie (2024). Comment l’IA générative modifie la désinformation.
- NewsGuard (2024). Suivi des sites web de désinformation générés par l’IA.
- Université de Zurich (2023). L’influence de l’IA générative sur la perception de la vérité.
- Forum économique mondial (2024). Rapport sur les risques mondiaux.
- Vinton G. Cerf, Freshfields Bruckhaus Deringer (2024). Podcast sur la confiance dans les médias.
Carl Miller, Centre d’analyse des médias sociaux. Entretien avec un podcast.