Chaque élection s’accompagne généralement de toutes sortes de rumeurs, de propagande, de demi-vérités et, parfois, de mensonges purs et simples. Dans le passé, cela s’est produit lorsque de telles sources de désinformation parvenaient à échapper à l’attention des gardiens des médias. Au cours de la dernière décennie, les médias sociaux et l’intelligence artificielle ont facilité la diffusion de ces sources potentielles de mensonges. S’il y a une consolation, c’est que même les plateformes de médias sociaux voient maintenant la menace de leur utilisation comme courroies de transmission de la désinformation et de l’information erronée.
Cette année, près de la moitié de la population mondiale votera, selon le National Democratic Institute, une organisation non gouvernementale américaine à but non lucratif dont la mission déclarée est de « soutenir et renforcer les institutions démocratiques dans le monde entier grâce à la participation des citoyens, à l’ouverture et à la responsabilité ». Dans au moins 61 pays, près de la moitié de la population mondiale se rendra aux urnes. Il s’agit de huit des dix pays les plus peuplés : Bangladesh, Brésil, Inde, Indonésie, Mexique, Pakistan, Russie et États-Unis.
L’Union européenne organisera également des élections au Parlement européen en juin. Au total, près de 2 milliards de personnes, soit environ un quart des habitants de la planète, auront la possibilité de voter cette année. Une quinzaine de ces élections se tiendront en Afrique. Et comme c’est le cas pour les élections aux États-Unis, en Asie et en Europe, les élections nationales dans les pays africains sont généralement entachées de désinformation. Dans le cas de l’Afrique, les menaces de désinformation sont encore plus probables, car la démocratie sur le continent a encore du mal à s’implanter solidement. Par conséquent, la désinformation et la mésinformation sont plus susceptibles de conduire à des coups d’État, des guerres, des troubles civils, des nettoyages ethniques et d’autres atrocités.
Le dictionnaire Oxford définit la désinformation comme une « fausse information destinée à induire en erreur, en particulier la propagande diffusée par une organisation gouvernementale à l’intention d’une puissance rivale ou des médias ». La définition de Wikipédia est encore plus poignante : « La désinformation est une fausse information diffusée délibérément pour tromper les gens.
La désinformation est une activité orchestrée et conflictuelle dans laquelle les acteurs utilisent des tromperies stratégiques et des tactiques de manipulation des médias pour atteindre des objectifs politiques, militaires ou commerciaux » ; tandis que le dictionnaire Oxford définit la désinformation comme une « information fausse ou inexacte, en particulier celle qui est délibérément destinée à tromper ».
Selon Wikipédia, « la désinformation est une information incorrecte ou trompeuse. Il peut y avoir désinformation sans intention malveillante particulière ; la désinformation se distingue par le fait qu’elle est délibérément trompeuse et propagée. La désinformation peut inclure des informations inexactes, incomplètes, trompeuses ou fausses, ainsi que des vérités sélectives ou des demi-vérités ».
Des preuves de désinformation ont déjà été observées lors de certaines élections qui ont eu lieu jusqu’à présent dans différentes parties du monde et se manifestent également dans les pays qui n’ont pas encore organisé d’élections cette année. L’IA et les médias sociaux sont des outils qui peuvent être utilisés à bon ou à mauvais escient lors d’une élection. En Inde, par exemple, l’influence de l’IA s’est fait sentir de manière substantielle lors de la préparation des élections en neuf phases qui se sont déroulées du 7 avril au 12 mai. Le Premier ministre Narendra Modi a eu recours à l’IA pour s’adresser à un public en hindi en utilisant l’outil d’IA créé par le gouvernement, Bhashini, qui a ensuite été traduit en tamoul en temps réel. De l’autre côté de la frontière, au Pakistan, Amnesty International a autorisé l’homme politique emprisonné Imran Khan à prendre la parole lors d’un rassemblement. Les politiciens et les partis politiques profitent des médias sociaux pour diffuser des informations (déclarations de presse, vidéos et photos d’activités politiques, de réalisations, etc.) à peu de frais et à grande échelle, car ces plateformes ont une audience massive et instantanée par rapport aux médias traditionnels.
Toutefois, le côté obscur de l’IA et des médias sociaux commence à susciter des inquiétudes. Lors des élections indiennes, par exemple, deux vidéos virales ont montré les stars de Bollywood Ranveer Singh et Aamir Khan faisant campagne pour le parti d’opposition, le Congrès, selon la BBC. Tous deux ont porté plainte auprès de la police, affirmant qu’il s’agissait de deepfakes, réalisés sans leur consentement. Le 29 avril, le Premier ministre Modi s’est également inquiété de l’utilisation de l’IA pour déformer les discours de hauts responsables du parti au pouvoir, dont lui-même.
Le lendemain, la police a arrêté deux personnes, l’une du parti d’opposition Aam Aadmi Party (AAP) et l’autre du parti du Congrès, en rapport avec une vidéo trafiquée du ministre de l’intérieur Amit Shah. De même, les « deepfakes » de politiciens populaires décédés qui s’adressent aux électeurs comme s’ils étaient encore en vie sont devenus une tactique de campagne populaire en Inde. Il y a également eu une vidéo d’une législatrice de l’opposition au Bangladesh – un pays conservateur à majorité musulmane – portant un bikini.
Selon TechTarget, Deepfake AI est « un type d’intelligence artificielle utilisé pour créer des canulars convaincants en matière d’images, d’audio et de vidéo ». Le terme décrit à la fois la technologie et le faux contenu qui en résulte, et est un portmanteau de « deep learning » (apprentissage profond) et « fake » (faux). Les deepfakes, note TechTarget, transforment souvent un contenu source existant où une personne est remplacée par une autre. Ils créent également des contenus entièrement originaux dans lesquels une personne est représentée en train de faire ou de dire quelque chose qu’elle n’a pas fait ou dit.
TechTarget met en garde : « Le plus grand danger posé par les deepfakes est leur capacité à diffuser de fausses informations qui semblent provenir de sources fiables. Par exemple, en 2022, une vidéo « deepfake » a été publiée montrant le président ukrainien Volodymyr Zelenskyy demandant à ses troupes de se rendre. » Elle ajoute que si les « deepfakes » constituent une menace sérieuse, ils ont aussi des utilisations légitimes, comme les jeux vidéo audio et les divertissements, ainsi que les applications d’assistance à la clientèle et de réponse aux appels, telles que le transfert d’appel et les services de réceptionniste.
Les « deepfakes » sont devenus monnaie courante dans les élections américaines. Un article rédigé par Emil Sayegh, président-directeur général de Ntirety et publié le 14 mai 2024 par Forbes énumère quelques exemples de deepfakes :
1. Une vidéo manipulée sur Twitter suggérant que le président Biden a incorrectement indiqué la durée de l’occupation de Kiev par la Russie.
2. Images manipulées selon lesquelles la sénatrice Elizabeth Warren aurait préconisé d’interdire aux républicains de voter lors de l’élection présidentielle de 2024.
3. Modification de l’audio sur TikTok transmettant faussement les menaces du président Biden de déployer des F-15 au Texas.
4. Une modification de la vidéo faisant apparaître le vice-président Harris en état d’ébriété et absurde.
5. Une photo en ligne générée par l’IA montrant faussement l’ex-président Donald Trump en compagnie de Jeffrey Epstein et d’une mineure.
6. Des images créées par l’IA sur x (anciennement Twitter) représentant faussement le président Biden en tenue militaire.
7. Une publicité soutenue par un PAC utilisant abusivement l’IA pour reproduire les critiques de Donald Trump à l’encontre de Kim Reynolds, gouverneur de l’Iowa.
8. Des portraits générés par l’IA de Donald Trump et Joe Biden dans un débat fictif sur Twitch.
9. Une vidéo de la campagne de DeSantis avec des images fabriquées par l’IA attaquant Donald Trump.
10. Discours synthétique suggérant que le président Biden a fait des commentaires sur l’instabilité financière, susceptibles d’inciter au chaos sur les marchés ou d’induire en erreur les dirigeants d’entreprise.
Un article de Shanze Hasan publié le 6 juin 2024 sur www.brennancenter.org mentionne qu’au début de l’année, des appels téléphoniques robotisés générés par l’IA ont imité la voix du président Biden, ciblant les électeurs du New Hampshire et les décourageant de voter lors des primaires. En outre, une image générée par l’IA représentant faussement l’ancien président Trump en compagnie du trafiquant sexuel Jeffrey Epstein et d’une jeune fille a commencé à circuler sur Twitter.
En dehors des États-Unis, l’article énumère quelques autres incidents liés aux élections, tels que la circulation de faux en profondeur lors des élections slovaques de l’année dernière, qui ont diffamé le chef d’un parti politique et peut-être contribué à faire basculer l’élection en faveur de son adversaire pro-russe. Le 16 mars 2024, un reportage de la VOA sur la Slovaquie fait état d’un faux enregistrement du chef du parti libéral du pays, qui discuterait de la modification des bulletins de vote et de l’augmentation du prix de la bière. La VOA cite également une vidéo dans laquelle la présidente pro-occidentale de la Moldavie apporte son soutien à un parti politique ami de la Russie.
L’article de Shanze Hasan, intitulé « The Effect of AI on Elections Around the World and What to Do About It », rappelle qu’en janvier de cette année, le gouvernement chinois a apparemment tenté de déployer des « deepfakes » d’IA pour s’immiscer dans les élections taïwanaises. L’auteur a également observé qu’une vague de contenus malveillants générés par l’IA apparaissait en Grande-Bretagne à l’approche des élections, prévues pour le 4 juillet. Un deepfake montrait une présentatrice de la BBC, Sarah Campbell, affirmant à tort que le Premier ministre britannique Rishi Sunak faisait la promotion d’une plateforme d’investissement frauduleuse.
L’article mentionne un cas où le principal candidat à la présidence en Indonésie, un ancien général, a utilisé un dessin animé généré par l’IA pour s’humaniser afin de séduire les jeunes électeurs. Par ailleurs, au Belarus, l’opposition en difficulté du pays a présenté un « candidat » au parlement généré par l’IA. Le candidat – un chatbot qui se décrit comme un homme de 35 ans originaire de Minsk – fait partie d’une campagne de sensibilisation visant à aider l’opposition, dont beaucoup se sont exilés, à toucher les électeurs biélorusses.
À l’approche des élections prévues en 2025 à Singapour, le pays a déjà commencé à être confronté à la menace des « deepfakes » de l’IA. Channelnewsasia.com a rapporté le 1er juin 2024 qu’un message WhatsApp circule largement, affirmant que le nouveau Premier ministre Lawrence Wong a appelé à la tenue d’élections le 6 septembre 2024. Selon Channel News Asia, cependant, aucune élection ne peut être convoquée sans le comité de révision des circonscriptions électorales, qui, note-t-on, « n’a même pas été convoqué – du moins au 18 avril 2024 – et c’est une étape nécessaire avant qu’une élection puisse être convoquée ».
Les récentes élections en Afrique du Sud ont mis en évidence l’influence des médias sociaux et de l’IA sur la politique africaine lorsque les géants de la technologie Meta (propriétaires de Facebook, WhatsApp, Instagram et Threads), ainsi que TikTok, X (anciennement Twitter) et Google ont refusé de partager des plans électoraux détaillés et de s’engager avec la société civile sur leurs plans visant à étouffer les fausses nouvelles et les propos intempestifs véhiculés par les médias sociaux, comme cela s’est produit en 2021, qui a déclenché des violences ayant entraîné la mort de 300 personnes à la suite d’une affaire d’outrage au tribunal contre l’ancien président Jacob Zuma, qui est aujourd’hui le chef du parti dissident uMkhonto we Sizwe (MK). Avant les élections de cette année, M. Zuma a été disqualifié en raison d’une condamnation antérieure à une peine de prison pour outrage au tribunal. Ses partisans ont rejeté la décision.
« Si ces tribunaux, qui sont parfois capturés, arrêtent MK, ce sera l’anarchie dans ce pays. Il y aura des émeutes comme vous n’en avez jamais vu dans ce pays. Il n’y aura pas d’élections », a déclaré Theeastafrican.co.ke, citant le dirigeant de MK, M. Visvin Reddy, dans une vidéo largement diffusée sur les médias sociaux, dans laquelle il menaçait le pays en mars 2024. M. Reddy est accusé d’incitation à la violence publique, ainsi que d’autres membres du parti MK, pour ce commentaire incendiaire. Par ailleurs, des posts sur les médias sociaux, dont une vidéo TikTok, ont montré des individus portant des chemises MK et brandissant des armes à feu. En janvier 2024, plus de 60 personnes liées à MK ont été inculpées pour avoir fomenté des émeutes meurtrières en 2021, selon le rapport.
Menaces de désinformation générée par l’IA en Afrique
L’Afrique est un continent potentiellement instable en matière de politique électorale et de démocratie. Plusieurs pays du continent s’habituent aujourd’hui à l’idée de la démocratie, qui s’installe peu à peu. Même sans la menace de la désinformation, les élections sont souvent un exercice très tendu et fragile sur le continent. Si l’on y ajoute la désinformation par l’IA, la situation est encore plus délicate. Cette évolution constitue une menace sérieuse pour la démocratie du continent, d’autant plus que certaines régions, comme le Sahel, optent pour des coups d’État militaires et font preuve de tendances antidémocratiques en annulant tous les progrès démocratiques réalisés au cours des dernières décennies par le biais d’élections nationales.
Il convient également de noter que l’Afrique est un continent très religieux, conservateur et multiethnique avec un pot-pourri de cultures. Sans les « deepfakes » générés par l’IA, un homme s’est assis à la radio au Rwanda et a utilisé des discours de haine pour déclencher un génocide qui a entraîné le massacre de près d’un million de personnes. Sans la désinformation assistée par l’IA, des guerres auraient été déclenchées entre différents groupes ethniques – certains pour le bétail, d’autres pour des rumeurs et des divisions ethniques et religieuses. Les deepfakes générés par l’IA pourraient aggraver la situation depuis que les téléphones portables et les médias sociaux sont devenus monnaie courante sur le continent. À l’ère numérique, toute désinformation se répandra comme une traînée de poudre et les conséquences dévastatrices seront sans commune mesure avec les événements historiques antérieurs à l’IA.
Les grandes entreprises technologiques s’attaquent aux « deepfakes
Les entreprises technologiques s’efforcent toutefois de maîtriser le côté obscur des contenus générés par l’IA afin de prévenir la désinformation et la mésinformation. TikTok, par exemple, a annoncé en mai dernier qu’il commencerait à étiqueter les contenus générés par l’I.A., selon CNN. Le réseau d’information international a également rapporté que Meta a déclaré le mois dernier qu’il commencerait à étiqueter le contenu de l’IA. YouTube, a ajouté CNN, a également introduit des règles obligeant les créateurs à révéler quand les vidéos sont créées par l’I.A. afin qu’un label puisse être appliqué. La société X d’Elon Musk n’a toutefois pas annoncé de projet d’étiquetage des contenus générés par l’intelligence artificielle. OpenAI, le créateur de ChatGPT qui permet aux utilisateurs de créer à leur tour des images générées par l’IA grâce à son modèle DALL-E, a déclaré le mois dernier qu’il lancerait bientôt un outil permettant aux utilisateurs de détecter si une image a été créée par un robot. L’entreprise a confirmé qu’elle lancerait un fonds de 2 millions de dollars avec Microsoft pour lutter contre les « deepfakes » qui peuvent « tromper les électeurs et saper la démocratie ».
En Afrique, Dubawa, un projet du Centre pour l’innovation et le développement du journalisme (CJID), a mis au point un chatbot, un outil d’IA pour vérifier les faits et démanteler les « deepfakes ». Premiumtimesng.com cite Monsur Hussain, le responsable de l’innovation au CJID, qui affirme que le Chatbot de Dubawa est développé pour donner des réponses précises et opportunes aux réclamations ou aux questions. Il a précisé que cet outil avait accès à des données internet en temps réel, contrairement à d’autres outils d’IA tels que ChatGPT et MetaAI, qui tous deux « n’ont pas accès à des données internet en temps réel ».
« Le chatbot Dubawa est un outil d’intelligence artificielle conçu pour répondre aux questions quotidiennes concernant la désinformation virale et la désinformation dans l’écosystème de l’information », a répondu le chatbot lorsqu’on l’a interrogé sur sa fonction. « Il vise à réduire la diffusion de contenus nuisibles et trompeurs en ligne en proposant des résultats et des références provenant de sources crédibles », a-t-il ajouté.
Au Ghana, où les élections auront lieu le 7 décembre 2024, l’Autorité de cybersécurité du pays, selon ClassFMonline.com, s’est engagée à collaborer avec les géants de la technologie pour lutter contre la diffusion de fausses informations et de désinformation en ligne, en particulier sur les plateformes de médias sociaux. L’Autorité a expliqué qu’à l’approche des élections, le pays est susceptible d’être confronté à des campagnes de désinformation basées sur l’IA en raison de la rapidité de la numérisation.
Décrivant les « deepfakes » comme une activité « malveillante » lors de son intervention au symposium régional CSIRTS d’Afrique de l’Ouest à Accra, le Dr Albert Antwi Boasiako, directeur général de l’Autorité de la cybersécurité, a prévenu qu' »il y aura une série de cyberattaques » à l’approche de l’élection.
Albert Antwi Boasiako a déclaré : « Les criminels innovent dans leurs procédés et il est probable que nous assisterons à des campagnes de désinformation et de mésinformation alimentées par l’IA. Cela nous complique un peu la tâche, mais nous travaillons avec les prestataires de services techniques – ceux qui possèdent la plateforme.
« Ils ont également des mécanismes pour nous attaquer. Ainsi, Facebook, Twitter, qui est maintenant X et d’autres, nous nous engageons avec eux pour nous assurer qu’à l’approche des élections, nous serons en mesure de détecter et de prévenir certains de ces problèmes », a déclaré M. Boasiako.