La diffusion rapide de l’intelligence artificielle dans la vie quotidienne a apporté des innovations remarquables, mais elle a également ouvert la porte à des formes de tromperie plus sophistiquées (Brandao, 2025). L’une des évolutions les plus préoccupantes est la montée des « deepfakes », des contenus audio et vidéo générés par l’IA qui imitent de manière convaincante des personnes réelles (Alanazi et al., 2025). L’intelligence artificielle a transformé des secteurs tels que la santé, l’éducation et le divertissement (voir Rashid & Kausik, 2024). Elle est également devenue un outil puissant pour les cybercriminels qui cherchent de nouveaux moyens de manipuler la confiance et d’exploiter les populations vulnérables.La fraude en ligne traditionnelle n’est pas nouvelle. Bien avant les « deepfakes », les escrocs s’appuyaient sur la manipulation émotionnelle, l’usurpation d’identité et les fausses promesses pour tromper leurs victimes. Les escroqueries à la romance, à l’héritage, à la loterie, aux avances de frais et à l’usurpation d’identité sont devenues monnaie courante dans les médias sociaux, les plateformes de rencontres et les communications par courrier électronique. Des YouTubers enquêteurs tels que Pleasant Green ont largement exposé ces opérations, les reliant souvent à de jeunes réseaux de fraude dans certaines régions d’Afrique de l’Ouest, en particulier au Nigeria(www.youtube.com/@PleasantGreen). Dans de nombreux cas, les escrocs utilisent de fausses identités, des photos de profil volées et des conversations soigneusement scénarisées pour établir la confiance avant de demander de l’argent. Ces escroqueries reposaient en grande partie sur des messages textuels et des images statiques, mais l’émergence de la technologie « deepfake » a considérablement augmenté l’ampleur de la tromperie. Les fraudeurs peuvent désormais simuler des appels vidéo en direct, cloner des voix et créer des appuis convaincants de la part de personnalités publiques, ce qui rend les escroqueries beaucoup plus difficiles à détecter. La technologie Deepfake utilise l’intelligence artificielle pour générer de fausses images, de fausses vidéos et de faux sons (Alanazi & Asif, 2024). À mesure que la technologie s’améliore, les résultats deviennent de plus en plus réalistes, ce qui rend difficile la distinction entre les deepfakes et le contenu authentique. Les deepfakes ouvrent des perspectives passionnantes dans les domaines du divertissement, de l’éducation, de la publicité et de la production cinématographique. Malheureusement, le côté sombre de cette innovation devient plus visible, car les fraudeurs et les cybercriminels exploitent son potentiel de tromperie sophistiquée.
Soups Ranjan, PDG de l’entreprise de prévention des fraudes Sardine, a averti que la fraude générée par l’IA était sur le point de connaître une croissance rapide (Lazar, 2025). Il a déclaré que « la fraude générée par l’IA sera le plus grand secteur de croissance de tous les temps », ajoutant qu' »il est très facile aujourd’hui de créer une fausse vidéo de quelqu’un d’autre ». Lors d’une démonstration, M. Ranjan et son équipe ont montré comment des applications facilement accessibles pouvaient transformer l’apparence d’une personne en temps réel. À l’aide d’une application grand public, ils ont modifié l’image de l’enquêtrice Kristine Lazar pour qu’elle ressemble à la pop star Taylor Swift, créant ainsi un deepfake convaincant en l’espace de quelques minutes. Cette démonstration a mis en évidence à quel point la technologie est devenue accessible et dangereuse. Depuis le premier cas largement rapporté en 2019, la fraude par deepfake est devenue une menace sérieuse pour les particuliers, les entreprises et les gouvernements (Stupp, 2019). Accenture rapporte que le commerce d’outils deepfake sur le dark web a augmenté de 223 % entre 2023 et 2024 (Viio, 2025). Cette hausse spectaculaire reflète la rapidité avec laquelle les fraudeurs adoptent les médias synthétiques pour améliorer leurs stratagèmes. En 2025, la technologie deepfake a joué un rôle central dans un système d’investissement en ligne frauduleux au Ghana qui prétendait faussement être soutenu par John Dramani Mahama et la Ghana Oil Company (Gh Extractives, 2025). Ce système, connu sous le nom de « Projet GOIL », se présentait sous la forme de publicités sur YouTube et promettait des bénéfices mensuels irréalistes de plus de 15 000 GHC pour un investissement minimum de 3 000 GHC. Il s’est appuyé sur la confiance du public dans les institutions gouvernementales et les personnalités publiques reconnues. Au centre de l’escroquerie se trouvait l’implication présumée d’Edward Abambire Bawa, dont le nom était utilisé pour créer un sentiment de crédibilité d’initié. Cependant, une vérification officielle a confirmé que ni le GOIL ni aucune autorité gouvernementale n’avait lancé un tel programme. Ce qui a rendu cette affaire particulièrement alarmante, ce n’est pas seulement la fausse promesse financière, mais aussi la méthode de livraison. Les escrocs auraient utilisé un clonage de voix généré par l’IA pour imiter le président Mahama, créant ainsi l’illusion qu’il approuvait personnellement l’opportunité d’investissement. Pour de nombreux téléspectateurs, en particulier ceux qui sont tombés par hasard sur le contenu des médias sociaux, les vidéos semblaient authentiques et dignes de confiance.
Cet incident met en lumière une tendance plus large et profondément troublante : l’utilisation de la technologie deepfake pour manipuler la perception du public et exploiter les populations vulnérables. Les plateformes telles que TikTok, YouTube et Facebook sont devenues un terrain fertile pour ce type de contenu en raison de leur large portée et de leur visibilité régie par des algorithmes. Bien que ces plateformes aient mis en place des politiques de lutte contre la désinformation, la vitesse et le volume de production des deepfakes dépassent souvent les efforts de modération. Pour les personnes âgées qui naviguent depuis peu dans les espaces numériques, il peut être particulièrement difficile de faire la distinction entre un contenu réel et un contenu manipulé. Beaucoup d’entre eux n’ont peut-être pas encore les compétences numériques nécessaires pour évaluer de manière critique ce qu’ils voient et entendent en ligne. L’un des signes avant-coureurs les plus courants réside dans la synchronisation entre la parole et les mouvements du visage. Dans de nombreuses vidéos de deepfakes, le mouvement de la bouche peut sembler légèrement désynchronisé par rapport à l’audio, en particulier lors d’un discours rapide ou d’expressions faciales complexes. Il peut également y avoir des clignements d’yeux non naturels, des contours flous autour du visage ou des incohérences dans l’éclairage et les ombres. Si l’on regarde de près, les distorsions des traits du visage ou le manque de détails fins, en particulier autour des yeux et des dents, peuvent devenir visibles. Les deepfakes audio peuvent contenir des tonalités robotiques, des pauses inhabituelles ou une accentuation non naturelle de certains mots.
Au-delà des indices visuels et auditifs, le contexte est tout aussi important. Si une vidéo contient des affirmations extraordinaires, telles que des retours sur investissement élevés et garantis, elle doit immédiatement éveiller les soupçons. Les institutions financières et les agences gouvernementales légitimes n’opèrent pas par le biais d’annonces informelles sur les médias sociaux et ne promettent pas de profits élevés et fixes avec peu de risques. Il est essentiel de vérifier ces affirmations auprès de sources officielles. La visite de sites web vérifiés ou la vérification de déclarations émanant d’organes de presse crédibles peuvent rapidement révéler si l’information est légitime. Les implications sociales des « deepfakes » vont bien au-delà de la fraude financière. Ils menacent d’éroder la confiance dans les personnalités publiques, les institutions, voire la réalité elle-même. Lorsque les gens ne peuvent plus faire la distinction entre ce qui est réel et ce qui est fabriqué, la société devient vulnérable à la désinformation, à la manipulation politique et à l’agitation sociale. Pour des pays comme le Ghana, où l’adoption du numérique augmente rapidement, cela représente un défi unique. L’inclusion des populations plus âgées dans les espaces numériques est une évolution positive, mais elle doit s’accompagner d’une éducation ciblée à la sécurité numérique et à la maîtrise des médias. La résolution de ce problème nécessite une approche à plusieurs niveaux. Les gouvernements et les institutions doivent investir dans des campagnes de sensibilisation du public qui informent les citoyens sur les risques des « deepfakes » et sur la manière de les identifier. Les plateformes de médias sociaux doivent renforcer leurs systèmes de détection et de modération tout en permettant aux utilisateurs de signaler plus facilement les contenus suspects. Au niveau de la communauté, les personnes plus jeunes et plus à l’aise avec la technologie peuvent jouer un rôle important en guidant les membres plus âgés de leur famille sur la manière de naviguer en toute sécurité dans les informations en ligne. Des habitudes simples telles que la vérification des sources, le scepticisme à l’égard des affirmations sensationnelles et l’absence de décisions financières impulsives peuvent grandement contribuer à prévenir l’exploitation.
Référence
Alanazi, S. et Asif, S. (2024). Exploration de la technologie deepfake : Creation, consequences and countermeasures. Human-Intelligent Systems Integration, 6(1), 49-60. https://doi.org/10.1007/s42454-024-00054-8
Alanazi, S., Asif, S., Caird-daley, A. et Moulitsas, I. (2025). Unmasking deepfakes : Un examen multidisciplinaire des impacts sociaux et des réponses réglementaires. Human-Intelligent Systems Integration, 7(1), 131-153. https://doi.org/10.1007/s42454-025-00060-4
Brandao, P. R. (2025). L’impact de l’intelligence artificielle sur la société moderne. AI, 6(8), 190. https://doi.org/10.3390/ai6080190
Gh Extractives, (2025). Fake ‘GOIL investment project’ circulates online- Mahama’s voice cloned in scam video. ghextractives.com. https://ghextractives.com/fake-goil-investment-project-circulates-online-mahamas-voice-cloned-in-scam-video/
Lazar, K. (2025). La démonstration de Deepfake montre la sophistication des outils d’édition de l’IA … www.cbsnews.com. 29 avril 2026. https://www.cbsnews.com/news/deep-fakes-ai-tools-scammers-identity-theft-cybersecurity/
Rashid, A. B. et Kausik, M. A. K. (2024). L’IA révolutionne les industries du monde entier : Un aperçu complet de ses diverses applications. Hybrid Advances, 7, 100277. https://doi.org/10.1016/j.hybadv.2024.100277
Stupp, C. (2019). Fraudsters Used AI to Mimic CEO’s Voice in Unusual Cybercrime Case Les escroqueries utilisant l’intelligence artificielle sont un nouveau défi pour les entreprises. www.wsj.com. 29 avril 2026. https://www.wsj.com/articles/fraudsters-use-ai-to-mimic-ceos-voice-in-unusual-cybercrime-case-11567157402
Viio, K. (2025). Deepfake fraud : Comment repérer et prévenir les escroqueries alimentées par l’IA. cyberchecksecurity.com. 29 avril 2026. https://cyberchecksecurity.com/insights




























