23 juin 2025

Temps de lecture : 3 min

Deepfakes et identités synthétiques : l’influence toxique de l’IA sur la confiance numérique

Alors que les fraudes par deepfakes ont explosé de 700 % en France en un an, une nouvelle génération de cyberattaques bouscule les fondements de la sécurité numérique. Portée par l’intelligence artificielle générative, cette mutation technologique impose des réponses... juridiques ou privées.

La fraude à l’identité connaît une métamorphose profonde. Selon le Identity Fraud Report 2025 publié ce jeudi 18 juin par Sumsub, les tentatives d’usurpation fondées sur des deepfakes ont augmenté de 700 % en France entre le premier trimestre 2024 et celui de 2025. Les faux documents d’identité générés par intelligence artificielle, dits « synthétiques », enregistrent également une progression notable de 281 % sur la même période. Ce phénomène ne se limite pas à l’Hexagone…

En Allemagne, la hausse atteint +1100 %, tandis qu’au Canada, la fraude par deepfake explose de 3400 % en deux ans. L’ampleur mondiale de cette mutation dessine les contours d’un nouveau territoire de la cybercriminalité, dopé par la disponibilité grandissante des outils d’IA générative. On ne parle plus ici de documents grossièrement falsifiés, mais d’identités entrièrement fabriquées, avec justificatifs de domicile, photos de profil et CV cohérents. Des identités capables de tromper les systèmes de reconnaissance faciale, d’impressionner les algorithmes de vérification, voire de duper des interlocuteurs humains.

Les secteurs les plus exposés sont symptomatiques des zones grises du numérique contemporain : le e-commerce, l’edtech, les cryptoactifs. Partout où la transaction est rapide, l’identification automatisée, la vulnérabilité augmente. À la frontière entre usage et détournement, ces fraudes incarnent une nouvelle forme d’influence : celle qui déguise, trompe et infiltre les systèmes.

L’IA générative, levier d’usurpation

Cette explosion des contenus synthétiques dans la fraude n’est pas un effet secondaire de l’innovation technologique, mais l’une de ses conséquences les plus directes. Là où les IA génératives – textes, images, voix, visages – étaient saluées pour leur potentiel créatif, elles deviennent aussi des armes de déstabilisation de la confiance. La falsification, hier artisanale, est aujourd’hui industrielle.

Les deepfakes ne se contentent plus d’imiter des célébrités dans des vidéos virales : ils imitent votre visage pour ouvrir un compte bancaire, réclamer un crédit ou accéder à des données confidentielles. Les documents synthétiques ne sont plus des fichiers mal retouchés sur Photoshop, mais des pièces créées de toute pièce par des IA combinant reconnaissance de schémas, hallucinations visuelles et production textuelle.

Pour Pavel Goldman-Kalaydin, responsable IA chez Sumsub, le diagnostic est clair : « Les menaces en ligne étant de plus en plus sophistiquées, il est important que les organisations publiques et privées revoient leurs protocoles de vérification de l’identité. Nombre d’entre eux ont été conçus pour des risques désormais obsolètes ». C’est donc la structure même des processus de validation qui vacille. Car que reste-t-il de fiable, quand l’image elle-même peut mentir ?

Une course aux contre-mesures

Les entreprises, les plateformes technologiques et les pouvoirs publics ne restent pas inactifs. Dans l’urgence, des garde-fous sont déployés, même si leur efficacité reste en constante réévaluation. La réponse technique repose sur une biométrie dite “active”. Les startups de vérification intègrent des outils capables de détecter les micro-mouvements, les clignements d’œil, les textures de peau, et autres marqueurs d’une présence humaine réelle. Des tests de “liveness” sont imposés, où l’utilisateur doit réagir à l’image, interagir en temps réel. C’est une vérification par le mouvement, plus difficile à reproduire par IA. Par ailleurs, des approches systémiques voient le jour. La blockchain, avec des projets comme World ID ou KILT Protocol, propose des identités vérifiables, traçables et infalsifiables. Le but : garantir une preuve d’humanité et d’authenticité au cœur des interactions numériques.

Sur le plan réglementaire, l’Europe s’arme. Le Digital Services Act (DSA), en vigueur depuis 2024, impose l’apposition d’un label de transparence sur les contenus générés artificiellement, notamment les deepfakes, avec une mise en œuvre progressive à partir de 2025. Dans plusieurs États américains, les deepfakes malveillants sont également passibles de sanctions. Les grands groupes technologiques ne sont pas en reste. Plusieurs géants du numérique, dont Meta, Microsoft, Adobe ou TikTok, participent à des initiatives comme la Content Authenticity Initiative ou la C2PA, visant à intégrer des balises invisibles ou métadonnées dans les contenus générés par IA pour garantir leur traçabilité et distinguer l’artificiel du véridique.

Vers une culture de la méfiance constructive

Au-delà de la technologie et du droit, c’est une nouvelle pédagogie de l’attention qui s’impose. Car à mesure que les outils se perfectionnent, la vigilance humaine devient une compétence-clé. Apprendre à douter, à vérifier, à repérer les signaux faibles : voilà le nouveau socle d’une littératie numérique nécessaire.

L’influence ne passe plus seulement par les créateurs de contenu ou les figures publiques. Elle se glisse dans les protocoles, les visages, les papiers, les interactions. Elle manipule la forme, travestit le fond, et colonise la confiance elle-même. Dans ce contexte, reconstruire une économie de la véracité suppose d’allier éthique, innovation, et coopération intersectorielle. L’IA n’est pas seulement un moteur de productivité. Elle est désormais un test grandeur nature de notre capacité à croire sans être dupes.

Allez plus loin avec Influencia

les abonnements Influencia

Les médias du groupe INfluencia

Les newsletters du groupe INfluencia