> Sécurité > Alerte sur les escroqueries reposant sur les deepfakes

Alerte sur les escroqueries reposant sur les deepfakes

Sécurité - Par IT Pro Magazine - Publié le 23 octobre 2025
email

En 2025, ces arnaques explosent dans le monde et la France n’est pas épargnée. Les deepfakes deviennent un outil économique de fraude de masse.

Alerte sur les escroqueries reposant sur les deepfakes

Les escroqueries reposant sur les deepfakes (images, voix, vidéos générées par IA) augmentent selon l’étude Surfshark. Les pertes financières dépassent désormais 1,56 milliard de dollars, soit près de 1,34 milliard d’euros. En 2025, plus d’un milliard de dollars se sont volatilisés à cause de ces fraudes.

Deepfakes, des escroqueries simples et rentables

Ces escroqueries ne font que progresser. En 2019-2023, on note 130 millions $ de pertes cumulées. En 2024 : 400 millions $ et en 2025, déjà 1 milliard $. En six ans, les pertes ont donc été multipliées par 12.

Aujourd’hui, grâce à des outils d’IA grand public (Sora ou Veo), une vidéo deepfake peut être générée pour quelques euros. Les escroqueries sont plus simples, plus rapides et plus rentables.

Les deepfakes IA facilitent la fraude  etude Surfshark

Des scénarios émotionnels

De nouveaux scénarios émotionnels prennent place : images générées de chiens ou chats perdu , envoyées aux propriétaires avec une demande de 50 € de frais de restitution,  vidéos truquées d’employés ou de dirigeants demandant un virement urgent, entretiens d’embauche falsifiés. « Le coût de la tromperie est désormais proche de zéro », alerte Maud Fraison Lepetit, Responsable France chez Surfshark. « Ce n’est plus une fraude isolée, c’est une industrialisation de la manipulation. »

Comment renforcer son scepticisme numérique ?

Voici quelques recommandations à mettre en place pour se prémunir

  • Vérifier systématiquement !

toute demande d’argent ou d’information par un canal connu (appel direct, confirmation interne)

  • Prendre son temps

La précipitation est l’arme des escrocs

  • Former les équipes sensibles : finance, RH, communication

Pour reconnaître les signaux d’un deepfake (voix trop “parfaite”, micro-décalage des lèvres, incohérences visuelles)

  • Renforcer les procédures multi-niveaux 

avant toute transaction ou embauche.

Source : Etude Surfshark – Surfshark Research – “AI Deepfake Losses”

Pour compléter votre information sur les fraudes et les deepfakes avec iTPro.fr :

Téléchargez cette ressource

Construire une infrastructure cloud optimisée pour l’IA avec Microsoft Azure

Construire une infrastructure cloud optimisée pour l’IA avec Microsoft Azure

Les managers IT ont besoin d’une stratégie claire et de solutions concrètes pour préparer leur infrastructure cloud à l'adoption de l'IA, tout en optimisant les coûts, renforçant la sécurité et développant les compétences internes. Découvrez tous les conseils dans ce guide Insight.

Sécurité - Par IT Pro Magazine - Publié le 23 octobre 2025