Une voix familière au téléphone, un visage connu en visioconférence… et pourtant, rien d’humain derrière. Avec les deepfakes, les cyberattaques ne visent plus seulement les pare-feu mais manipulent réflexes, émotions et automatismes pour forcer l’accès aux systèmes les mieux protégés.
Les deepfakes, ces technologies de génération audio et vidéo synthétiques, ont atteint un seuil critique. ils sont désormais des outils pleinement intégrés dans les tactiques de cyberattaques. Ce changement représente plus qu’une évolution technologique ; il marque une transformation où la perception humaine elle-même est devenue une surface d’attaque. Reconnaître une voix ou un visage familier n’est plus une garantie d’authenticité.
Ainsi, les entreprises sont confrontées à une menace qui repose moins sur des compétences techniques brutes que sur une manipulation subtile du comportement humain. Des voix clonées et des vidéos manipulées sont désormais exploitées pour des campagnes de fraudes, afin de simuler des communications réelles, trompant même les collaborateurs les plus prudents. 24 millions d’euros, c’est le montant qu’un employé d’une multinationale de Hong Kong a transféré après été dupé par un deepfake en février 2024. L’arnaque a réussi parce que tout semblait authentique : l’accent, le rythme, le ton… La disponibilité généralisée de ces outils, grâce à leur faible coût et à leur accessibilité, accélère l’industrialisation de ce type d’attaques.


