Il a suffi d’un simple appel vidéo pour que Markus, 18 ans, devienne victime d’un deepfake pornographique. Son histoire illustre une menace qui explose en Suisse et dans le monde.
C’est un dimanche tranquille de novembre, l’année dernière. Markus, un élève appenzellois de 18 ans, est détendu. Distrait un instant, il décroche un appel vidéo sur son iPhone sans vraiment regarder. Qu’est-ce qui pourrait mal tourner?
Il reçoit la réponse quelques minutes plus tard: un cauchemar l’attend.
Dès que Markus décroche, il envoie en temps réel des images vidéo en haute résolution à un inconnu aux Philippines. Des images de son intimité: son corps, son visage, son lit et le poster d’un rappeur accroché au mur derrière lui. Sur le moment, Markus ne se rend pas compte du danger. Il tente de parler anglais avec l’homme, mais celui-ci lui raccroche au nez.
Grâce à des programmes d’intelligence artificielle (IA) comme Sora, Grok ou Veo 3, il est désormais possible de créer en quelques secondes une vidéo truquée à partir d’un vrai modèle: on appelle cela un deepfake. Lorsqu’il est bien réalisé, il est difficile de distinguer le vrai du faux.

