13 février 2025

Alors que les outils d’intelligence artificielle sont de plus en performants, les deep-fakes suscitent des défis juridiques majeurs. Et le fossé se creuse entre un encadrement légal insuffisant et des arnaques de plus en plus convaincantes.

Boîte noire
Pour traiter ce sujet, j’ai d’abord demandé à Chat GPT de me fournir les articles de loi concernant les deep fakes dans le Code pénal français et la Réglementation européenne (IA Act). Comme ils n’en existent pas qui y font précisément référence, j’ai précisé mon prompt sur “les montages vidéos usurpant l’identité d’une personne réelle”. Il m’a fallu vérifier les sources, car les articles étaient parfois mal numérotés.
J’ai également utilisé le logiciel Good Tape pour transcrire une interview que j’ai passée avec Ivan, un juriste spécialisé dans les nouvelles technologies. J’ai ensuite utilisé le contenu de la transcription dans l’écriture de mon script.
Au départ, je voulais essayer de me cloner, dans une partie de la vidéo, pour tester le réalisme des deep fakes. J’ai utilisé le logiciel HeyGen : je lui ai fourni une vidéo test de 2 min pour créer mon avatar, ainsi qu’un script écrit. Mais l’expérience n’a pas été concluante. L’idée était de simuler une arnaque vidéo où je demanderais de l’argent à mes proches. Mais la voix et la posture n’étaient pas naturelles. L’échec est dû au décalage entre le ton monocorde enregistré pour l’avatar et l’état d’urgence qu’est censé transmettre un message d’arnaque.
Enfin, l’illustration en couverture a été réalisée avec MidJourney.

Related Post