Customize Consent Preferences

We use cookies to help you navigate efficiently and perform certain functions. You will find detailed information about all cookies under each consent category below.

The cookies that are categorized as "Necessary" are stored on your browser as they are essential for enabling the basic functionalities of the site. ... 

Always Active

Necessary cookies are required to enable the basic features of this site, such as providing secure log-in or adjusting your consent preferences. These cookies do not store any personally identifiable data.

No cookies to display.

Functional cookies help perform certain functionalities like sharing the content of the website on social media platforms, collecting feedback, and other third-party features.

No cookies to display.

Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics such as the number of visitors, bounce rate, traffic source, etc.

No cookies to display.

Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.

No cookies to display.

Advertisement cookies are used to provide visitors with customized advertisements based on the pages you visited previously and to analyze the effectiveness of the ad campaigns.

No cookies to display.

23 juin 2025

Alors que les outils d’intelligence artificielle sont de plus en performants, les deep-fakes suscitent des défis juridiques majeurs. Et le fossé se creuse entre un encadrement légal insuffisant et des arnaques de plus en plus convaincantes.

Boîte noire
Pour traiter ce sujet, j’ai d’abord demandé à Chat GPT de me fournir les articles de loi concernant les deep fakes dans le Code pénal français et la Réglementation européenne (IA Act). Comme ils n’en existent pas qui y font précisément référence, j’ai précisé mon prompt sur “les montages vidéos usurpant l’identité d’une personne réelle”. Il m’a fallu vérifier les sources, car les articles étaient parfois mal numérotés.
J’ai également utilisé le logiciel Good Tape pour transcrire une interview que j’ai passée avec Ivan, un juriste spécialisé dans les nouvelles technologies. J’ai ensuite utilisé le contenu de la transcription dans l’écriture de mon script.
Au départ, je voulais essayer de me cloner, dans une partie de la vidéo, pour tester le réalisme des deep fakes. J’ai utilisé le logiciel HeyGen : je lui ai fourni une vidéo test de 2 min pour créer mon avatar, ainsi qu’un script écrit. Mais l’expérience n’a pas été concluante. L’idée était de simuler une arnaque vidéo où je demanderais de l’argent à mes proches. Mais la voix et la posture n’étaient pas naturelles. L’échec est dû au décalage entre le ton monocorde enregistré pour l’avatar et l’état d’urgence qu’est censé transmettre un message d’arnaque.
Enfin, l’illustration en couverture a été réalisée avec MidJourney.

Related Post