Clonage vocal par IA : 25 comédiens français obtiennent gain de cause contre des plateformes américaines
Vingt-cinq comédiens français, dont les voix de Julia Roberts et Harrison Ford en version française, ont obtenu le retrait de leurs clones vocaux générés par IA sans autorisation. Une victoire juridique contre les dérives des plateformes comme Fish Audio et VoiceDub.

Un précédent juridique historique pour les droits des comédiens face à l'IA
Pour la première fois en France, un collectif de 25 comédiens de doublage a obtenu gain de cause contre deux plateformes américaines spécialisées dans le clonage vocal par intelligence artificielle. Fish Audio et VoiceDub, deux acteurs majeurs du secteur, ont été contraints de retirer 47 modèles d'IA reproduisant illégalement leurs voix. Cette décision marque un tournant dans la reconnaissance des droits des artistes face aux technologies de deepfake vocal, souvent exploitées sans consentement ni compensation.
L'affaire a été portée par l'avocat Jonathan Elkaim, qui souligne l'urgence d'encadrer juridiquement ces pratiques. Les comédiens, dont les voix françaises de stars hollywoodiennes comme Julia Roberts ou Harrison Ford, ont adressé des mises en demeure début mars 2026. Initialement au nombre de huit, le groupe s'est élargi à dix-sept autres professionnels, révélant l'ampleur du phénomène.
Des plateformes américaines au cœur de la polémique technologique
Fish Audio et VoiceDub, basées aux États-Unis, proposaient des services de clonage vocal par IA accessibles via abonnement. Les utilisateurs pouvaient générer des répliques vocales de personnalités publiques ou de comédiens, moyennant un paiement. Parmi les voix disponibles figuraient celles de Kylian Mbappé, Emmanuel Macron, ou encore des doubleurs français anonymes. Ces plateformes exploitaient des modèles de *text-to-speech* (TTS) avancés, capables de reproduire avec une précision troublante les intonations et le timbre vocal des cibles.
Les technologies sous-jacentes reposent sur des architectures de *neural voice cloning*, utilisant des réseaux de neurones profonds (comme les *Variational Autoencoders* ou les *Diffusion Models*). Ces systèmes s'entraînent sur des échantillons vocaux publics ou piratés, puis génèrent des clones réalistes en quelques secondes. La facilité d'accès à ces outils, combinée à l'absence de régulation stricte aux États-Unis, a favorisé leur prolifération malgré les risques juridiques et éthiques.
Les limites juridiques du droit d'auteur face aux deepfakes vocaux
En France, le droit d'auteur protège les œuvres de l'esprit, mais son application aux clones vocaux par IA reste floue. Les comédiens ont invoqué l'article L. 122-3 du Code de la propriété intellectuelle, qui reconnaît le droit exclusif d'exploitation des enregistrements sonores. Cependant, les plateformes américaines ont exploité une faille : leurs services ne reproduisaient pas des œuvres protégées (comme des films), mais des voix individuelles, non systématiquement couvertes par les droits voisins.
Cette victoire juridique pourrait inciter le législateur français à renforcer le cadre légal, notamment via la transposition de la directive européenne sur le droit d'auteur (2019/790), qui étend la protection aux performances vocales. Patrick Kuban, comédien et référent IA au sein de l'association *Les Voix qui comptent*, estime que « toutes les dérives sont possibles avec ces systèmes ». Il plaide pour une reconnaissance explicite du droit à l'image vocale, similaire au droit à l'image faciale.
Les enjeux techniques des modèles de clonage vocal
Les plateformes incriminées utilisaient des modèles de *voice conversion* et de *speech synthesis* basés sur des architectures comme *VITS* (Variational Inference with adversarial learning for end-to-end Text-to-Speech) ou *YourTTS*. Ces systèmes, entraînés sur des corpus de plusieurs heures de parole, atteignent des scores de similarité vocale supérieurs à 90 % avec les originaux, selon des benchmarks internes. Leur précision dépend de la qualité des données d'entraînement : plus les échantillons sont variés (ton, émotion, bruit de fond), plus le clone est réaliste.
Cependant, ces technologies présentent des limites majeures. Les modèles peinent à reproduire fidèlement les émotions complexes ou les accents régionaux. De plus, leur sensibilité aux attaques adversariales (comme l'ajout de bruit ou de distorsions) peut révéler leur nature artificielle. Les plateformes comme Fish Audio contournaient partiellement ces limites en limitant l'accès aux fonctionnalités avancées aux utilisateurs premium.
Les risques éthiques et sociétaux du clonage vocal non régulé
Au-delà des questions juridiques, cette affaire soulève des enjeux éthiques majeurs. Le clonage vocal sans consentement permet des usages malveillants, comme la création de *deepfakes* pour usurper l'identité de personnalités, diffuser de fausses informations, ou harceler des individus. Les comédiens français visés par l'affaire ont été exposés à des risques de détournement de leur image, notamment dans des contextes publicitaires ou politiques.
Les plateformes incriminées justifiaient leurs pratiques par la « liberté créative », mais cette argumentation est de plus en plus contestée. En 2025, l'UNESCO a publié un rapport alertant sur les dangers des deepfakes vocaux, recommandant aux États de légiférer pour protéger les individus contre l'exploitation non consentie de leur voix. En France, la CNIL a également pointé du doigt l'absence de transparence des algorithmes de clonage, qui rendent difficile l'identification des clones frauduleux.
Vers une régulation internationale des technologies vocales ?
Cette décision française pourrait servir de catalyseur pour une régulation plus stricte des technologies de clonage vocal. Aux États-Unis, où résident les plateformes incriminées, le *No Artificial Intelligence Voice Cloning Act* (projet de loi en discussion) vise à interdire le clonage vocal sans consentement explicite. En Europe, le *AI Act* (règlement sur l'IA) pourrait inclure des obligations de traçabilité pour les systèmes de synthèse vocale, similaires à celles appliquées aux deepfakes visuels.
Les comédiens français ont obtenu le retrait de leurs clones, mais les dommages collatéraux persistent. Les plateformes comme Fish Audio et VoiceDub pourraient migrer vers des juridictions plus permissives (comme les Îles Caïmans ou Singapour) pour contourner les régulations. Cette affaire illustre la nécessité d'une coopération internationale pour encadrer les technologies disruptives, avant qu'elles ne deviennent incontrôlables.
Les implications pour les acteurs du doublage et de la création vocale
Pour les comédiens de doublage, cette victoire est un soulagement, mais elle ne résout pas tous les problèmes. Les plateformes de clonage vocal représentent une menace existentielle pour leur métier, en offrant des alternatives low-cost aux studios de production. Les syndicats du secteur, comme la *Chambre syndicale des comédiens de doublage*, appellent à une revalorisation des tarifs et à la création d'un fonds de compensation pour les victimes de clonage non autorisé.
Les studios de production, quant à eux, doivent désormais intégrer des clauses de protection dans leurs contrats avec les comédiens, stipulant explicitement l'interdiction de clonage vocal sans autorisation. Certains acteurs du secteur explorent des solutions technologiques pour détecter les clones, comme des watermarks audio ou des algorithmes de *fingerprinting* vocal, similaires à ceux utilisés en musique pour traquer les plagiaires.
Conclusion : une victoire juridique, mais un combat loin d'être terminé
Cette affaire rappelle que le progrès technologique ne rime pas toujours avec éthique ou légalité. Les clones vocaux par IA, aussi impressionnants soient-ils, révèlent les failles d'un système juridique encore en retard sur les innovations. Si les comédiens français ont marqué un point, la bataille contre les dérives de l'IA ne fait que commencer. Et comme souvent, ce sont les utilisateurs – ici, les plateformes et les algorithmes – qui dictent les règles, tandis que les artistes n'ont d'autre choix que de courir derrière pour tenter de rattraper le train en marche. Une course où, cette fois, ils ont enfin réussi à freiner le train… avant qu'il ne déraille complètement.