Le clonage vocal : quels enjeux, quels risques ?

Intelligence artificielle qui parle
Image générée par une IA à partir d’un texte (Lexica.art)

L’intelligence artificielle (IA) est une technologie qui permet aux machines d’apprendre à partir de données et de prendre des décisions en fonction de ces apprentissages. Elle est de plus en plus utilisée dans de nombreux domaines de notre vie quotidienne, tels que la santé, la finance, les transports, les médias, l’énergie et l’agriculture. L’une des applications de l’IA est le clonage vocal, qui utilise des techniques d’apprentissage profond pour analyser et reproduire la voix d’une personne à partir de petits échantillons de son discours. Cette technologie trouve diverses applications, comme la création de vidéos numériques avec des voix de célébrités, l’amélioration de l’expérience d’écoute des livres audio ou encore les doublages vocaux dans l’industrie du divertissement. Cependant, le clonage vocal soulève des préoccupations éthiques et de sécurité, car il peut être utilisé de manière abusive pour la fraude ou la manipulation sans le consentement de la personne concernée.

Le clonage vocal, qu’est-ce que c’est ?

Définition du clonage vocal

Le clonage vocal est une technologie basée sur l’intelligence artificielle qui permet de créer des voix artificielles à partir d’un petit nombre d’échantillons de la voix d’une personne. Cette technologie permet de reproduire la voix d’une personne, y compris les nuances, les intonations et les inflexions de la voix, de manière très réaliste1. Pour cela, le clonage vocal utilise des algorithmes d’apprentissage automatique pour analyser les caractéristiques de la voix d’une personne à partir de quelques échantillons sonores.

Comment s’effectue le clonage vocal ?

Le clonage vocal utilise principalement des logiciels de synthèse vocale pour reproduire la voix d’une personne. Le processus de clonage vocal comprend plusieurs étapes2, telles que l’enregistrement de la voix à cloner à l’aide d’un microphone et d’un logiciel d’enregistrement. Ensuite, le signal vocal est converti en données numériques afin de pouvoir être traité par les logiciels de synthèse vocale. Enfin, un modèle vocal est créé à partir de ces données numériques, permettant ainsi de générer de nouvelles phrases et de cloner la voix de la personne enregistrée.

Les champs d’application du clonage vocal

Le clonage vocal est utilisé dans de nombreuses industries et peut avoir diverses applications. Le clonage vocal est utilisé dans différents domaines tels que :

    • La création de vidéos avec des voix de célébrités. Par exemple, le film « Roadrunner: A Film About Anthony Bourdain » présente le célèbre chef et animateur de télévision globe-trotter avant son décès en 2018. Le réalisateur, Morgan Neville, a révélé au New Yorker3 qu’un extrait de dialogue a été créé en utilisant la technologie de l’intelligence artificielle.
    • La narration de livres audio (Apple offre désormais la fonctionnalité de lecture audio Apple Books, alimentée par une intelligence artificielle) et les doublages de voix dans les films, les séries télévisées et les jeux vidéo (en 2021, la société israélienne Deepdub a utilisé cette technologie pour traduire intégralement le film américain « Every Time I Die » de Robi Michael (2019) en espagnol d’Amérique latine et en portugais brésilien pour Netflix).
    • Il permet également de personnaliser les messages publicitaires, d’améliorer les assistants vocaux et de faciliter la communication pour les personnes atteintes de problèmes de voix ou de déficience visuelle. On peut citer l’application Bixby de Samsung qui permet aux utilisateurs anglophones de répondre aux appels en tapant un message, que Bixby convertit en audio et communique automatiquement au nom de l’utilisateur à l’appelant4.

Ainsi, nous venons de voir que l’IA de clonage vocal présente de nombreux avantages. Cependant, l’utilisation de cette technologie comporte des risques, notamment en ce qui concerne la manipulation de contenus, la création de deepfakes et les problèmes liés à la sécurité et à l’éthique. En effet, la manipulation de photos, de vidéos et de voix était autrefois limitée aux chercheurs dans les laboratoires. Cependant, ces outils sont maintenant plus puissants et moins chers à produire. Avec l’évolution rapide de notre monde numérique, des start-up proposent désormais ces outils au grand public.

Le clonage vocal : outil sûr ?

De plus en plus d’entreprises développent des logiciels basés sur l’intelligence artificielle destinés au grand public. Mais l’utilisation de ces outils n’est pas sans risque. En effet, il y a eu plusieurs cas d’utilisation abusive, ce qui peut causer des problèmes juridiques ou de réputation.

L’émergence des deepfakes

Un deepfake, également appelé hypertrucage, est une technique utilisant l’intelligence artificielle pour manipuler des images, des vidéos ou des sons5. Des personnes peuvent créer des contenus qui semblent authentiques mais qui sont en réalité faux. Par exemple, en superposant le visage d’une célébrité sur celui d’une autre personne dans une vidéo, on peut créer l’illusion que la célébrité est en train de dire ou de faire quelque chose qu’elle n’a jamais dit ou fait. Les deepfakes peuvent être utilisés à des fins de divertissement, mais ils peuvent aussi être utilisés de manière trompeuse ou malveillante, causant des dommages tels que la diffusion de fausses informations ou d’actions illégales. Récemment, la société ElevenLabs a développé un outil de clonage vocal qui a été utilisé pour créer des deepfakes.

L’utilisation abusive de l’IA de clonage vocal : l’exemple d’ElevenLabs

ElevenLabs est une startup britannique fondée en 2022 par Piotr Dabkowski et Mati Staniszewski, spécialisée dans l’intelligence artificielle. Leur système d’IA, appelé Prime Voice, permet de cloner des voix humaines et de les faire dire ce que l’on souhaite. Ils commercialisent leur logiciel en mettant en avant sa capacité à produire rapidement des doublages audio de haute qualité pour les médias tels que le cinéma, la télévision et YouTube, avec peu d’édition nécessaire.

Cependant, la société est devenue la cible de trolls sur Internet, notamment sur le forum 4chan, qui ont utilisé les clones vocaux pour imiter des personnalités connues et proférer des discours haineux, discriminatoires et racistes6. Ces actions incluent l’utilisation de clones vocaux pour diffuser des discours de haine de personnalités telles que Joe Rogan, Ben Shapiro, Quentin Tarantino et George Lucas, ainsi que la manipulation de la voix d’Emma Watson pour lire des extraits de « Mein Kampf ».

Les autres exemples d’utilisation abusive du clonage vocal

Le clonage vocal suscite de sérieuses préoccupations éthiques et de sécurité. En effet, la capacité de reproduire la voix de quelqu’un d’autre sans son consentement peut être utilisée à des fins malveillantes telles que la fraude, la manipulation et le chantage.

Une utilisation malveillante du clonage vocal est le « Voice Scam » ou l’arnaque vocale, où les escrocs se font passer pour des proches ou des autorités judiciaires pour tromper les victimes et leur extorquer de l’argent. Ce dernier est de plus en plus courant aux États-Unis, avec un nombre croissant de victimes, comme le rapporte le média américain The Washington Post7. Il y a également des cas de clonage vocal utilisé pour tromper les gens dans des transactions financières ou pour accéder à des informations confidentielles. L’on peut citer en exemple le cas d’une entreprise énergétique britannique victime d’une escroquerie8. Le directeur général avait transféré 220 000 euros à un fournisseur hongrois après avoir reçu un appel supposé être de son PDG.

Le clonage vocal peut être utilisé pour harceler, faire chanter ou manipuler des personnes en utilisant une voix qui semble appartenir à quelqu’un de connu, comme un supérieur hiérarchique ou une personnalité publique. Des cas de harcèlement en ligne et de divulgation de données personnelles de doubleurs d’IA critiques ont été signalés9, mettant en évidence les risques importants liés au clonage vocal et la nécessité de protéger la confidentialité et la sécurité des individus.

De plus, le clonage vocal peut être utilisé pour créer des discours et des messages audio semblant provenir de politiciens ou de personnalités publiques, dans le but de manipuler l’opinion publique. Bien qu’il n’y ait pas eu de cas confirmés de manipulation électorale à grande échelle utilisant le clonage vocal jusqu’à présent, certains experts avertissent que cela pourrait être une possibilité à l’avenir. Un exemple précurseur est la vidéo deepfake de Nancy Pelosi10, présidente de la Chambre des représentants américaine, largement partagée sur les réseaux sociaux, qui a été manipulée pour sembler qu’elle était ivre ou incohérente.

Ces exemples soulignent les risques potentiels associés au clonage vocal en matière de harcèlement, de manipulation et de désinformation, ce qui soulève la nécessité de prendre des mesures pour protéger l’intégrité des individus et des processus démocratiques, notamment dans le contexte des campagnes électorales.

Hacker man terrorist with virus computer attack to server network system online in data internet security hacking ai concept
Crédit photo : Jernej Furman – https://flic.kr/p/2n8GTEg

Quel cadre juridique pour le clonage vocal ?

Le clonage vocal soulève des enjeux juridiques et éthiques complexes, et il est important de mettre en place un cadre juridique approprié pour encadrer son utilisation11. Les gouvernements, les entreprises et la société dans son ensemble doivent travailler ensemble pour s’assurer que cette technologie est utilisée de manière éthique et responsable, tout en respectant les droits et les intérêts des individus et des entreprises.

Les enjeux juridiques et éthiques du clonage vocal

L’intelligence artificielle présente encore un flou juridique selon Gérard Haas12, un avocat spécialisé en droit du numérique et de la propriété intellectuelle à Paris. Définir des limites juridiques sur un sujet largement méconnu du grand public et même des juristes eux-mêmes est difficile. Malgré cela, il est crucial que les juristes comprennent l’IA, car elle joue déjà un rôle dans le domaine juridique et devrait continuer à s’intégrer davantage à l’avenir. Il est donc essentiel que le droit aborde le sujet de l’IA pour responsabiliser les parties prenantes et éviter les abus, notamment en matière de discrimination.

L’un des problèmes majeurs liés à l’IA concerne la responsabilité en cas de dommage causé par une machine autonome. Lorsque des systèmes d’IA prennent des décisions ou agissent de manière autonome, il peut être difficile de déterminer qui est responsable en cas de préjudice. La question de la responsabilité devient particulièrement complexe lorsque les machines sont capables d’apprendre et d’évoluer de manière autonome, rendant difficile l’identification des causes exactes des dommages. Une proposition a été faite13 pour créer une « personne robot » responsable de ses actes, mais certains experts14 estiment que cela risquerait de déresponsabiliser les fabricants d’IA, étant donné que le droit actuel est suffisamment complet pour réglementer les interactions entre l’homme et la machine.

L’utilisation de données personnelles dans les systèmes d’IA soulève des questions de protection de la vie privée et de la confidentialité. Les préoccupations concernent la collecte, l’utilisation et le stockage des données vocales de haute qualité nécessaires pour former les modèles d’IA, notamment dans le contexte du clonage vocal. Les propriétaires de données doivent être informés de l’utilisation de leurs données et avoir le droit de demander leur suppression ou leur modification. La CNIL a mis en place un service d’IA16 pour renforcer son expertise et sa compréhension des risques liés à la vie privée, tout en se préparant à l’application du règlement européen sur l’IA. Elle prévoit également de publier des recommandations sur le sujet des bases de données d’apprentissage.

Le clonage vocal soulève des préoccupations en raison de son utilisation frauduleuse potentielle, telle que la fraude financière, l’usurpation d’identité, le harcèlement et la manipulation. La facilité avec laquelle des discours falsifiés peuvent être créés et diffusés en ligne rend important la mise en place de mesures de détection et de prévention de ces abus, tout en permettant une utilisation légitime de la technologie de clonage vocal.

Le droit de la propriété intellectuelle est également lié au clonage vocal, notamment en ce qui concerne les droits d’auteur sur les enregistrements audio et la création de voix de synthèse à partir de voix existantes. La reproduction de la voix d’une personne sans autorisation peut constituer une violation du droit d’auteur. Les créateurs de voix de synthèse doivent s’assurer d’obtenir les droits nécessaires sur les enregistrements audio utilisés. De plus, le clonage vocal peut être utilisé pour créer des chansons ou des œuvres audiovisuelles sans autorisation ni rémunération des artistes ou propriétaires de droits d’auteur. Les utilisateurs de la technologie de clonage vocal doivent être conscients des lois en matière de propriété intellectuelle et de droits d’auteur et assumer les conséquences de toute utilisation illégale.

Enfin, la liberté d’expression est un droit fondamental qui peut être affecté par le clonage vocal. Bien que cette technologie puisse faciliter la communication pour les personnes ayant des difficultés vocales, elle peut également être utilisée pour créer des discours falsifiés ou des fausses déclarations qui imitent la voix d’une personne, créant ainsi de la confusion. La crédibilité et l’authenticité peuvent être remises en question, en particulier en politique ou en journalisme. Les gouvernements peuvent être amenés à réglementer l’utilisation du clonage vocal pour prévenir les utilisations illégales et protéger la liberté d’expression. Les utilisateurs de cette technologie doivent être conscients des implications éthiques et juridiques du clonage vocal et éviter de violer les droits d’autrui.

La mise en place progressive d’une réglementation pour régir le clonage vocal

Il n’existe pas encore de réglementation spécifique pour régir l’utilisation du clonage vocal dans la plupart des pays. Cependant, certaines juridictions commencent à prendre des mesures pour protéger les consommateurs contre les abus potentiels du clonage vocal.

Par exemple, aux États-Unis, la Californie a adopté deux lois pour lutter contre les vidéos altérées qui pourraient influencer les élections et pour donner aux citoyens californiens le droit d’intenter une action en justice contre l’utilisation non autorisée de leur image dans des contenus pornographiques. Les deux lois, nommées AB 730 et AB 602, ont été signées par le gouverneur de la Californie, Gavin Newsom. Toujours aux États-Unis, la Federal Trade Commission (FTC) a publié un avertissement en 2020 pour alerter les consommateurs sur les risques de fraude liés au clonage vocal et pour donner des conseils sur la façon de se protéger contre ces menaces16. Il y a également eu la création de la National Deepfake and Digital Provenance Task Force, qui vise à réglementer l’utilisation de la technologie de clonage vocal et d’autres formes de désinformation en ligne.

Dans le même esprit, a été créé la loi Online Safety Bill au Royaume-Uni.
D’autres pays, tels que la Chine, ont également commencé à mettre en place des réglementations pour se protéger contre les abus des deepfakes17.

Le 8 décembre 2018, le Conseil de l’Europe a adopté une Charte éthique pour l’utilisation de l’intelligence artificielle dans les systèmes judiciaires18. La Charte souligne l’importance de respecter les droits fondamentaux, de garantir la qualité et la sécurité des données personnelles, de favoriser la transparence, la non-discrimination et la neutralité, et de préserver l’intégrité intellectuelle. Elle met également l’accent sur la nécessité pour les utilisateurs de garder le contrôle et d’être informés pour prendre des décisions éclairées.

En outre, la Commission Européenne a présenté le 21 avril 2021 une proposition de règlement appelée l’Artificial Intelligence Act pour lutter contre les abus liés à l’utilisation de l’IA générative. Cette proposition, basée sur l’article 114 du Traité de Fonctionnement de l’Union Européenne, prévoit que les décisions visant à harmoniser les législations des États membres doivent être prises dans le cadre de la procédure législative ordinaire. L’objectif de cette proposition est d’assurer la transparence de l’utilisation de l’IA afin de rassurer les citoyens.

En somme, bien que les réglementations varient selon les pays, il est probable que la réglementation de l’utilisation des deepfakes continuera d’évoluer à mesure que la technologie se développera et que les risques de manipulation et de tromperie deviendront plus évidents.

Conclusion

Le clonage vocal est une technologie fascinante en constante évolution avec de nombreuses applications potentielles. Bien qu’il offre des avantages dans des domaines tels que la médecine, l’éducation et la communication, il présente également des inconvénients et des risques potentiels de fraude et de manipulation. Les entreprises envisagent des mesures pour limiter les effets du clonage vocal, telles que des mesures de vérification renforcées des comptes. C’est ce qu’a d’ailleurs proposé ElevenLabs dans l’un de ses tweets. Différents organismes et initiatives travaillent sur la détection des deepfakes, notamment Spot the Deepfakes, WeVerify, InVID et le Deepfake Detection Challenge. En France, le gouvernement a créé l’agence VIGINUM pour lutter contre la propagation de contenus mensongers. Des méthodes de signature numérique anti-deepfake sont en développement, mais l’esprit critique reste essentiel pour évaluer la véracité des messages dans le contexte, les intentions et les conséquences potentielles.


Notes

1 ElevenLabs, Hello from Eleven Labs. https://beta.elevenlabs.io/blog/voice-conversion/ 

2 Ibid.

3 The New Yorker, A Haunting New Documentary About Anthony Bourdain. https://www.newyorker.com/culture/annals-of-gastronomy/the-haunting-afterlife-of-anthony-bourdain 

4 Samsung Announces Enhancement of Bixby. https://news.samsung.com/global/samsung-announces-enhancement-of-bixby 

5 Office québécois de la langue française, Grand Dictionnaire terminologique, « hypertrucage ». https://vitrinelinguistique.oqlf.gouv.qc.ca/fiche-gdt/fiche/26552557/hypertrucage 

6 Vice Media, AI-Generated Voice Firm Clamps Down After 4chan Makes Celebrity Voices for Abuse. https://www.vice.com/en/article/dy7mww/ai-voice-firm-4chan-celebrity-voices-emma-watson-joe-rogan-elevenlabs

7 The Washington Post, They thought loved ones were calling for help. It was an AI scam. https://www.washingtonpost.com/technology/2023/03/05/ai-voice-scam/ 

8 The Wall Street Journal, Fraudsters Used AI to Mimic CEO’s Voice in Unusual Cybercrime Case. https://www.wsj.com/articles/fraudsters-use-ai-to-mimic-ceos-voice-in-unusual-cybercrime-case-11567157402 

9 Vice Media, Video Game Voice Actors Doxed and Harassed in Targeted AI Voice Attack. https://www.vice.com/en/article/93axnd/voice-actors-doxed-with-ai-voices-on-twitter 

10 L’Obs, Une vidéo de Nancy Pelosi laissant supposer qu’elle est ivre a été vue des millions de fois. https://www.nouvelobs.com/monde/20190524.OBS13397/une-video-de-nancy-pelosi-laissant-supposer-qu-elle-est-ivre-a-ete-vue-des-millions-de-fois.html

11 Par exemple, le Ministère de la Culture a proposé un rapport de mission pour le cadrage des assistants vocaux et autres agents conversationnels. Consultable ici.

12 La clinique du droit de Rouen, Les enjeux juridiques et éthiques posés par l’intelligence artificielle. https://www.cliniquedudroitrouen.fr/2022/10/27/les-enjeux-juridiques-et-ethiques-poses-par-lintelligence-artificielle/ 

13 Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique

14 Le Point, Responsabilité des robots : « Appliquons nos règles de droit ! » https://www.lepoint.fr/editos-du-point/laurence-neuer/responsabilite-des-robots-appliquons-nos-regles-de-droit-11-04-2017-2118933_56.php#11

15 CNIL, Création d’un service de l’intelligence artificielle à la CNIL et lancement des travaux sur les bases de données d’apprentissage. https://www.cnil.fr/fr/creation-dun-service-de-lintelligence-artificielle-la-cnil-et-lancement-des-travaux-sur-les-bases-de 

16 FTC, You Don’t Say: An FTC Workshop on Voice Cloning Technologies. https://www.ftc.gov/news-events/events/2020/01/you-dont-say-ftc-workshop-voice-cloning-technologies 

17 Le Figaro, La Chine serre la vis au «deepfake», ces trucages numériques hyperréalistes. https://www.lefigaro.fr/flash-actu/la-chine-serre-la-vis-au-deepfake-ces-trucages-numeriques-hyperrealistes-20230110 

18 Commission Européenne pour l’efficacité de la justice (CEPEJ), Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement. https://rm.coe.int/charte-ethique-fr-pour-publication-4-decembre-2018/16808f699b 


Bibliographie

Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires—Commission européenne pour l’efficacité de la justice (CEPEJ). (s. d.). Consulté 14 juin 2023, à l’adresse https://www.coe.int/fr/web/cepej/cepej-european-ethical-charter-on-the-use-of-artificial-intelligence-ai-in-judicial-systems-and-their-environment

ChatGPT. (2023). Wikipédia. https://fr.wikipedia.org/w/index.php?title=ChatGPT&oldid=205155155

Cox, J. (2023a, janvier 30). AI-Generated Voice Firm Clamps Down After 4chan Makes Celebrity Voices for Abuse. Vice. https://www.vice.com/en/article/dy7mww/ai-voice-firm-4chan-celebrity-voices-emma-watson-joe-rogan-elevenlabs

Cox, J. (2023b, février 13). Video Game Voice Actors Doxed and Harassed in Targeted AI Voice Attack. Vice. https://www.vice.com/en/article/93axnd/voice-actors-doxed-with-ai-voices-on-twitter

Création d’un service de l’intelligence artificielle à la CNIL et lancement des travaux sur les bases de données d’apprentissage | CNIL. (s. d.). Consulté 14 juin 2023, à l’adresse https://www.cnil.fr/fr/creation-dun-service-de-lintelligence-artificielle-la-cnil-et-lancement-des-travaux-sur-les-bases-de

Divulgation de données personnelles. (2023). Wikipédia. https://fr.wikipedia.org/w/index.php?title=Divulgation_de_donn%C3%A9es_personnelles&oldid=203125123

Droit et intelligence artificielle—Propriété intellectuelle | Dalloz Actualité. (s. d.). Consulté 14 juin 2023, à l’adresse https://www.dalloz-actualite.fr/chronique/droit-et-intelligence-artificielle

Facing reality? Law enforcement and the challenge of deepfakes. (s. d.). Europol. Consulté 14 juin 2023, à l’adresse https://www.europol.europa.eu/publications-events/publications/facing-reality-law-enforcement-and-challenge-of-deepfakes

Hypertrucage. (s. d.). Consulté 14 juin 2023, à l’adresse https://vitrinelinguistique.oqlf.gouv.qc.ca/fiche-gdt/fiche/26552557/hypertrucage

Intelligence artificielle. (2023). Wikipédia. https://fr.wikipedia.org/w/index.php?title=Intelligence_artificielle&oldid=205163573

La Chine serre la vis au «deepfake», ces trucages numériques hyperréalistes. (2023, janvier 10). LEFIGARO. https://www.lefigaro.fr/flash-actu/la-chine-serre-la-vis-au-deepfake-ces-trucages-numeriques-hyperrealistes-20230110

Les enjeux juridiques et éthiques posés par l’intelligence artificielle – Clinique du Droit de Rouen. (2022, octobre 27). https://www.cliniquedudroitrouen.fr/2022/10/27/les-enjeux-juridiques-et-ethiques-poses-par-lintelligence-artificielle/

Lorenzo-Trueba, J., Fang, F., Wang, X., Echizen, I., Yamagishi, J., & Kinnunen, T. (2018). Can we steal your vocal identity from the Internet? : Initial investigation of cloning Obama’s voice using GAN, WaveNet and low-quality found data. https://doi.org/10.48550/ARXIV.1803.00860

Neuer, L. (2017, avril 11). Responsabilité des robots : « Appliquons nos règles de droit ! » Le Point. https://www.lepoint.fr/editos-du-point/laurence-neuer/responsabilite-des-robots-appliquons-nos-regles-de-droit-11-04-2017-2118933_56.php

Nevejans, N., & Ganascia, J.-G. (2017). Traité de droit et d’éthique de la robotique civile. LEH édition.

Rapport de mission sur les assistants vocaux et autres agents conversationnels. (s. d.). Consulté 14 juin 2023, à l’adresse https://www.culture.gouv.fr/Nous-connaitre/Organisation-du-ministere/Conseil-superieur-de-la-propriete-litteraire-et-artistique-CSPLA/Travaux-et-publications-du-CSPLA/Missions-du-CSPLA/Rapport-de-mission-sur-les-assistants-vocaux-et-autres-agents-conversationnels

“Roadrunner” Review : The Haunting Afterlife of Anthony Bourdain in a New Documentary | The New Yorker. (s. d.). Consulté 14 juin 2023, à l’adresse https://www.newyorker.com/culture/annals-of-gastronomy/the-haunting-afterlife-of-anthony-bourdain

Russell, S. J., & Norvig, P. (2010). Intelligence artificielle (3e éd). Pearson education.

Samsung Announces Enhancement of Bixby. (s. d.). Consulté 14 juin 2023, à l’adresse https://news.samsung.com/global/samsung-announces-enhancement-of-bixby

Soulez, M. (2018). Questions juridiques au sujet de l’intelligence artificielle. https://www.annales.org/enjeux-numeriques/2018/resumes/mars/15-en-resum-FR-AN-mars-2018.html

Stupp, C. (s. d.). Fraudsters Used AI to Mimic CEO’s Voice in Unusual Cybercrime Case. WSJ. Consulté 14 juin 2023, à l’adresse https://www.wsj.com/articles/fraudsters-use-ai-to-mimic-ceos-voice-in-unusual-cybercrime-case-11567157402

Textes adoptés—Règles de droit civil sur la robotique—Jeudi 16 février 2017. (s. d.). Consulté 14 juin 2023, à l’adresse https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_FR.html

Une vidéo de Nancy Pelosi laissant supposer qu’elle est ivre a été vue des millions de fois. (s. d.). Consulté 14 juin 2023, à l’adresse https://www.nouvelobs.com/monde/20190524.OBS13397/une-video-de-nancy-pelosi-laissant-supposer-qu-elle-est-ivre-a-ete-vue-des-millions-de-fois.html

Verma, P. (2023, mars 10). They thought loved ones were calling for help. It was an AI scam. Washington Post. https://www.washingtonpost.com/technology/2023/03/05/ai-voice-scam/

VIGINUM. (2023). Wikipédia. https://fr.wikipedia.org/w/index.php?title=VIGINUM&oldid=205027247

Voice Conversion. (2022, septembre 6). ElevenLabs Blog. https://beta.elevenlabs.io/blog/voice-conversion/

You Don’t Say : An FTC Workshop on Voice Cloning Technologies. (2019, octobre 22). Federal Trade Commission. https://www.ftc.gov/news-events/events/2020/01/you-dont-say-ftc-workshop-voice-cloning-technologies