Les nouvelles chansons d’artistes célèbres deviennent virales sur les médias sociaux, ce qui n’est normalement pas un problème, sauf lorsque c’est un clone vocal qui chante. Bien qu’il s’agisse de l’un des derniers médias à avoir résisté, la deepfake music est désormais une réalité.


Elle consiste à entraîner un modèle d’intelligence artificielle sur la voix d’un chanteur, et les résultats ne sont pas toujours mauvais. Les résultats ne sont pas toujours mauvais. Il y a beaucoup de créativité réelle dans la création de fausses chansons, mais le problème ne réside pas seulement dans le résultat. Dans de nombreux cas, l’autorisation n’est pas accordée, et la question de savoir qui est payé et si c’est éthique n’est que l’un des problèmes de la deepfake music.

1. Ensembles de données non autorisés

Si vous souhaitez créer une fausse chanson d’un artiste célèbre, vous devez rassembler les fichiers audio de sa voix dans un ensemble de données. Comme pour toute donnée appartenant à quelqu’un, vous devriez probablement obtenir son autorisation pour l’utiliser, mais une fausse chanson peut se retrouver sur une grande plateforme musicale comme YouTube, Spotify ou TikTok, après avoir utilisé un ensemble de données non autorisé.

Lire  ChatGPT vs. Bing Chat : Quel est le meilleur Chatbot d'IA générative ?

C’est ce qui est arrivé aux artistes Drake et The Weeknd lorsqu’un utilisateur appelé Ghostwriter a créé « Heart on My Sleeve ». La chanson à succès contenait les voix synthétisées par l’IA des artistes, ainsi que des paroles sur l’ex-petite amie de The Weeknd.

La chanson a été très appréciée par les fans, et Ghostwriter a été félicité pour l’utilisation créative des fausses voix, mais comme l’a rapporté le Seattle Times, tout le monde n’a pas vu les choses de la même manière. Un porte-parole d’Universal Music Group, le label principal des deux artistes, s’interroge :

« De quel côté de l’histoire les acteurs de l’écosystème musical veulent-ils se situer : du côté des artistes, des fans et de l’expression créative humaine, ou du côté des deep fakes, de la fraude et du refus d’accorder aux artistes la rémunération qui leur est due ? »

Si vous êtes un artiste et que vous ne voulez pas que votre voix soit clonée, la législation sur le droit d’auteur n’est peut-être pas encore en mesure de vous aider. Comme nos lois sur le droit d’auteur ont été rédigées à une époque où ce type de technologie d’intelligence artificielle n’existait pas, il n’est pas surprenant qu’elles tentent encore de rattraper leur retard.

Lire  Comment dissocier votre OneDrive de votre compte Microsoft sous Windows

Le cas juridique le plus proche de « vol de voix » aux États-Unis remonte aux années 1990. Comme le rapporte le Los Angeles Times, le chanteur Tom Waits a obtenu 2,475 millions de dollars de dommages et intérêts de la part de Frito-Lay Inc, le puissant géant des chips à l’origine de Doritos, Cheetos, Cracker Jack’s, etc.

La publicité utilisait la voix de quelqu’un qui ressemblait suffisamment à Tom Waits pour que les gens puissent croire que le véritable artiste était derrière la campagne publicitaire. On pourrait dire la même chose des fausses chansons qui circulent actuellement, mais la musique d’IA n’a pas encore été testée dans le cadre d’une bataille juridique.

En attendant que le système juridique se mette à jour, il convient de noter que tout le monde ne voit pas d’inconvénient à ce que des personnes clonent leur voix, comme Holly Herndon, par exemple. Face à la marée montante des applications musicales de l’IA, elle a choisi d’autoriser son jumeau vocal appelé Holly+, parallèlement à un système qui lui assure une rémunération équitable.

Quel que soit le point de vue que l’on adopte, le problème reste le même. Il n’existe pas de loi spécifique sur le droit d’auteur qui stipule qu’il faut obtenir l’autorisation de l’artiste avant d’utiliser sa voix. En attendant, les artistes risquent de se retrouver dans le Far West de la technologie de l’IA, sans aucune loi pour les guider.

Lire  Comment configurer et exécuter votre premier test Python avec Pytest

3. Qui est payé ?

Homme sortant de l'argent de son portefeuille

Est-il acceptable de gagner de l’argent avec de la musique utilisant la voix d’une personne ? C’est une question épineuse qui pourrait devenir un problème de plus en plus important à mesure que de la musique « deepfake » est publiée sur les plateformes de streaming et monétisée sur les plateformes de médias sociaux.

Comme nous le savons tous, il n’y a rien de mal à reprendre une chanson célèbre et à la publier sur YouTube ou Spotify ; dans ce cas, des éléments tels que les paroles, la structure de la chanson, la mélodie, le rythme, etc. sont copiés. Mais les clones vocaux sont tout à fait différents, et la deepfake music n’est pas exactement un riff sur une chanson existante, mais la création d’une toute nouvelle chanson en utilisant la voix de quelqu’un d’autre.

En d’autres termes, les clones vocaux n’existeraient pas s’il n’y avait pas d’outils d’intelligence artificielle et d’ensembles de données non autorisés. Les artistes passent leur vie à affiner la voix avec laquelle ils sont nés et à créer un son unique. Voler la voix de quelqu’un et gagner de l’argent avec, c’est peut-être aller trop loin.

4. Un genre en zone grise

Pour compliquer les choses, certaines personnes pourraient ne pas considérer la deepfake music comme entièrement mauvaise. Contrairement aux images ou aux vidéos de deepfake qui peuvent vous faire rire brièvement avant de défiler sur votre téléphone, la deepfake music est en train de devenir un genre à part entière.

Certains la comparent à l’idée d’écrire une fanfiction, une manière amusante et créative de rendre hommage à un artiste. C’est un point de vue plus positif qui fait qu’il est difficile de considérer la deepfake music comme un simple tabou. Il suffit de regarder l’approche de Holly Herndon en matière de clonage de voix par l’IA dans la vidéo ci-dessous.

Tout le monde n’est pas d’accord pour autoriser ce type de musique. Comme l’écrit le Financial Times, la principale maison de disques, Universal Music Group, a cherché à faire retirer les chansons de moindre qualité des plateformes de diffusion en continu, y compris celles créées par l’IA. À terme, les plateformes de streaming comme Spotify, Apple Music ou Tidal devront décider si ce genre de musique est autorisé sur leur plateforme.

La musique « deepfake » suscite des débats similaires à ceux qui ont déjà lieu dans le monde de l’art : l’art généré par l’IA doit-il être considéré comme de l’art ? Mais aujourd’hui, nous nous interrogeons sur la musique générée par l’IA.

5. Préoccupations éthiques concernant la race et l’identité

L’ère de la deepfake music a démarré avec beaucoup de musique qui imite le rap. Les racines historiques du genre remontant à la jeunesse afro-américaine du Bronx, à New York, au début des années 1970, certaines personnes s’inquiètent de la race et de l’identité dans la musique d’IA.

L’écrivain Lauren Chanel est l’une des personnes qui considèrent que la deepfake music est un problème sérieux. Citée dans un article du New York Times, elle explique :

« C’est une autre façon pour les gens qui ne sont pas noirs d’endosser le costume d’une personne noire – de mettre leurs mains sur Kanye ou Drake et d’en faire une marionnette – et c’est alarmant pour moi. » « Ce n’est qu’un exemple de plus d’une longue série de personnes qui sous-estiment ce qu’il faut pour créer le type d’art que, historiquement, les Noirs font.

Ce n’est pas la première fois que la musique créée à l’aide d’outils d’IA n’est pas conforme à l’éthique. Comme le rapporte le magazine Rolling Stone, un rappeur avatar virtuel nommé FN Meka a été signé par un label, puis rapidement abandonné lorsque le groupe de défense des droits civiques en ligne Industry Blackout a écrit que le projet perpétuait des « stéréotypes grossiers » sur la culture des Noirs.

La deepfake music nous rappelle que les outils d’IA ne peuvent être séparés de l’histoire de la création musicale, et le fait de l’ignorer accroît les dangers des deepfakes d’IA.

6. Nuire aux artistes

Il ne faut pas négliger l’impact émotionnel qu’une chanson « deepfake » peut avoir sur l’artiste, en particulier lorsqu’un clone vocal peut chanter des situations qui ne se sont jamais produites, exprimer des émotions qui ne sont pas les siennes et prétendre s’intéresser à des choses qui ne le sont pas.

Dans le cas de la fausse chanson de Drake ft. The Weeknd, les paroles comprenaient des lignes sur Selena Gomez qui sortait avec The Weeknd. En utilisant un mélange de faits réels et de paroles inventées, il s’agit d’une distorsion étrange de la réalité qui pourrait être préjudiciable à l’artiste qui a vécu l’expérience réelle.

De même, la production de paroles générées par l’IA « dans le style » d’une personne célèbre à l’aide de générateurs de texte a conduit certains artistes à désespérer de l’utilisation de la technologie de l’IA. Comme le dit Nick Cave, « ce que ChatGPT est, dans ce cas, c’est la réplication en tant que parodie ».

La musique « deepfake » est capable de mettre dans la bouche de l’artiste des mots qu’il n’a jamais prononcés ou, dans le cas présent, chantés. D’un point de vue personnel, cela peut être préjudiciable à l’artiste qui n’a que peu de moyens de retirer le contenu, sans porter la bataille devant les tribunaux.

Se préparer aux changements de l’industrie musicale

Grâce à l’accès croissant aux outils d’IA, la musique est entrée dans le monde des deepfakes, en particulier par le biais des clones de voix. Il est extrêmement difficile de faire la différence entre une voix d’IA et une voix humaine simplement en écoutant, de sorte qu’il est facile pour une chanson deepfake d’atteindre les plateformes de streaming avant d’être supprimée.

D’un côté, les fans pourraient apprécier la musique deepfake et un genre valable pourrait émerger, utilisant des voix célèbres pour créer de la musique nouvelle et intéressante. Mais tous les artistes ne sont pas d’accord pour que leur voix soit clonée, et aucune loi n’empêche les gens de créer des ensembles de données non autorisés.

Obtenir le consentement des artistes, les dédommager et examiner les questions éthiques ne sont que quelques-uns des problèmes auxquels sont confrontés les artistes et l’industrie de la musique. Avec le développement rapide de la technologie de l’IA, il vaut la peine de faire une pause pour réfléchir aux problèmes qu’elle a engendrés.