Si vous avez été sur TikTok au cours du mois dernier, il est probable queLa tournée The Eras de Taylor Swifta été partout dans votre flux. Vous aurez vu des clips du plateau de trois heures, des théories de fans sur de nouvelles relations supposées et des milliers et des milliers de vidéos de tenues de tournée des followers.
Un clip audio spécifique joue sur ceux-ci. C'est Swift qui dit: "Oh mon Dieu, ta tenue Eras Tour a l'air tellement bien" - et elle a été utilisée dans 22 000 vidéos différentes. Le truc, c'est que Swift ne l'a jamais vraiment dit.
Ce clip généré par l'IA est l'un des exemples les plus anodins d'un "deepfake", un média synthétique créé par l'utilisateur qui imite la ressemblance d'un individu. SurTIC Tac, n'importe quel son auquel vous pouvez penser - de Swift et Kanye West chantantLycée musicalchansons ensemble à Freddie Mercury couvrant "Billie Jean" de Michael Jackson - n'est pas seulement facilement disponible à utiliser, mais facile à créer, en utilisant des plateformes d'IA tierces, et à télécharger en ligne.
Les utilisateurs qui créent et utilisent les audios Swift deepfake n'ont probablement aucune intention malveillante - ils veulent juste créer du contenu lié à leur fandom. Mais pour ceux qui profitent de la légalité lâche des médias synthétiques et des deepfakes, cela peut causer beaucoup de tort à la personne qu'ils essaient de simuler.
« Cette tendance récente à créer des versions artificielles des voix de célébrités, bien que fascinante d'un point de vue technologique, soulève de profondes questions éthiques et remet en question notre compréhension de l'identité, du consentement et de la vie privée », déclare Rijul Gupta, fondateur et directeur général de Deep Media, une Plate-forme d'IA qui intègre des voix synthétiques dans un système de traduction pour combler la communication au-delà des barrières linguistiques.

"Bien qu'il soit tentant d'expérimenter de nouvelles combinaisons vocales et de réinventer des chansons classiques, nous devons nous rappeler qu'au cœur de cette technologie se trouvele pouvoir de manipuler et de déformer la réalité. L'abus de ce pouvoir est non seulement préjudiciable aux personnes concernées, mais peut également saper le tissu même de la confiance et de la vérité dans notre société.
Réseaux sociauxrôle dans les relations parasociales – des « relations » où une personne a une illusion d'intimité avec une autre personne, généralement une célébrité, qui n'a aucune idée de leur existence – a brouillé la frontière entre le vrai et le faux. En ayant accès aux plateformes sociales des célébrités et en étant mis à jour sur leur vie personnelle, les fans ont le sentiment d'être « impliqués » dans leur vie.
L'éthique autour des relations parasociales et des médias créés par des fans n'est pas nouvelle ; depuis des années, les gens écrivent des fanfictions basées sur des célébrités réelles. Certains collègues écrivains et fans ont critiqué ces fanworks parce qu'ils dépouillent l'agence de la célébrité, les transformant en personnage et écrivant à leur sujet à leur guise, comme on le voit dans des émissions commeEuphorie.
Cela peut sembler inoffensif de créer des deepfakes audio de célébrités, mais c'est le signe d'un problème plus vaste qui pourrait leur être préjudiciable à la fois professionnellement et personnellement. Avec l'utilisation accrue des médias synthétiques et du contenu généré par l'IA créé par les fans, il y a eu un changement unique dans les différents types de travail créé par les fans qu'ils créent.
Et quelle que soit l'intention, les deepfakes ne sont pas consensuels. Ils sont la création et la diffusion d'une œuvre fabriquée qui imite la ressemblance d'une personne réelle et vivante. Dans des cas extrêmes,deepfakes pornographiquesont été faites de femmes célèbres, ce qui peut infliger un préjudice psychologique à la victime.
Article associé
Musique
Les manières surprenantes dont l'Eurovision a façonné l'histoireEn savoir plus
Si une célébrité est aux yeux du public, sa voix est-elle juste ? Gupta ne le pense pas. "La voix, tout comme la ressemblance, fait partie intégrante de l'identité d'un individu", dit-il. "Utiliser la voix de quelqu'un sans sa permission est, indéniablement, une violation éthique.
La question de savoir si une personne peut posséder sa voix est complexe, et même si les cadres juridiques actuels peuvent ne pas fournir une protection adéquate, il est de notre responsabilité en tant que société de relever collectivement ce défi et de veiller à ce que les progrès de la technologie de l'IA respectent la dignité et les droits de tous. personnes."
Du point de vue des relations publiques, pour une artiste comme Taylor Swift qui a eu ses propres expériences de diffusion de fausses informations à son sujet, les deepfakes ont des effets négatifs à la fois sur sa carrière professionnelle et sur sa vie personnelle. Un deepfake audio TikTok populaire a présenté sa voix donnant un commentaire sarcastique honteux sur le fait de ne pas jouer avec les «pauvres chiennes».
Les fans passionnés savent que Swift ne dirait jamais quelque chose comme ça. Mais pour le fan occasionnel, il est difficile de discerner entre fiction et réalité. "Avec les médias synthétiques, les célébrités peuvent perdre le contrôle de leur image publique et de leur marque personnelle", déclare Gupta.
"Les deepfakes non autorisés et le contenu généré par l'IA peuvent déformer les artistes, ce qui peut entraîner une atteinte à la réputation ou la diffusion de fausses informations."
Pour les musiciens, il y a un énorme problème financier avecMusique générée par l'IA. Le mois dernier, ce que l'on croyait être un clip d'une collaboration entre Drake et The Weeknd est devenu viral sur TikTok.
Peu de temps après, une version intégrale est apparue sur toutes les plateformes de streaming musical, recueillant 630 000 flux sur Spotify et 230 000 vues sur YouTube en 24 heures. Et tout comme l'audio Swift, c'était faux. Universal Music Group, le label des deux, a noté que les plateformes d'IA ont la responsabilité éthique de faire ce qu'elles peuvent pour garantir la protection financière et créative des artistes.

Scott Keniley, un avocat du divertissement travaillant pour Soundscape VR, note que "créer le deepfake pour commettre une fraude est une préoccupation majeure de la même manière que voler l'identité d'autrui".
En discutant de l'éthique et de la légalité autour des deepfakes, Keniley cite une affaire judiciaire de 1988 entre la chanteuse Bette Midler et Ford, où Midler a gagné une affaire après avoir affirmé que sa ressemblance avait été utilisée pour des publicités par la société automobile. "Je suis d'avis qu'il est faux de falsifier l'identité d'autrui à des fins commerciales", déclare Keniley.
Cela laisse tout le monde – fans, célébrités, maisons de disques – dans un espace juridique gris. TikTok a récemment annoncé des directives qui obligent les utilisateurs à "divulguer clairement les médias synthétiques et le contenu manipulé qui dépeignent des scènes réalistes avec de fausses personnes, lieux ou événements". C'est un début, mais ce n'est pas suffisant.
Il semble que la meilleure façon pour quelqu'un de se protéger serait de déposer sa propre voix. Mais ce n'est pas possible - pour le moment.
Alors que les processeurs de signaux numériques et les maisons de disques attendent des lois plus strictes sur les médias synthétiques, ils doivent faire ce qu'ils peuvent pour adopter certains aspects de l'IA ou lutter contre son utilisation.
Les artistes ne sont pas d'accord sur ce qu'il faut faire: Timbaland a récemment lancé une chanson avec un couplet généré par l'IA par feu Notorious B.I.G. Et Nick Cave a dit que l'IA peut "sauver le monde, mais elle ne peut pas sauver nos âmes".
Keniley recommande de proposer des idées uniques pour fusionner la musique et l'IA afin que les artistes puissent être correctement rémunérés. « Sortir des sentiers battus devrait être la première réaction sur la façon d'adopter la technologie de l'IA. »
Prenez la musicienne Grimes : elle a créé la plateforme elf.tech, qui permet aux utilisateurs d'utiliser sa voix générée par l'IA pour créer de la nouvelle musique en échange de 50 % des redevances. "C'est un début", dit Keniley.
Aux États-Unis, la saison des élections approche. Et à mesure que l'IA générative devient plus largement utilisée, il sera plus facile que jamais de créer un clip généré par l'IA d'un candidat disant à peu près n'importe quoi – comme on le voit dans un audio AI du président Joe Biden.
Pour reconnaître et identifier le contenu manipulé, Gupta recommande d'utiliser des outils, comme la plate-forme DeepID de Deep Media, qui peuvent détecter les deepfakes sous diverses formes, telles que des images, des vidéos ou de l'audio, pour "favoriser un environnement numérique plus fiable".
Alors que les fans continuent de se synchroniser sur les lèvres avec de faux duos ou de créer des montages de fans de leurs célébrités préférées leur « criant » sur TikTok, il est important de plaider pour l'utilisation éthique de l'IA. Tout ce qui n'est pas consensuel, c'est priver une célébrité de son agence - et aucun fan ne le souhaite sûrement.