Au Japon, Hatsune Miku est une icône: cette chanteuse virtuelle, issue d’un logiciel de synthèse vocale, n’existe pas physiquement, mais a donné des concerts (sous forme d’hologrammes), vendu des albums, inspiré des fans à créer de nombreuses chansons et des œuvres d’art. (Photo: Shutterstock)

Au Japon, Hatsune Miku est une icône: cette chanteuse virtuelle, issue d’un logiciel de synthèse vocale, n’existe pas physiquement, mais a donné des concerts (sous forme d’hologrammes), vendu des albums, inspiré des fans à créer de nombreuses chansons et des œuvres d’art. (Photo: Shutterstock)

Vingt-deux ans après ses débuts, Shazam a identifié son 100 milliardième titre. Depuis le «2580» par SMS à Londres pour savoir qui jouait tel titre, tout a changé de manière spectaculaire. La Sacem au Luxembourg et en Europe appelle à un nouveau cadre pour éviter que le monde de la musique soit cannibalisé par les créations de l’intelligence artificielle générative… déjà en route depuis la fin des années 1990.

Mi-novembre, Shazam, service par SMS né en 2002 à Londres, a atteint le nouveau record de 100 milliards d’identifications de titres, soit 12 morceaux identifiés pour chaque personne sur Terre. Pour y parvenir, une seule personne devrait rechercher un titre sur Shazam toutes les secondes pendant 3.168 ans.

Cela équivaut à plus de 2.200 fois le nombre d’identifications du titre le plus recherché sur Shazam, «Dance Monkey», qui cumule plus de 45 millions de tags. Le track record (!) du morceau est juste dingue: numéro 1 des charts dans 18 pays, 27 disques de platine et un disque de diamant et trois prix aux Music Awards de 2019!

Le titre «Beautiful Things» de Benson Boone, qui faisait partie des prédictions Shazam 2023, a été le premier morceau sorti cette année à atteindre les 10 millions d’identifications, et ce, en un temps record de 178 jours. À ce rythme, il lui faudrait plus de 4.800 ans pour atteindre 100 milliards.

Plus de 300 millions d’utilisateurs sont connectés chaque mois pour identifier une musique qu’ils entendent à proximité.

Une histoire de peurs technologiques

Et comme à chaque étape de l’histoire de la musique, une nouvelle crainte est apparue.

La fin du concert et des partitions imprimées avec le phonographe (fin XIXe – début XXe siècle): l’apparition des premiers enregistrements sonores sur cylindre, puis sur disque, suscite de vives inquiétudes. Les musiciens craignent que l’écoute «mécanique» des œuvres ne remplace l’expérience vivante du concert. Les éditeurs de partitions, eux, voient dans ces nouveaux supports une menace pour leurs revenus, car le public pourrait préférer écouter un enregistrement plutôt que d’acheter une partition pour la jouer chez soi.

La radio et la peur de la perte de contrôle (années 1920-1930): lorsque la radio devient un média de masse, les labels et compositeurs se demandent si elle ne va pas décourager l’achat de disques. Les critiques craignent aussi une baisse de la qualité artistique, la radio étant perçue comme un médium qui privilégierait l’accès immédiat à la musique, sans considération pour la justesse de l’exécution ou la subtilité de l’interprétation. Les musiciens et syndicats s’inquiètent également de la concurrence déloyale que constitue la diffusion gratuite de musique enregistrée, mettant en péril les cachets des artistes de scène.

Le magnétophone et la copie privée (années 1950-1960): l’accès au magnétophone domestique inquiète l’industrie du disque, car il devient possible de copier de la musique diffusée à la radio ou de dupliquer des albums entre particuliers. On craint que les ventes ne baissent, faute d’acheter des originaux. De même, certains s’inquiètent de la dévalorisation de l’objet musical, désormais reproductible à l’infini, sans perte immédiate de qualité.

La cassette et le début du «home taping» (années 1970-1980): l’arrivée de la cassette permet un «home taping» facile, c’est-à-dire l’enregistrement personnel de musique depuis la radio ou la duplication entre individus. Le phénomène participera d’ailleurs à l’émergence de la notion de droit de copie privée et de redevances compensatoires.

Le CD et la numérisation (années 1980-1990): le passage de l’analogique au numérique suscite des craintes sur la qualité artistique (son «trop propre»), mais surtout, à terme, sur la facilité de reproduction. Bien que le CD ait au début relancé le marché grâce à sa qualité et sa durabilité, la possibilité de ripper et de partager des fichiers sur ordinateur se profile à l’horizon, créant un climat de suspicion quant au piratage informatique futur.

Le MP3, le peer-to-peer et la peur du piratage massif (fin des années 1990 – début des années 2000): l’avènement du format MP3 et le partage de fichiers via les réseaux peer-to-peer représentent le point culminant des craintes de l’industrie. Les labels et artistes redoutent une chute brutale des revenus, la diffusion de la musique sans contrôle ni rémunération, et la possible disparition du modèle économique traditionnel de l’industrie du disque. On assiste alors à une guerre légale et médiatique contre le piratage.

Le streaming et la crainte de la dévalorisation de l’œuvre (années 2010 – aujourd’hui): avec le streaming, l’accès illimité à d’immenses catalogues musicaux pour un abonnement mensuel modique est perçu comme un nouveau bouleversement. Les artistes s’inquiètent de la rémunération perçue par écoute, souvent jugée insuffisante, et du fait que la musique devienne un simple flux, dématérialisé et donc moins valorisé. La peur se cristallise autour de la place des algorithmes dans la découverte et la promotion, ainsi que de la perte d’identité artistique au profit de la performance du catalogue.

Un avertissement mondial

Cette semaine, la Sacem luxembourgeoise a relayé une campagne mondiale pour exprimer ses craintes face à l’émergence de la musique générée par l’intelligence artificielle.

Selon une étude commandée à PMP Strategy, la valeur marchande de cette GenAI music atteindra 16 milliards d’euros en 2028 et son pendant audiovisuel 48 milliards d’euros. Pour atteindre ces chiffres, il faudra que se développent des fournisseurs de service, qui feront tourner les musiques d’hier et d’aujourd’hui sur leurs modèles d’intelligence artificielle et qui devraient eux attirer quatre milliards d’euros pour la musique et cinq milliards d’euros pour l’audiovisuel.

Pour les consultants mandatés par les organisations de défense des droits musicaux, cette cannibalisation pourrait toucher jusqu’à 24% des revenus des créateurs de musique «traditionnels» et 21% de ceux de l’audiovisuel, soit 22 milliards d’euros dans les cinq ans à venir. 

Outre la création de musique elle-même,  PMP anticipe la création massive de musique de background pour l’audiovisuel ou les lieux publics au lieu de devoir payer les droits musicaux de l’industrie ou encore l’utilisation de l’IA générative pour remplacer les traductions, les écrire des scénarios ou même des chefs d’orchestres et directeurs. 

«En l’absence de changement du cadre réglementaire, les créateurs endureront des pertes sur deux fronts: une perte de revenus due à l’utilisation non autorisée de leurs œuvres par les modèles d’IA générative sans aucune forme de rémunération et le remplacement de leurs sources traditionnelles de revenus dû à l’effet de substitution des produits générés par l’IA, qui viendront concurrencer les œuvres des créateurs humains», dit l’étude.

«Pour les créateurs de tous les répertoires, des auteurs-compositeurs aux réalisateurs et des scénaristes aux compositeurs de musique de film, l’IA peut ouvrir la porte à de nouvelles opportunités très prometteuses – mais nous devons reconnaître que, si elle n’est pas adéquatement réglementée, l’IA générative a aussi le pouvoir de faire beaucoup de tort aux créateurs humains et de porter préjudice à leurs carrières et à leurs moyens de subsistance. Lequel de ces deux scénarios l’emportera?», s’interroge le président de la Confédération internationale des sociétés d’auteurs et compositeurs (Cisac) plus de cinq millions de créateurs, Björn Ulvaeus. «Cela dépendra en grande partie des choix que feront les décideurs politiques lors de la révision de la législation en cours dans de nombreux pays. Il est essentiel que nous obtenions des réglementations adéquates, que nous protégions les droits des créateurs et que nous contribuions à mettre en place un environnement qui préserve la créativité humaine et la culture.»

L’IA et la musique, déjà une vieille histoire

Sauf que les tentatives d’introduction de l’IA dans la musique ne sont pas vraiment neuves. 

Dans les années 1980-1990, le compositeur et chercheur David Cope a développé des algorithmes capables d’analyser de vastes quantités de partitions de compositeurs comme Bach, Mozart ou Chopin, puis d’engendrer des pièces originales dans leurs styles respectifs. Le résultat était parfois si convaincant que certains auditeurs peinaient à distinguer l’œuvre générée par la machine de celle du compositeur humain.

En 2016, le laboratoire Sony Computer Science Laboratories a présenté «Daddy’s Car», une chanson composée par une IA entraînée à partir d’un large corpus de musiques pop, notamment celles des Beatles. L’objectif était de démontrer la capacité de l’algorithme à assimiler des caractéristiques stylistiques et à produire un morceau inédit mais familièrement «Beatlesque».

OpenAI a développé un modèle appelé Jukebox, capable de générer de la musique (voix comprise) dans le style de nombreux artistes connus, de Frank Sinatra à Elvis Presley, en passant par des groupes de rock ou de la pop contemporaine. En analysant le répertoire de ces artistes, l’IA peut produire des enregistrements inédits qui évoquent leur signature sonore.

AIVA (Artificial Intelligence Virtual Artist) est une IA spécialisée dans la création de musique, particulièrement dans le style de la musique classique et de la musique d’illustration. En étudiant les partitions de grands compositeurs (Beethoven, Mozart, etc.), AIVA peut générer des symphonies, des pièces pour piano ou des œuvres orchestrales rappelant les grands maîtres.

Le projet Magenta de Google, dédié à la création artistique via l’IA, a produit des exemples de musiques générées à partir de données audio existantes. Ces expériences utilisent le machine learning pour produire de nouveaux matériaux inspirés par des musiques connues, explorant ainsi les frontières entre réinterprétation, pastiche et véritable originalité.

Au Japon, Hatsune Miku est une icône du phénomène: c’est une chanteuse virtuelle, issue d’un logiciel de synthèse vocale. Elle n’existe pas physiquement, mais a donné des concerts (sous forme d’hologrammes), vendu des albums, inspiré des fans à créer de nombreuses chansons et des œuvres d’art. Elle est ainsi devenue une véritable célébrité numérique.