24 april 2023

JOHANSSON om förväntad utveckling – del 2

Utvecklingen inom AI-covers, eller AI-remixer som det också kallas, går snabbt. Nu finns det flera tjänster som gör det lättare för den som vill applicera en artists sångröst på låtar, och YouTube, SoundCloud och TikTok svämmar över med nya kombinationer.

Förra veckan skrev jag om bakgrunden till att AI-låtar nu är bland de mest spelade och spridda på sociala plattformar och vissa streamingtjänster. Sök bara på ”AI cover” på TikTok t ex, så ser du hur fenomenet fullständigt har exploderat.

Ett par exempel på nya tjänster som gör det enkelt är:

https://www.voicify.ai

https://www.musicfy.lol

https://www.covers.ai

Jag har experimenterat med de här verktygen och modellerna i veckan, och kan verkligen bekräfta att nivån är extremt hög på den output som genereras. Det tog mig bara ett par minuter att applicera t ex Ariana Grande på ”Euphoria”, eller Eminem på ”Känn ingen sorg för mig Göteborg.” Just den versionen blev väldigt speciell…

De här nya tjänsterna tar också betalt, vilket innebär att vi redan idag har en situation där aktörer som erbjuder AI-modeller av artister genererar intäkter som inte delas med rättighetshavarna. Man skulle kunna kalla det för ett slags piratverksamhet där man piratkopierar sångröster med hjälp av AI.

AI-modellerna är i huvudsak tränade av personer som helt enkelt har rippat musiken och skapat tusentals samples av de inspelade rösterna. Något som leder mig fram till en framtidsspaning för branschen och en möjlig lösning på ”problemet”, som jag väl snarare vill kalla för en enorm möjlighet.

Att kunna applicera en artists röst på olika låtar kommer om några år (eller kanske inom bara något år, givet den snabba utvecklingen) troligen vara lika självklart som att kunna använda en EQ för att höja eller sänka basen på en låt.

AI-modellerna som ligger till grund för artisternas röster borde därför vara något som branschens aktörer själva tränar upp, och inte ett gäng mer eller mindre nogräknade fans därute.

En label, eller för den delen artisten själv, har helt andra möjligheter att träna upp högkvalitativa AI-modeller som man sedan kan licensiera ut till de aktörer som legalt vill använda dem.

Men, vem kommer äga den specifika AI-modellen?

En artist skulle med lätthet kunna träna upp en AI-modell genom att själv mata den med inspelningar av sin egen röst, eller t.o.m. i realtid lära upp genom att sjunga, men idag baseras de tusentals modeller som finns därute på musik som redan har getts ut. Rihanna-modellerna är baserade på all musik som redan har släppts, där det ju ofta är andra aktörer än artisterna själva som äger inspelningarna av rösten.

Så, är det masterägarna som ska äga de framtida legala licensierade AI-modellerna, eller är det artisterna själva?

Det här skulle kunna leda till intressanta diskussioner i branschen, som t ex när artister skriver exklusiva artistavtal med labels. Idag äger masterägarna inspelningarna av artistens röst, men äger självklart inte artistens röst i sig självt. Däremot skulle exklusivitetsklauser kanske kunna göra att artisten inte kan/får träna upp en egen AI-modell, med sin egen röst, som sedan licensieras ut.

Hur som helst är det dags för alla artister och rättighetshavare att på allvar börja träna upp sina egna lagliga AI-modeller (det är lättare än vad många tror), och licensiera ut dem till lagliga plattformar som vill implementera dem, plattformar som också fördelar intäkter istället för att som nu, ”stjäla”.

Den vilda västern vi ser just nu är skadlig, både för artister och musikekonomin i stort och måste bemötas genom att implementera teknologin i den upphovsrättsliga fabriken, snarare än att försöka stoppa tekniken per se.

Självklart ska en AI-modell av en artist som används när någon spelar upp en låt, också vara berättigad till en split på intäkterna. Därav att frågan om vem som äger AI-modellen blir så viktig.

Säg att jag på Spotify 2024 väljer att spela upp ”Jag kommer”, men med Håkan Hellströms röst baserad på en AI-modell som licensierats ut. I ett sådant läge är det rimligt att både Veronica Maggio och Håkan Hellström får en kickback, liksom alla de rättighetshavare som är relaterade till ”Jag kommer”.

Men hur ska fördelningen se ut? Ska det vara 50/50? Ska det vara mer till Maggio? Mer till Hellström genom AI-modellen?

Och, hur ska man som låtskrivare tänka om några år, när det inte bara är EN artist som är den potentiella framföraren av låten, utan tiotusentals andra artister genom sina AI-modeller?

Vi går utan tvekan en mycket spännande framtid till mötes, och till skillnad mot alla som är negativa, tror jag att detta kommer att förstärka kulturuttrycket musik ännu mer, höja intresset för streamingtjänsterna ännu mer (förutsatt att funktionen finns där), inte minst låta hela musikhistorien få en ny dimension, med ökade intäkter till rättighetshavarna som resultat.

Lösningen är att branschens aktörer ögonaböj själva börjar träna upp egna lagliga AI-modeller av artister, som håller högre kvalitet än alla som finns därute. Någon av de befintliga plattformarna (gärna Spotify) skulle sedan implementera funktionen med ”AI covers” på ett sådant sätt att fullösningarna bleknar i jämförelse.

Vi skulle också behöva uppgradera fördelningsmetodiken till rättighetshavarna, men det ser jag som ett mindre problem, det löser sig. Det viktigaste just nu är att bemöta det enorma sug som finns därute för att kunna lyssna på låtar med olika artisters röster, innan fansen har vant sig vid att gå ”piratvägen”.

En artist som har förstått vad som komma skall är Grimes, som för några dagar sedan skrev på Twitter: ”I’ll split 50% royalties on any successful AI generated song that uses my voice. Same deal as I would with any artist i collab with. Feel free to use my voice without penalty. I have no label and no legal bindings.”

Daniel Johansson
daniel@musikindustrin.se

Etiketter: #Johansson