På KTH i Stockholm bedrivs spännande AI-forskning som resulterat i att AI-n ”folkrnn” skapat 100 000 folkmusiklåtar, på ett bräde.
I stort sett varje vecka kommer nyheter kring artificiell intelligens och musikskapande. Det verkar som om musik är ett ganska tacksamt område för AI-forskare att använda sig av för att utveckla tekniken, det finns stora mängder musik som kan användas för att lära maskinerna, samtidigt som musik i sig självt bygger på relativt fasta matematiska regler.
I ett forskningsprojekt på Kungliga Tekniska Högskolan har man matat en AI-plattform, som kallas folkrnn, med tiotusentals folkmusikverk från Irland och Storbritannien för att lära programvaran hur musiken låter. Man använder sig av en metod som kallas RNN (Recurrent Neural Network), en form av maskininlärning som förutsäger och skapar nya mönster baserat på vad den har lärt sig.
Syftet med projektet är att få datormodeller att lära sig folkmusik så att det framstår som om de har en musikalisk intelligens, för att sedan utarbeta metoder för att utreda vad modellerna faktiskt gör. Själva AI-n är publicerad online på www.folkrnn.org, där vem som helst fritt kan generera folkmusik och ladda ned som MIDI-filer.
MI ställde några frågor till Bob Sturm, projektledare:
Vem har upphovsrätten till alla de här låtarna, och har ni registrerat dem hos något upphovsrättssällskap?
– Egentligen är outputen inte hela och färdiga inspelade låtar, utan snarare symbolsekvenser som kan renderas som noter och sedan användas av mänskliga musiker. Det är lite mer som råmaterial snarare än smycken som är färdiga att användas. Vi har samlat 100 000 av de här autogenererade låtsekvenserna i 34 volymer, som finns tillgängliga för alla på nätet.
– Alla sekvenser, noter och MIDI-filer publiceras som Creative Commons (CC BY 4.0), vilket innebär att alla har rätt att bygga vidare på det som skapats. Vi har inget intresse av att äga några rättigheter, varken för sekvenserna i sig självt eller över det som andra skapar baserat på dem, så vi har inte registrerat några av de här låtsekvenserna hos något upphovsrättssällskap.
– Men det finns andra system, som t ex AIVA och Iamus, som autogenererar musik och registrerar den hos upphovsrättsorganisationer.
Datormodellerna visar förmåga att kunna upprepa och variera mönster på sätt som är karakteristiska för den här typen av musik. Modellerna har inte programmerats i förväg utan har lärt sig själv utifrån den musik som har matats in.
För att testa de datorgenererade låtarnas kvalitet gentemot publik, byggde kompositören Oded Ben-Tal vid Kingston University och professionella irländska folkmusiker vidare på musiken och släppte ett album där musiken från AI-n spelades in, men där man inte berättade något om bakgrunden. Bob Sturm menar att en viktig del av projektet var att släppa musik för att få in recensioner och mänskliga reaktioner kring kvaliteten på musiken, innan man avslöjade att mycket av musiken var datorgenererad:
– Vi var tvingade att skapa en berättelse om albumets ursprung för att undvika fördomar som kan uppstå när någon vet att en kreativ produkt har skapats av en dator. Nu när vi har fått in recensioner avslöjar vi albumets sanna ursprung.
Vad är skillnaderna, fördelar och nackdelar, med att ha AI som en skapande partner jämfört med människor?
– För mig personligen är komponerandet fyllt av frustration och extas, på en och samma gång. Jag vill vanligtvis inte jobba med andra kompositörer när jag skapar musik, och jag vet att en del andra kompositörer helst inte vill jobba med mig heller. Så, att jobba med maskinen som partner gör det möjligt för mig att komponera på ett sätt som inte hindrar mina visioner.
– En fördel är flexibiliteten, och att en maskin alltid kan vara påslagen och jobba. Den kan också tränas om, förutsatt att det finns tillräckligt mycket data. Maskiner kan också skapa fullständigt oförutsägbara outputs med mycket originella vändningar. Jag skulle t om säga att det mest intressanta som genererats av folkrnn kommer från misstagen den gjort.
– En nackdel är att förståndsdjupet är väldigt tunt. I vissa situationer där människor inte skulle ha några som helst problem att anpassa sig, klarar folkrnn inte av det. Vi blir faktiskt lite lurade att tro att AI-n skapar musik, men egentligen gör den helt andra saker. När vi förhör AI-n om vad den har lärt sig, så handlar det om helt andra saker än musik. Egentligen har den ingen som helst musikalisk intelligens.
Hur tror du att relationen mellan AI och musikskapare kommer att utvecklas under de kommande åren?
– Maskiner kommer än mer att bli partners i musikskapandet, genom att t ex ge förslag på innehåll och arrangemang, snarare än objekt som bara tar order. Utvecklingen har hållit på under lång tid och nu finns det många olika forskningsprojekt inriktade på det här, som t ex Flowmachines (som MI skrivit om tidigare).
– En naturlig del av musikskapandet är kurering, att välja ut det bästa. Nu kan vi använda maskiner för att generera innehållet och sen välja de mest intressanta bitarna att bygga vidare på, något som inte särskiljer sig speciellt mycket från att jamma med musikerkompisar tills något plötsligt ”klickar”.
– Musik är dock, och kommer alltid att vara, en mänsklig aktivitet. Våra modeller genererar bara symbolsekvenser som det krävs tränade musiker för att omvandla till musik, eller som till och med väljer att inte slösa någon tid på dem.
Länkar
Lyssna på albumet
De 34 volymerna av låtsekvenser
The Humours Of Time Pigeon (låt skapad på ett av AI-n´s misstag, inklusive titel)
Daniel Johansson