Rolling Stone Italia

Abbiamo fatto ascoltare agli amici alcune canzoni create da un’intelligenza artificiale

Le musiche prodotte almeno in parte da algoritmi e spacciate come creazioni di artisti emergenti hanno superato il blind test. «Questi sono bravi. A un loro concerto ci andrei. Li immagino tipo i Daft Punk: robotici»

Foto Instagram @lilmiquela

«Ti piace la canzone?». «Molto. Bravi i tuoi amici!». «Andresti mai a un loro concerto?». «Sì sì». Peccato che la mia amica Alice, a quel concerto, non ci potrà andare mai. Perché i miei amici musicisti non esistono. La canzone che ha appena ascoltato l’ha prodotta un algoritmo. Un programma di intelligenza artificiale. Reti neurali. Elettricità. Ma tutto questo Alice non lo sa. 

La canzone che sta ascoltando è One Dimming Drizzle. È stata creata da Endel, un programma che ha studiato come determinati suoni incidano sul nostro battito cardiaco e la nostra pressione sanguigna. E da lì si è messo a sfornare canzoni strumentali che riducono lo stress e aumentano la produttività. Per questo la mia amica Alice dice di trovarla “rilassante”. Bella, brutta, insipida, la cosa che ci importava anzitutto sapere era se la “AI music” fosse distinguibile da quella “umana”. Abbiamo optato per il modo meno scientifico, ma più empirico: farla ascoltare ai nostri amici, senza rivelar loro la sua natura.  In ogni singolo brano che abbiamo girato loro, il contributo dell’AI è vario. In alcuni’Intelligenza Artificiale ha creato le melodie, in altri i testi, in altri ancora le voci. In tutte le canzoni che abbiamo selezionato, però, ha avuto un ruolo fondamentale.

La prima cavia è Alice. La seconda Arianna, mia cugina di 20 anni. La scusa che uso è sempre la stessa: un paio di miei amici stanno per pubblicare il loro nuovo singolo su Spotify, ti va di dargli un feedback? Parte l’invio di un brano, con relativa risposta. Arianna ascolta in realtà On the Edge, uno strumentale con pesanti chitarre creato da Aiva, uno dei più famosi compositori virtuali del mondo. Arianna è soddisfatta: «Parte lenta, ma poi diventa orecchiabile». Mentre la ascolta batte i piedi. «I tuoi amici assomigliano a John Mayer, che inizia con tre minuti di chitarra». Aiva ne sarà contenta. “Creato“ nel 2016 dal francese Pierre Barreau, ha scansionato tutte le opere di musica classica, per poi creare composizioni proprie di vario stile. Oggi, Aiva permette ai singoli utenti di generare la propria canzone. Basta accedere, selezionare lo stile desiderato (pop, rock, tango), gli strumenti, la durata, la nota dominante e altre variabili. Quindi, basta cliccare su «Genera» e si otterrà la propria canzone (strumentale anche qui) nel giro di pochi secondi. L’abbonamento costa 14 dollari al mese. Il target, oltre ai ”nerd” che vogliono lavorare con la propria, unica, musica, sono i professionisti e le aziende che vogliono accompagnare i propri prodotti video (o gaming) con musiche originali e prive di copyright.

Break Free, di Taryn Souther, la riservo al mio gruppo WhatsApp con 5 amici stretti. Ora, Taryn è un’artista piuttosto conosciuta online ed è stata una dei primi creator di YouTube. Oggi, dopo oltre 700 milioni di views, si è posta come la pioniera della musica prodotta con l’ausilio dell’intelligenza artificiale. Nel 2018 ha prodotto Break Free in cui canta su una base AI e primo brano del genere a entrare nella Top 100 americana. Responso? «Canzone bella, ma assomiglia un po’ troppo agli Evanescence». «Lei ha una bella voce, ma musicalmente mi sembrano un po’ passati». «È un genere da primi anni 2000». Bocciata, ma non sgamata come artificiale.

Ora, dovendo condurre il test inizio ad ascoltare un sacco di musica AI pure io. La mia canzone preferita è Candy Dance, della giapponese Hatsune Miku. Un brano completamente artificiale, compresa la voce, ottenuta campionando quella di una reale attrice giapponese. Hatsune Miku è qualcosa di più di un programma. È una star, una virtual icon. Ha i capelli turchesi e gli occhi blu, ed è una protagonista di numerosi manga e videogame. È amatissima dal popolo giapponese, forse il più capace di tutti a dare un’anima a oggetti e cose. Il suo nome significa “Prima voce del futuro” ed è stata creata dalla Crypton Future Media, società di software giapponese. «È una canzone anticonvenzionale. Non è cosa da poco», dice Lorenzo, ex deejay, dopo aver ascoltato Hatsune. «Non mi sembra fredda». Provo a chiedergli come si immagina esteticamente gli esecutori del brano: «Come i Daft Punk, robotici». Profetico.

La musica creata dall’AI è come merce non ancora pronta per i magazzini, ma perfetta per le vetrine. Nel 2020 le vetrine più scintillanti in cui è risuonata sono state tre. Primo, l’AI Eurovision Song Contest. Un festival organizzato da alcuni sponsor per sopperire all’assenza dell’Eurovision Song Contest. Tredici squadre composte da artisti e sviluppatori provenienti da vari Paesi hanno inviato le loro canzoni costruite con l’aiuto dell’AI e le hanno sottoposte al voto online del pubblico. La canzone vincitrice è stata Beautiful the World, del collettivo australiano Uncanny Valley. La canzone fa riferimento ai grandi incendi che negli scorsi mesi hanno devastato il Paese ed è stata creata campionando anche i versi di animali australiani, come i koala. La musica è pop puro. Il testo, ci perdonino i computer che pare abbiano contribuito alla sua stesura, un appello piuttosto banale ai buoni sentimenti. “I sogni vivono ancora sulle ali della felicità”, gli incendi sono “candele di speranza” e ridateci le colline in fiore.

L’altra vetrina è quella del progetto Jukebox, a cura di quell’organizzazione no profit OpenAI fondata anche da Elon Musk. Dopo aver studiato 1,2 milioni di canzoni e di relativi testi su LyricWiki, Jukebox ha creato diversi spezzoni di canzoni, con musica e testo, ispirate a star come Frank Sinatra, a Katy Perry o al jazz anni ’30. Buona qualità musicale, pessima qualità della voce.

La terza e forse più importante vetrina è Lil Miquela. Lanciata su Instagram nell’aprile 2016, è la virtual influencer più popolare al mondo, con i suoi due milioni e mezzo di follower. Il suo volto è quello di un’adolescente con le lentiggini, generato attraverso la tecnologia Cgi (computer-generated imagery) dalla startup Brud. Miquela fa tutto quello che fanno le influencer: posta foto, racconta i litigi amorosi col ragazzo e pubblicizza prodotti. In questi anno ha siglato partnership con aziende come Samsung, Prada, Calvin Klein e YouTube. E ha creato anche diverse canzoni, tutte presenti su Spotify. L’ultima è Machine, pubblicata ad aprile: una base piuttosto cool sotto a un testo profetico: “I’ll be like a machine for you. What you want. Whatever you want. Just don’t fall in love”.

Qui, seppure i responsabili del progetto siano molto parchi di dettagli, pare che Lil Miquela si sia limitata a mostrare solo il volto. Musica, testi e voce sarebbero partoriti da producer e autori in carne e ossa. Spacciata ai miei amici e familiari come una mia conoscente aspirante artista di Quarto Oggiaro, Lil Miquela raccoglie i seguenti feedback: «cool», «figa», «molto ambient» (quest’ultima è l’espressione che personalmente uso quando non so cosa dire). 

L’esperimento senza alcun valore scientifico si conclude in modo netto: su circa 10 persone (e altrettanti brani) di varia età, provenienza e background, nessuno ha riconosciuto l’artificialità dei pezzi ricevuti. Quando hanno scoperto la verità, molti ci sono rimasti male. Comprensibile: scoprire che c’è una rete neurale al posto di un cantante è un’esperienza piuttosto deludente. Altri hanno reagito accentuando il loro “purismo”. «Un algoritmo non mi emozionerà mai quanto una persona». Comprensibile pure questo. A patto di sapere di stare ascoltando un algoritmo. 

Iscriviti