Economia Digitale

Non solo ritmo, l’intelligenza artificiale sceglierà le parole dei brani musicali

di Guido Romeo

4' di lettura

Paolo Conte cantava di parole d’amore scritte a macchina, ma ora sono le macchine a scrivere sia parole che note. Poco prima di morire David Bowie si era divertito a co-sviluppare il Verbasizer, un generatore automatico di strofe, ma oggi le melodie generate dall’intelligenza artificiale sono una realtà, come dimostra il recente successo di Skygge, l’avatar del francese Benoit Carré, il cui album «Hello World!» è da qualche mese su Spotify. «Nei prossimi anni la generazione e produzione di musica sarà seriamente impattata dall’intelligenza artificiale, perché questi strumenti danno nuova linfa creativa a tutti i software già esistenti» osserva Max Ciociola, creatore di MusixMatch, l’app di riconoscimento dei testi celebrata anche da Mark Zuckerberg.

Da quattro anni il team di Musixmatch sta lavorando a un sistema di sentiment analysis dei testi di canzoni in grado di capire automaticamente se una canzone parla di felicità, amore, di paure, di argomenti tristi analizzando il linguaggio in più di 60 lingue.

Loading...

«L’Ai permette di valutare una canzone non guardando solo a bit-rate e ritmo, ma anche alle parole – spiega Ciociola che è intervenuto ieri a Open Innovation Days, la manifestazione organizzata da Nòva24 - Il Sole 24Ore assieme all’Università di Padova – grazie a questi sistemi stiamo così costruendo nuovi algoritmi di music-recommendation basati sui testi e quindi su quello di cui parla una canzone. È un approccio completamente nuovo se si considera che a oggi una playlist, oltre che curata da editor, viene generata guardando prevalentemente alla bit-rate e non a quello di cui si parla. Il risultato non è sempre congruo e gli appassionati di musica lo hanno notato: non puoi in una playlist rock inserire un brano dei Negramaro solo perché c’è il 20% di ritmo rock in quel brano se poi la canzone parla di cose completamente diverse. Come diciamo da sempre a MusixMatch, “le parole contano” e a breve le playlist della maggior parte degli streaming services saranno basate anche sulla nostra tecnologia e sui nostri dati».

Le sperimentazioni da parte degli artisti non mancano, soprattutto in Europa. L’iraniano-londinese Ash Koosha ha creato Yona, un “uomo ausiliario” in grado di generare testi e melodie in maniera autonoma, mentre il produttore svedese Daniel M Karlsson, transumanista convinto, compone la sua musica in gran parte utilizzando linguaggio di programmazione dal vivo TidalCycles con risultati molto originali come il suo album del 2017 «Expanding and overwriting».

Una strada ancora più originale è quella intrapresa dall’italiano Alex Braga che, in collaborazione con Francesco Riganti Fulginei e Antonino Laudani, ricercatori all’Università di Roma Tre, ha creato A-Mint, un nuovo tipo di intelligenza artificiale basata su reti neurali in grado di comprendere la musica in tempo reale. «A-Mint è radicalmente diversa da tutto ciò che è basato sul machine learning e quindi sull’elaborazione di un brano perché è la prima intelligenza non umana a poter comprendere in tempo reale il codice di improvvisazione di un musicista» spiega Braga che ha portato A-Mint in tournée con il jazzista Danilo Rea e ne ha dato una dimostrazione a Padova lo scorso venerdì insieme a Francesco Tristano. «Questo sistema non si sostituisce al musicista ma ne amplifica le capacità – sottolinea Braga – facendolo diventare un direttore di orchestra 4.0».

Il direttore del Conservatorio di Santa Cecilia, a Roma, ha adottato A-Mint come strumento didattico e a breve saranno avviate le prime masterclass per permettere anche a musicisti tradizionali di cominciare a usare il sistema. L’approccio è sorprendente per la sua flessibilità e sembra analogo a quello adottato dai californiani di Amper, una piattaforma che è stata utilizzata dalla pop-artist Taryn Southern per la produzione dell’album «I am Ai».

Chi teme la marginalizzazione degli artisti e dei produttori in carne ed ossa è però fuori strada. «Dobbiamo distinguere la performance live dalla produzione e quindi fruizione di musica attraverso il mercato digitale, visto che quello fisico è morto – sottolinea Ciociola - L’evento live, il concerto, rimarrà la forma più tradizionale e per questo più apprezzata di musica per gli utenti. Per capirci: un ologramma o un robot è quanto di più triste la musica possa offrire e quindi non vedo quel rischio».

Cosa diversa è il campo della produzione artistica. Il cosiddetto A&R (Artist & Repertoire) di ogni casa discografica è già dominato dalla tecnologia e sembra impensabile che artisti e produttori rigettino strumenti estremamente potenti come software basati su intelligenza Artificiale per la produzione del proprio lavoro.

«Ma l’uomo non scomparirà perché l’Ai senza un training opportuno non dà risultati soddisfacenti e il training è fatto di dati e algoritmi proposti dall’uomo alla macchina» osserva Ciociola. Il giorno nel quale la hit incoronata a Sanremo o Eurovision sarà (anche) frutto di una macchina non è lontano. «A chi guarda a questa transizione come la fine della creatività – sottolinea ancora Ciociola - ricordo che la musica di Giorgio Moroder è fatta al 100% con software e computer e Moroder è il primo a riconoscerlo e a considerarla un’incredibile innovazione».

Riproduzione riservata ©

loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti