Paolo Conte cantava di parole d’amore scritte a macchina, ma ora sono le macchine a scrivere sia parole che note. Poco prima
di morire David Bowie si era divertito a co-sviluppare il Verbasizer, un generatore automatico di strofe, ma oggi le melodie
generate dall’intelligenza artificiale sono una realt, come dimostra il recente successo di Skygge, l’avatar del francese
Benoit Carr, il cui album Hello World! da qualche mese su Spotify. Nei prossimi anni la generazione e produzione di
musica sar seriamente impattata dall’intelligenza artificiale, perch questi strumenti danno nuova linfa creativa a tutti
i software gi esistenti osserva Max Ciociola, creatore di MusixMatch, l’app di riconoscimento dei testi celebrata anche
da Mark Zuckerberg.

Da quattro anni il team di Musixmatch sta lavorando a un sistema di sentiment analysis dei testi di canzoni in grado di capire automaticamente se una canzone parla di felicit, amore, di paure, di argomenti tristi
analizzando il linguaggio in pi di 60 lingue.

L’Ai permette di valutare una canzone non guardando solo a bit-rate e ritmo, ma anche alle parole – spiega Ciociola che intervenuto ieri a Open Innovation Days, la manifestazione organizzata
da Nva24 – Il Sole 24Ore assieme all’Universit di Padova – grazie a questi sistemi stiamo cos costruendo nuovi algoritmi
di music-recommendation basati sui testi e quindi su quello di cui parla una canzone. un approccio completamente nuovo se si considera che a oggi
una playlist, oltre che curata da editor, viene generata guardando prevalentemente alla bit-rate e non a quello di cui si parla. Il risultato non sempre congruo e gli appassionati di musica lo hanno notato: non puoi
in una playlist rock inserire un brano dei Negramaro solo perch c’ il 20% di ritmo rock in quel brano se poi la canzone
parla di cose completamente diverse. Come diciamo da sempre a MusixMatch, “le parole contano” e a breve le playlist della
maggior parte degli streaming services saranno basate anche sulla nostra tecnologia e sui nostri dati.

Le sperimentazioni da parte degli artisti non mancano, soprattutto in Europa. L’iraniano-londinese Ash Koosha ha creato Yona,
un “uomo ausiliario” in grado di generare testi e melodie in maniera autonoma, mentre il produttore svedese Daniel M Karlsson,
transumanista convinto, compone la sua musica in gran parte utilizzando linguaggio di programmazione dal vivo TidalCycles
con risultati molto originali come il suo album del 2017 Expanding and overwriting.

Una strada ancora pi originale quella intrapresa dall’italiano Alex Braga che, in collaborazione con Francesco Riganti
Fulginei e Antonino Laudani, ricercatori all’Universit di Roma Tre, ha creato A-Mint, un nuovo tipo di intelligenza artificiale
basata su reti neurali in grado di comprendere la musica in tempo reale. A-Mint radicalmente diversa da tutto ci che
basato sul machine learning e quindi sull’elaborazione di un brano perch la prima intelligenza non umana a poter comprendere in tempo reale il codice
di improvvisazione di un musicista spiega Braga che ha portato A-Mint in tourne con il jazzista Danilo Rea e ne ha dato
una dimostrazione a Padova lo scorso venerd insieme a Francesco Tristano. Questo sistema non si sostituisce al musicista
ma ne amplifica le capacit – sottolinea Braga – facendolo diventare un direttore di orchestra 4.0.

Il direttore del Conservatorio di Santa Cecilia, a Roma, ha adottato A-Mint come strumento didattico e a breve saranno avviate
le prime masterclass per permettere anche a musicisti tradizionali di cominciare a usare il sistema. L’approccio sorprendente
per la sua flessibilit e sembra analogo a quello adottato dai californiani di Amper, una piattaforma che stata utilizzata
dalla pop-artist Taryn Southern per la produzione dell’album I am Ai.

Chi teme la marginalizzazione degli artisti e dei produttori in carne ed ossa per fuori strada. Dobbiamo distinguere
la performance live dalla produzione e quindi fruizione di musica attraverso il mercato digitale, visto che quello fisico morto – sottolinea
Ciociola – L’evento live, il concerto, rimarr la forma pi tradizionale e per questo pi apprezzata di musica per gli utenti. Per capirci: un ologramma
o un robot quanto di pi triste la musica possa offrire e quindi non vedo quel rischio.

Cosa diversa il campo della produzione artistica. Il cosiddetto A&R (Artist & Repertoire) di ogni casa discografica gi
dominato dalla tecnologia e sembra impensabile che artisti e produttori rigettino strumenti estremamente potenti come software
basati su intelligenza Artificiale per la produzione del proprio lavoro.

Ma l’uomo non scomparir perch l’Ai senza un training opportuno non d risultati soddisfacenti e il training fatto di
dati e algoritmi proposti dall’uomo alla macchina osserva Ciociola. Il giorno nel quale la hit incoronata a Sanremo o Eurovision
sar (anche) frutto di una macchina non lontano. A chi guarda a questa transizione come la fine della creativit – sottolinea
ancora Ciociola – ricordo che la musica di Giorgio Moroder fatta al 100% con software e computer e Moroder il primo a
riconoscerlo e a considerarla un’incredibile innovazione.

© Riproduzione riservata



Sorgente – ilsole24ore.com