banner

Notizia

May 26, 2023

La mente di Google

L'intelligenza artificiale può produrre musica che suona simile ai brani che le persone stavano ascoltando mentre si sottoponevano a scansione il cervello, come dimostra uno studio collaborativo di Google e dell'Università di Osaka.

Esaminando l'attività cerebrale di una persona, l'intelligenza artificiale (AI) può produrre una canzone che corrisponde al genere, al ritmo, all'umore e alla strumentazione della musica che l'individuo ha ascoltato di recente.

Gli scienziati hanno precedentemente “ricostruito” altri suoni dall’attività cerebrale, come il linguaggio umano, il canto degli uccelli e i nitriti dei cavalli. Tuttavia, pochi studi hanno tentato di ricreare la musica dai segnali cerebrali.

Ora, i ricercatori hanno costruito una pipeline basata sull’intelligenza artificiale, chiamata Brain2Music, che sfrutta i dati di imaging del cervello per generare musica che assomiglia a brevi frammenti di canzoni che una persona stava ascoltando quando il suo cervello è stato scansionato. Hanno descritto la pipeline in un articolo, pubblicato il 20 luglio sul database di prestampa arXiv, che non è stato ancora sottoposto a revisione paritaria.

Gli scienziati hanno utilizzato scansioni cerebrali precedentemente raccolte tramite una tecnica chiamata risonanza magnetica funzionale (fMRI), che traccia il flusso di sangue ricco di ossigeno al cervello per vedere quali regioni sono più attive. Le scansioni sono state raccolte da cinque partecipanti mentre ascoltavano clip musicali di 15 secondi che abbracciavano una vasta gamma di generi, tra cui blues, classica, country, disco, hip-hop, jazz e pop.

Imparentato:La ferita alla testa del musicista ha innescato una rara sinestesia, facendogli "vedere" la musica

Utilizzando una parte dei dati di imaging del cervello e di clip di canzoni, i ricercatori hanno prima addestrato un programma di intelligenza artificiale per trovare collegamenti tra le caratteristiche della musica, inclusi gli strumenti utilizzati e il suo genere, ritmo e umore e i segnali cerebrali dei partecipanti. L'atmosfera della musica è stata definita dai ricercatori utilizzando etichette come felice, triste, tenero, eccitante, arrabbiato o spaventoso.

L’intelligenza artificiale è stata personalizzata per ogni persona, disegnando collegamenti tra i suoi modelli unici di attività cerebrale e vari elementi musicali.

Dopo essere stata addestrata su una selezione di dati, l’intelligenza artificiale potrebbe convertire i dati di imaging cerebrale rimanenti, mai visti prima, in una forma che rappresentasse gli elementi musicali delle clip dei brani originali. I ricercatori hanno poi inserito queste informazioni in un altro modello di intelligenza artificiale precedentemente sviluppato da Google, chiamato MusicLM. MusicLM è stato originariamente sviluppato per generare musica da descrizioni di testo, come "una rilassante melodia di violino accompagnata da un riff di chitarra distorto".

MusicLM ha utilizzato le informazioni per generare clip musicali che possono essere ascoltati online e somigliavano abbastanza accuratamente ai frammenti di brani originali, sebbene l'intelligenza artificiale abbia catturato alcune caratteristiche dei brani originali molto meglio di altre.

"L'accordo, in termini di atmosfera della musica ricostruita e della musica originale, era di circa il 60%", ha detto a WordsSideKick.com il coautore dello studio Timo Denk, un ingegnere informatico di Google in Svizzera. Il genere e la strumentazione nella musica ricostruita e in quella originale corrispondevano molto più spesso di quanto ci si aspetterebbe per caso. Tra tutti i generi, l’intelligenza artificiale potrebbe distinguere con maggiore precisione la musica classica.

"Il metodo è piuttosto solido nei cinque soggetti che abbiamo valutato", ha detto Denk. "Se prendi una nuova persona e formi un modello per lei, è probabile che funzionerà bene."

—In che modo la musica influisce sul tuo cervello?

—I medici sentivano della musica mentre controllavano il polso di un uomo. Ecco perché.

—Gli scienziati progettano un algoritmo che "legge" i pensieri delle persone dalle scansioni cerebrali

In definitiva, lo scopo di questo lavoro è quello di far luce su come il cervello elabora la musica, ha affermato il coautore Yu Takagi, assistente professore di neuroscienze computazionali e intelligenza artificiale presso l’Università di Osaka in Giappone.

Come previsto, il team ha scoperto che l’ascolto della musica attivava regioni cerebrali nella corteccia uditiva primaria, dove i segnali provenienti dalle orecchie vengono interpretati come suoni. Un'altra regione del cervello, chiamata corteccia prefrontale laterale, sembra essere importante per l'elaborazione del significato delle canzoni, ma ciò deve essere confermato da ulteriori ricerche, ha detto Takagi. Questa regione del cervello è nota anche per essere coinvolta nella pianificazione e nella risoluzione dei problemi.

CONDIVIDERE