Nelle scorse ore Meta ha annunciato lo sviluppo di un nuovo sistema di intelligenza artificiale che potrebbe aiutare a decodificare le immagini dall’attività cerebrale degli esseri umani. Come riportato sul blog ufficiale dell’azienda, utilizzando la magnetoencefalografia (MEG) una tecnica di neuroimaging non invasiva che effettua migliaia di misurazioni dell’attività cerebrale al secondo, Meta potrebbe essere in grado di decodificare lo sviluppo delle rappresentazioni visive del cervello, con una risoluzione temporale senza precedenti. Con un post sul proprio account X, l’azienda di Menlo Park ha mostrato un esempio di ciò, ovvero l’immagine che l’individuo sta guardando insieme alle rappresentazioni visive create nel cervello elaborate tramite MEG.
Today we're sharing new research that brings us one step closer to real-time decoding of image perception from brain activity.
Using MEG, this AI system can decode the unfolding of visual representations in the brain with an unprecedented temporal resolution.
More details ⬇️
— AI at Meta (@AIatMeta) October 18, 2023
Meta: un passo avanti nella ricerca per aiutare persone che non possono più parlare
Il sistema di Meta si sviluppa in tre parti: un codificatore di immagini, un codificatore cerebrale e un decodificatore di immagini. Il primo costruisce un ricco insieme di rappresentazioni dell'immagine indipendentemente dal cervello. Il secondo impara ad allineare i segnali MEG a questi incorporamenti di immagini. Infine, il terzo genera un'immagine plausibile date queste rappresentazioni cerebrali. Il sistema può essere eseguito in tempo reale e può ricostruire, a partire dall’attività cerebrale, le immagini percepite ed elaborate in ogni istante dal cervello. Come ricorda Meta: “ciò apre una strada importante per aiutare la comunità scientifica a comprendere come le immagini vengono rappresentate nel cervello e quindi utilizzate come basi dell’intelligenza umana. A lungo termine, potrebbe anche fornire un trampolino di lancio verso interfacce cervello-computer non invasive in un contesto clinico che potrebbero aiutare le persone che, dopo aver subito una lesione cerebrale, hanno perso la capacità di parlare”.
Naturalmente bisogna ricordare che la ricerca è ancora in fase iniziale. Le immagini generate rimangono imperfette, ma i risultati suggeriscono che l’immagine conserva un ricco insieme di caratteristiche di alto livello, come le categorie di oggetti. In un futuro prossimo, grazie anche allo sviluppo dell’intelligenza artificiale, sono previsti ulteriori progressi. In generale, sottolinea ancora l’azienda di Menlo Park nel suo post nel suo post “questa ricerca rafforza l’iniziativa di ricerca a lungo termine di Meta per comprendere i fondamenti dell’intelligenza umana, identificarne le somiglianze e le differenze rispetto agli attuali algoritmi di apprendimento automatico e, in definitiva, guidare lo sviluppo di sistemi di intelligenza artificiale progettati per apprendere e ragionare come gli esseri umani”.