Come l'introduzione e la distribuzione dell'elettricità hanno trasformato il modo di produrre, lavorare, vivere, comunicare e relazionarsi, così l'Intelligenza Artificiale è destinata a trasformare di nuovo come produciamo, lavoriamo, viviamo, comunichiamo e ci relazioniamo con gli altri. Parola di uno dei massimi esperti di Intelligenza Artificiale, Andrew Ng. "Un mostro sacro".
L'intelligenza artificiale dunque come la nuova elettricità di 100 anni fa. Ne ha parlato Francesco Paolo Albano, Ingegnere Informatico, laureato al Politecnico di Bari nel 2016, appassionato di programmazione e Machine Learning ed in particolare di Natural Language Processing. Da poco più di due anni è Data Scientist presso Accenture.
Intervenuto al Campus Party Italia 2019, ha fatto il punto sulle origini, gli sviluppi e le applicazioni nella quotidianità dell'Intelligenza Artificiale. "Deep Learning - Un viaggio inaspettato nel mondo reale", il tema del suo intervento.
"Mi occupo nel dettaglio di NLP" che sta per Natural Language Processing, ovvero quel settore dell'Intelligenza Artificiale che si occupa della comprensione ed elaborazione del linguaggio naturale."
Albano fa anche parte di un team di 25 persone che si occupa a 360 gradi di Machine Learning (in particolare NLP, computer vision e anche forecasting).
Le reti neurali dietro FaceApp
L'analisi di Albano è partita dalla definizione stessa di Intelligenza Artificiale e ha percorso un po' tutto lo sviluppo del settore, dagli inizi fino al cosiddetto Reinforcement Learning e alle Reti Generative Avversarie (GAN), sì, quelle che hanno reso possibile FaceApp.
"Nel 2014 sono state sviluppate le Reti Generative Avversarie. Che è successo? - ha spiegato Albano - abbiamo messo una rete contro l'altra" perché una delle due prevaricasse. "Da una parte il modello generativo, che ha lo scopo di creare nuovi dati, dall'altra il modello discriminativo che invece ha lo scopo di distinguere un dato falso da uno reale". Per Albano "è come una lotta fra un falsario e il macchinario che deve riconoscere le banconote false". Alla fine, nel suo percorso di apprendimento "il modello generativo riesce a creare, ad esempio un gatto, e a battere il modello discriminativo".
Nel caso concreto. Il riconoscimento dei volti. Da una parte il modello generativo e dall'altra quello discriminativo. "É lo stesso concetto che sta dietro a FaceApp. Il sistema prendeva l'immagine di una faccia e la invecchiava, mentre il modello discriminativo cercava di capire se nell'immagine c'era o meno un anziano".
Come percepiamo l'Intelligenza Artificiale
Dunque la nostra percezione di Intelligenza Artificiale. La avvertiamo come qualcosa di oscuro, ma anche magico, qualcosa che oscilla tra Futurama e Skynet di Terminator. Il cinema ed un certo tipo di narrazione ha creato ombre sull'AI. "Fra 100 anni non ci ammazzerà Skynet, lo farà prima la plastica" ha scherzato Albano.
Che cos'è in realtà
Già, ma come dovremmo quindi vedere l'Intelligenza Artificiale? Più o meno in questo modo. Per Albano "l'AI è un meccanismo per automatizzare task che solitamente sono noiosi e ripetitivi per l'essere umano. Anche logoranti". Dunque, il secondo mito da sfatare. L'Intelligenza Artificiale non è un mostro e non è neanche infallibile. "C'è un margine di errore. L'AI nasce per risolvere problemi ma dobbiamo capire che c'è un margine di fallimento: è perfetta nel 95% dei casi, gli umani sbagliano quindi anche le macchine possono farlo". O meglio "siamo noi ad insegnare alla macchine a sbagliare". Da qui, la necessità di "un continuo studio di affinamento di modelli e di test".
Perché l'Intelligenza Artificiale
Ma se la percepiamo come oscura, ci costa tanto in termini di ricerca e magari sbaglia pure. La domanda è, a che ci serve l'Intelligenza Artificiale? "Negli ultimi anni - ha spiegato sempre Albano - ci siamo trovati davanti ad una montagna di dati da analizzare", è aumentata la potenza computazionale, il che ha portato "alla diffusione di librerie, che permettono di entrare più facilmente nel mondo dell'Intelligenza Artificiale".
E il Deep Learning?
Se l'Intelligenza Artificiale "è una grande palla che raccoglie tutta una serie di tecnologie che cercano di portare una macchina ad imitare il comportamento umano", il cosiddetto Deep Learning è un "sottoinsieme di questo modello portato all'estremo, per cercare di risolvere problemi complessi che prima non riuscivamo a risolvere".
Le reti a convoluzione
Le reti a convoluzione sono ispirate da processi biologici. Hanno diverse applicazioni nella computer vision ("identificazione e classificazione di singoli oggetti"), nell'analisi del testo (OCR), nelle self driving cars, in ambito di sicurezza e sorveglianza, nell'elaborazione del linguaggio naturale. "Un'immagine - ha spiegato Albano - viene presa e analizzata nelle singole parti". L'obiettivo finale è "riconoscere se in una determinata area analizzata c'è un oggetto". Nel concreto sono reti che sono utilizzate per analizzare i documenti, smistare le info al team di competenza e facilitare così il lavoro.
Ma le troviamo anche nei sistemi di sorveglianza negli ospedali: le telecamere raccolgono frame per frame i volti che riconoscono, al punto fa mappare la presenza di persone nelle stanze e riconoscere se quella persona è o meno autorizzata a entrare in luoghi precisi.
Non sono perfette
Le reti a convoluzione però "non sono perfette. Alcuni test su algoritmi per il riconoscimento dei segnali stradali" hanno rivelato che è bastato sovrapporre tre adesivi su un segnale stradale (uno stop) e "l'algoritmo non lo riconosce".
Le reti con la memoria e le chatbot
Per le attività relative alle immagini, dunque, si utilizzano le reti a convoluzione. Ci sono poi altri ambiti in cui c'è bisogno "di memoria. In un testo le parole si susseguono e assumono un determinato ordine in base alla parola precedente". In questo caso le reti neurali ricorsive sono più adatte. Vengono infatti utilizzate nell'elaborazione del linguaggio naturale (come il riconoscimento vocale o la generazione di linguaggio). Un esempio pratico? "Vengono utilizzate molto nelle chatbot, perché permettono di capire cosa sta dicendo l'utente".
Google Translate
Alla fine degli anni Novanta sono state sviluppate le reti encoder/decoder. "Una rete si occupa di trasformare il testo in codice compreso da un'altra rete. E' quello che succede quando si usa Google Translate".
Di Alessio Nisi