L’intelligenza artificiale è capace di apportare grandi benefici all’umanità. Tuttavia, possiede anche un “lato oscuro”, in grado di causare distruzione. OpenAI questo lo sa bene e non ha mai nascosto le sue paure in merito. Recentemente, l’azienda fondata da Sam Altman ha annunciato di aver creato un nuovo team di esperti, ribattezzato “Preparedness”, il cui compito è quello studiare i modelli di intelligenza artificiale, in modo da proteggersi da quelli che vengono chiamati “rischi catastrofici”. Questo team è guidato da Alexander Madry, direttore del Center for Deployable Machine Learning del MIT. Le principali mansioni saranno il monitoraggio, la previsione e la prevenzione dai pericoli dei futuri sistemi AI, che vanno dalla capacità di ingannare gli esseri umani, fino alla generazione di codice dannoso.
OpenAI: la possibilità di rischi nucleari creati dall’AI
Nel suo report, l’azienda creatrice di ChatGPT non esclude nulla, anche i rischi catastrofici. Oltre alla sicurezza informatica, l’intelligenza artificiale potrebbe essere causa di pericoli chimici, biologici, radiologici e nucleari (CBRN), ma anche di replicazione e adattamento autonomo (ARA). Quest’ultimo potrebbe portare alla creazione di virus informatici che si creano replicano in modo autonomo e si propagano nella rete in maniera incontrollabile. Già il CEO di OpenAI, Sam Altman, ha più volte espresso timori in merito, arrivando anche ad affermare che l’“AI potrebbe portare all’estinzione umana”. Altman non è l’unico a pensarla in questo modo. Recentemente Elon Musk, nel corso di un incontro al Senato USA, aveva infatti parlato di “rischio per la civiltà umana” causato dall’AI. La creazione di questo nuovo team tenta proprio di rispondere alle preoccupazioni di Altman.
Il gruppo Preparedness di OpenAI si occuperà anche di formulare una “Politica di sviluppo informata sul rischio” (RDP), che descriverà nel dettaglio l’approccio di OpenAI alla creazione di valutazioni del modello di intelligenza artificiale, agli strumenti di monitoraggio, alle azioni di mitigazioni del rischio e alla struttura di governance per la supervisione del modello. Lo scopo dell’azienda è quello evitare che i rischi dell’AI superino i benefici. Sarà possibile tutto ciò o bisogna cominciare ad avere paura dello sviluppo di questa tecnologia che ha già cambiato il mondo?