Il New York Times ha rivelato un episodio che potrebbe avere ripercussioni significative per il futuro dell'intelligenza artificiale. All'inizio del 2023, un hacker è riuscito a infiltrarsi nei sistemi di messaggistica interna di OpenAI, sottraendo informazioni preziose sulle tecnologie di intelligenza artificiale sviluppate dall'azienda.
Nonostante la gravità dell'intrusione, OpenAI ha scelto di mantenere il segreto, evitando di informare pubblicamente l'accaduto e di rivolgersi alle forze dell'ordine. Secondo il quotidiano statunitense, l'attacco ha violato un forum online riservato ai dipendenti, dove venivano discusse le ultime novità in campo di IA. Fortunatamente, il materiale sottratto non riguarda direttamente i sistemi di sviluppo e addestramento dei modelli GPT, fiore all'occhiello di OpenAI.
Tuttavia, due fonti interne all'azienda hanno espresso preoccupazione. Il furto di dati potrebbe rappresentare una ghiotta opportunità per nazioni come la Cina, interessate ad appropriarsi indebitamente di tecnologie all'avanguardia nel campo dell'intelligenza artificiale, con possibili ricadute sulla sicurezza nazionale degli Stati Uniti. La fuga di notizie ha inoltre minato la fiducia di alcuni dipendenti in OpenAI, sollevando dubbi sulla reale attenzione dell'azienda alla sicurezza informatica.
L'accusa dell'ex responsabile tecnico di OpenAI e il suo licenziamento
A seguito dell'intrusione, si sono acuite le divisioni interne legate ai potenziali rischi dell'intelligenza artificiale. Leopold Aschenbrenner, ex responsabile tecnico di OpenAI, ha redatto un memo indirizzato al consiglio di amministrazione, denunciando l'insufficienza delle misure adottate per prevenire il furto di segreti aziendali da parte di competitor stranieri.
Aschenbrenner, che ha successivamente parlato dell'attacco hacker in un podcast, è stato licenziato da OpenAI con l'accusa di aver divulgato informazioni riservate. L'ex dipendente respinge le accuse, sostenendo che il suo allontanamento sia stato motivato da ragioni politiche.
L'episodio della fuga di notizie si aggiunge a una serie di turbolenze che stanno attraversando OpenAI. In passato, il CEO Sam Altman è uscito vincitore da uno scontro con il precedente consiglio di amministrazione. Più di recente, diversi ricercatori esperti in sicurezza dell'intelligenza artificiale hanno abbandonato l'azienda a causa di divergenze sul concetto di "superallineamento", ovvero le metodologie atte a garantire il controllo umano su un' intelligenza artificiale superintelligente.
Secondo figure di spicco nel campo dell'IA, come Daniela Amodei, co-fondatrice di Anthropic, il furto dei progetti più recenti di intelligenza artificiale generativa non rappresenterebbe, allo stato attuale, una minaccia imminente alla sicurezza nazionale. Tuttavia, con il progredire delle capacità di questa tecnologia, lo scenario potrebbe mutare radicalmente.
Se vuoi aggiornamenti su su questo argomento inserisci la tua email nel box qui sotto:
Compilando il presente form acconsento a ricevere le informazioni relative ai servizi di cui alla presente pagina ai sensi dell'informativa sulla privacy.