OpenAI sta lavorando con il Dipartimento della Difesa degli Stati Uniti (DOD) su strumenti e servizi per i militari. La notizia arriva pochi giorni dopo che la società ha aggiornato i suoi Termini di servizio per rimuovere la clausola che vieta la sua intelligenza artificiale dalle applicazioni “militari e di guerra”. Ad rivelarlo è Bloomberg, secondo il quale OpenAI sta collaborando con il DOD e la Defense Advanced Research Projects Agency (DARPA) su strumenti di sicurezza informatica open source per il governo. Ciò è in linea con l’AI Cyber Challenge (AIxCC) annunciata da DARPA verso la fine dello scorso anno. Come riportato sul sito DARPA: “AIxCC riunisce le principali aziende di intelligenza artificiale che collaboreranno con DARPA per mettere a disposizione la loro tecnologia e competenza all'avanguardia per sfidare i concorrenti. Antrhropic, Google, Microsofte OpenAI collaborerà con DARPA per consentire ai concorrenti di sviluppare sistemi di sicurezza informatica all'avanguardia”.
OpenAI: il divieto di usare l’AI per sviluppare armi rimane in vigore
Secondo il report svelato da Bloomberg, OpenAI è anche in trattative con il governo degli Stati Uniti per affrontare alcune delle questioni urgenti nel paese. Tra queste vi è la prevenzione del suicidio dei veterani. Inoltre, Anna Makanju, vicepresidente degli affari globali di OpenAI, ha dichiarato al sito web che l’azienda mantiene ancora il divieto di “utilizzare la propria tecnologia per sviluppare armi, distruggere proprietà o danneggiare le persone”.
La collaborazione con il Pentagono non è l'unica novità di OpenAI. Vi sono infatti anche le modifiche per garantire che l'intelligenza artificiale dell'azienda non venga utilizzata per diffondere disinformazione. Ciò si rivela molto importante, soprattutto in vista delle elezioni presidenziali statunitensi. Tale novità è stata introdotta un mese dopo che Bing AI di Microsoft è stata accusata di offrire false risposte su alcune elezioni del 2023. Microsoft ha anche introdotto un nuovo strumento di rilevamento dei deepfake. Ciò aiuterebbe i partiti politici a dimostrare che le immagini da loro create sono reali e non sono state modificate dagli strumenti AI.