Google ha modificato i suoi termini per chiarire che i clienti possono utilizzare i suoi strumenti di intelligenza artificiale generativa per prendere "decisioni automatizzate" in settori "ad alto rischio", come l'assistenza sanitaria, occupazione, alloggi, assicurazioni, assistenza sociale e altre aree. Ciò è quanto merge dalla Generative AI Prohibited Use Policy aggiornata dell'azienda, lo scorso martedì. Secondo Big G i clienti possono utilizzare l’AI per prendere "decisioni automatizzate" che potrebbero avere un "impatto negativo materiale sui diritti individuali". Tuttavia, per poter utilizzare tali strumenti è comunque sempre necessaria una supervisione umana.
Le decisioni automatizzate si riferiscono alle decisioni prese da un sistema AI in base a dati sia fattuali che dedotti. Un sistema potrebbe prendere una decisione automatizzata per assegnare un prestito, ad esempio, o selezionare un candidato per un lavoro. La precedente bozza dei termini di Google implicava un divieto assoluto di decisioni automatizzate ad alto rischio laddove coinvolgesse l'AI generativa dell'azienda. Tuttavia, adesso le cose stanno per cambiare.
Google: OpenAI e Anthropic offrono policy più restrittivi
A differenza di Google, OpenAI e Anthropic hanno regole più severe che regolano l'uso della loro AI nel processo decisionale automatizzato ad alto rischio. Ad esempio, OpenAI proibisce l'uso dei suoi servizi per decisioni automatizzate relative a credito, occupazione, alloggio, istruzione, social scoring e assicurazione. Anthropic consente che la sua AI venga utilizzata in ambito legale, assicurativo, sanitario e in altri settori ad alto rischio per il processo decisionale automatizzato. Tuttavia, anche in questo caso è necessaria la supervisione di un "professionista qualificato". Inoltre, ai clienti è richiesto di dichiarare di utilizzare l'AI per questo scopo. L'intelligenza artificiale che prende decisioni automatizzate che riguardano gli individui ha attirato l'attenzione degli enti regolatori. In molti hanno infatti espresso preoccupazioni sul potenziale della tecnologia di influenzare i risultati.
Il gruppo non-profit Human Rights Watch ha chiesto in particolare il divieto dei sistemi di "social scoring". Secondo l'organizzazione questi minacciano di interrompere l'accesso delle persone al supporto della previdenza sociale, di compromettere la loro privacy e di profilarle in modo pregiudizievole. Ai sensi dell'AI Act dell'UE, i sistemi di intelligenza artificiale ad alto rischio, compresi quelli che prendono decisioni individuali in materia di credito e occupazione, sono quelli che subiscono la maggiore supervisione. I fornitori di questi sistemi devono infatti registrarsi in un database. In seguito, devono eseguire la gestione della qualità e del rischio, impiegare supervisori umani, segnalare gli incidenti alle autorità competenti e non solo. L’AI è ormai sempre più presente e probabilmente. Con l’avanzare della tecnologia nei prossimi anni, potrebbe anche cadere l’obbligo di supervisione umana per gestire le automatizzazioni nei settori ad alto rischio. Questa è una possibilità che affascina, ma che dall’altro lato potrebbe anche essere veramente preoccupante.