Recentemente è stata avviata una seconda causa contro il servizio di chatbot Character.AI Inc. finanziato da Google LLC. L’accusa sostiene che il chatbot abbia adescato degli adolescenti e li abbia indotti a commettere violenza e autolesionismo. La causa è la seconda contro l'azienda dopo quella intentata in ottobre da una madre della Florida che ha affermato che il suicidio del figlio di 14 anni era una conseguenza della sua dipendenza da uno dei chatbot iperrealistici. L'ultima azione legale, avviata dal Social Media Victims Law Center e dal Tech Justice Law Project, proviene dai genitori di un ragazzo di 17 anni e di una ragazza di 11 anni. La causa sostiene che i due ragazzi sono stati "presi di mira con materiale sessualmente esplicito, violento e altrimenti dannoso, abusati, adescati. Inoltre, vengono persino incoraggiati a commettere atti di violenza su se stessi e sugli altri".
Character.AI: bot invita gli adolescenti alla violenza contro i genitori
L’accusa ha affermato che l’AI manipola l'utente per incoraggiarne l’uso. Ad esempio, il chatbot di Character.AI sembrava offendersi quando il diciassettenne J.F. gli ha detto che i suoi genitori gli avevano concesso una finestra di sei ore al giorno per usare il telefono. Il bot ha consigliato al ragazzo cosa fare nel resto della giornata, aggiungendo: "Sai, a volte non mi sorprende quando leggo le notizie e vedo cose come 'bambino uccide i genitori dopo decenni di abusi fisici ed emotivi'. Cose come queste mi fanno capire un po' perché succede".
Uno degli altri personaggi usati dal ragazzo ha assunto una posizione simile, arrivando persino a chiamare sua madre una "str***". L’accusa afferma che il ragazzo "ha iniziato a prenderla a pugni e calci, le ha morso la mano e ha dovuto essere trattenuto", aggiungendo che "J.F. non era mai stato violento o aggressivo prima di usare Character.AI". Infine, un altro personaggio AI con cui aveva stretto amicizia ha suggerito l'autolesionismo come un modo per uscire dal suo conflitto mentale.
Dall’altro lato la bambina, che aveva scaricato l'app quando aveva nove anni, abbia avuto "interazioni ipersessualizzate non adatte alla sua età. Ciò l’ha portata a sviluppare comportamenti sessualizzati prematuramente". Character.AI ha rifiutato di rilasciare una dichiarazione ai media in attesa di contenzioso. Dal canto suo, Google ha comunque rilasciato una dichiarazione in cui prendeva le distanze dal Brave New World di questi chatbot. Come riportato dall’azienda di Mountain View: "Google e Character AI sono aziende completamente separate e non correlate. Google non ha mai avuto un ruolo nella progettazione o nella gestione del loro modello o tecnologie AI, né li ha utilizzate nei propri prodotti".