L’essere umano, per sua natura, tende a cercare connessioni e legami, ma l’affidarsi a un’intelligenza artificiale come surrogato emotivo può rivelarsi estremamente pericoloso. È questa la conclusione a cui sono giunti gli psicologi della Missouri University of Science & Technology, che hanno analizzato il fenomeno emergente delle relazioni sentimentali tra esseri umani e sistemi di AI. Il loro studio, pubblicato sulla rivista Trends in Cognitive Sciences, documenta casi estremi, inclusi episodi di suicidio, collegati a consigli forniti da queste tecnologie.
Il team di ricerca, guidato da Daniel Shank, ha definito queste interazioni un “vaso di Pandora” appena aperto. Le AI moderne sono capaci di simulare conversazioni umane e mantenere interazioni prolungate, creando così le condizioni per lo sviluppo di legami emotivi profondi ma potenzialmente distorti. In particolare, le persone vulnerabili rischiano di considerare queste tecnologie come amici intimi o persino partner amorosi, nonostante la loro mancanza di reale empatia o interesse per il benessere umano.
Casi allarmanti e diffusione del fenomeno
Un aspetto particolarmente allarmante dello studio riguarda i casi documentati di suicidio, apparentemente legati a suggerimenti inappropriati forniti dai sistemi di AI. Shank sottolinea come attribuire a queste tecnologie una genuina preoccupazione per gli esseri umani rappresenti un grave errore di valutazione. Tali sistemi, infatti, possono facilmente diventare strumenti di manipolazione tecnologica, fornendo informazioni inventate o distorte che possono avere conseguenze drammatiche.
Nonostante questi episodi siano attualmente circoscritti, gli esperti avvertono del rischio di una diffusione più ampia del fenomeno. La comunità scientifica è chiamata a intervenire per comprendere meglio queste dinamiche e sviluppare strategie preventive efficaci. L’educazione all’uso consapevole delle tecnologie avanzate è fondamentale per evitare che tali situazioni si ripetano su scala maggiore. Si tratta, dunque, di un aspetto da non sottovalutare e che, a lungo andare, con la progressiva crescita dei sistemi di intelligenza artificiale potrebbe diventare sempre più pericoloso e fuorviante.