Il modello multimodale GPT-4 Vision (GPT-4V), annunciato da OpenAI pochi mesi fa, cambierà il modo di sfruttare ChatGPT, poiché gli utenti potranno ricevere informazioni su un’immagine caricata. Tuttavia, l’azienda statunitense ha dichiarato di stare lavorando per implementare tutte le misure di sicurezza necessarie, per evitare che vengano esposti dati privati o generati output inappropriati durante la gestione delle immagini inviate. In particolare, OpenAI sta cercando di bloccare la capacità del modello di riconoscere volti, di commentare l’aspetto delle persone, di trovare la posizione esatta dei luoghi, ecc. La società fondata da Sam Altman vuole inoltre impedire che GPT-4 Vision possa risolvere automaticamente CAPTCHA o generare informazioni false. In un documento recentemente pubblicato da OpenAI, ha sottolineato che “In alcuni casi, il modello potrebbe non riuscire a identificare le informazioni nelle immagini. Potrebbe perdere testo o caratteri, trascurare simboli matematici o non riconoscere posizioni spaziali e mappature di colore”.
GPT-4 Vision: i rischi di un modello non ancora perfetto
I limiti di GPT-4 Vision indicano che questo LLM non può svolgere alcuni compiti. I più rischiosi riguardano ad esempio l’identificazione di droghe o di funghi velenosi. Ancora più gravi sono poi i risultati relativi ai consigli medici errati. Uno dei più grandi rischi di questo modello riguarda però la disinformazione. Com’è noto GPT-4V è capace di generare testo e immagini. Questa funzionalità potrebbe essere utilizzata per diffondere fake news su larga scala. Come ha ancora ricordato OpenAI: “precedenti lavori hanno dimostrato come gli utenti hanno maggiori probabilità di credere ad affermazioni vere e false, quando queste vengono presentate insieme ad un’immagine. Inoltre, questi hanno anche falsi ricordi di titoli inventati se questi sono accompagnati da una foto. Dall’altro lato, è noto che il coinvolgimento con determinati contenuti aumenta se viene associata un’immagine”.
GPT-4 Vision non è un modello perfetto e deve essere migliorato sotto diversi punti di vista. OpenAI ha quindi deciso di avvertire gli utenti sui possibili pericoli a cui si va in contro quando si utilizza l’intelligenza artificiale generativa. I punti da sistemare sono molti (possibile discriminazione, violazione della privacy, disinformazione…). Prima di rilasciare a livello globale la funzionalità di riconoscimento delle immagini, l’azienda statunitense dovrà lavorare parecchio e rendere il suo modello sicuro al 100%.