Nessun risultato. Prova con un altro termine.
Guide
Notizie
Software
Tutorial

OpenAI rivela finalmente perché ChatGPT non dice "David Meyer"

Dopo svariate congetture (più o meno fantasiose) da parte degli utenti, OpenAI ha deciso di rivelare l’arcano sul mistero di David Meyer.
OpenAI rivela finalmente perché ChatGPT non dice
Dopo svariate congetture (più o meno fantasiose) da parte degli utenti, OpenAI ha deciso di rivelare l’arcano sul mistero di David Meyer.
Link copiato negli appunti

Lo scorso weekend sono uscite strane notizie su un certo David Mayer. Questo nome non era di tendenza a causa di un evento importante o di un momento virale, ma a causa di uno strano glitch in ChatGPT. Gli utenti non riuscivano a far apparire questo nome sul chatbot di OpenAI, non importa quante volte ci provassero. ChatGPT si bloccava a metà, affermando "qualcosa è andato storto", oppure si rifiutava categoricamente di rispondere. Ciò ha fatto precipitare Internet in una spirale di speculazioni. In molti si sono chiesti chi è David Mayer e perché ChatGPT lo sta ignorando.

Il mistero si è accresciuto. Le teorie spaziavano da banali a assolutamente folli. Alcuni pensavano che Mayer potesse essere un utente medio che esercitava il suo "diritto all'oblio". Quest’ultima è una legge presente nel Regno Unito e nell'UE che consente alle persone di cancellare i propri dati personali online. Altri si sono affidati a teorie cospirative, chiedendosi se fosse qualcuno di potente, forse persino della famosa famiglia Mayer de Rothschild. Tuttavia, lo stesso David Mayer de Rothschild ha rapidamente smentito questa teoria, definendola una sciocchezza e prendendo le distanze dall'intero caso. Dopo alcune ore, OpenAI ha finalmente chiarito la questione, spiegando che il problema non riguarda il GDPR o le richieste personali. Come riportato dal The Guardian, si tratta invece di un “problema” causato da uno strumento interno che ha erroneamente segnalato il nome di Mayer.

OpenAI: gli altri errori segnalati su ChatGPT

I glitch di ChatGPT non sono una novità. Un tempo, il chatbot di OpenAI aveva difficoltà a comprendere il sarcasmo. Inoltre, confondeva le date o a faceva affermazioni audaci ma sbagliate (e a volte lo fa ancora). OpenAI li inquadra sempre come growing pains, intoppi in un sistema che impara da un'enorme pila di dati. Risolvono una cosa, qualcos'altro va storto e gli utenti finiscono per essere sia divertiti che infastiditi. Ma questo non è solo un problema di ChatGPT. Anche altri strumenti di intelligenza artificiale hanno avuto la loro giusta quota di pasticci pubblici. I riassunti di ricerca AI di Google, ad esempio, una volta consigliavano di mettere la colla sulla pizza come un trucco culinario di prim'ordine. Non bisogna poi dimenticare il chatbot AI di Bing, che ha avuto una crisi esistenziale quando qualcuno gli ha fatto troppe domande personali.

Ti consigliamo anche