OpenAI avrebbe un sistema per la filigrana del testo creato da ChatGPT e uno strumento per rilevare la filigrana pronto da circa un anno. Secondo quanto riportato dal Wall Street Journal, l'azienda è divisa sulla sua eventuale pubblicazione. Da un lato, sembra una decisione responsabile, ma dall'altro, potrebbe danneggiare i suoi profitti. La filigrana di OpenAI è descritta come la regolazione del modo in cui il modello prevede le parole e le frasi più probabili che seguiranno quelle precedenti, creando uno schema rilevabile. Questa può essere un potenziale vantaggio per gli insegnanti che cercano di dissuadere gli studenti dall’usare l’AI. Il WSJ riporta che l'azienda ha scoperto che la filigrana non ha influenzato la qualità del testo in uscita dal suo chatbot. Tuttavia, in un sondaggio interno, "le persone in tutto il mondo hanno sostenuto l'idea di uno strumento di rilevamento dell'AI con un margine di quattro a uno".
OpenAI: filigrana di ChatGPT efficace al 99,9%
Dopo che il WSJ ha pubblicato la sua storia, OpenAI ha confermato nel suo blog di aver lavorato sulla filigrana del testo di ChatGPT. L'azienda afferma che il suo metodo è molto accurato ("efficace al 99,9%", secondo i documenti consultati dal WJS) e resistente a "manomissioni, come la parafrasi". Tuttavia, afferma che tecniche come la riformulazione con un altro modello lo rendono "banale da aggirare da parte di malintenzionati". L'azienda afferma inoltre di essere preoccupata per la stigmatizzazione dell'utilità degli strumenti di intelligenza artificiale per i non madrelingua. Ad oggi sembra che OpenAI sia anche preoccupata che l'uso della filigrana possa allontanare gli utenti di ChatGPT. Quasi il 30% degli intervistati per il sondaggio ha dichiarato all'azienda che, se fosse implementata la filigrana, utilizzerebbe meno il software.
Nonostante ciò, alcuni dipendenti ritengono ancora che la filigrana sia efficace. Tuttavia, alla luce dei fastidiosi sentimenti degli utenti, il WSJ afferma che alcuni hanno suggerito di provare metodi che sono "potenzialmente meno controversi tra gli utenti, ma non provati". Nell'aggiornamento del post del blog, l'azienda ha affermato di essere "nelle prime fasi di esplorazione” dell'incorporamento di metadati. OpenAI afferma inoltre che è ancora "troppo presto" per sapere quanto bene funzionerà. Tuttavia, dal momento che viene sfruttata la crittografia, non ci sarebbero falsi positivi.