Nessun risultato. Prova con un altro termine.
Guide
Notizie
Software
Tutorial

OpenAI lancerà nuovo comitato di sicurezza “indipendente”

Secondo quanto riportato, il prossimo comitato di sicurezza di OpenAI potrebbe anche bloccare il rilascio dei suoi futuri modelli.
OpenAI lancerà nuovo comitato di sicurezza “indipendente”
Secondo quanto riportato, il prossimo comitato di sicurezza di OpenAI potrebbe anche bloccare il rilascio dei suoi futuri modelli.
Link copiato negli appunti

OpenAI sta trasformando il suo Safety and Security Committee in un "Board oversight committee" indipendente. Come riportato in un post del blog di OpenAI, tale comitato avrà l'autorità di ritardare i lanci dei modelli per problemi di sicurezza. Il comitato ha raccomandato di creare il board indipendente dopo una recente revisione di 90 giorni dei "processi e delle misure di sicurezza relativi alla sicurezza" di OpenAI. Il comitato, presieduto da Zico Kolter e composto da Adam D’Angelo, Paul Nakasone e Nicole Seligman, “verrà informato dalla dirigenza aziendale sulle valutazioni di sicurezza per le principali release di modelli e, insieme al Consiglio di amministrazione al completo, eserciterà la supervisione sui lanci di modelli, inclusa l’autorità di ritardare una release fino a quando non saranno affrontate le preoccupazioni sulla sicurezza”, afferma OpenAI. Il Consiglio di amministrazione al completo di OpenAI riceverà anche “briefing periodici” su “questioni di sicurezza e protezione”.

OpenAI: Comitato per la sicurezza simile all’Oversight Board di Meta

I membri del comitato per la sicurezza di OpenAI sono anche membri del Consiglio di amministrazione più ampio dell'azienda. Non è quindi chiaro quanto il comitato sia effettivamente indipendente o come sia strutturata tale indipendenza. Ad esempio, il CEO Sam Altman era precedentemente nel comitato, ma non lo è più. Con l'istituzione di un comitato di sicurezza indipendente, sembra che OpenAI stia adottando un approccio simile a quello dell'Oversight Board di Meta. Quest’ultimo esamina alcune delle decisioni di Meta in materia di politica sui contenuti e può prendere decisioni che Meta deve seguire. In questo caso però, nessuno dei membri dell'Oversight Board fa parte del Consiglio di amministrazione.

La revisione del Comitato per la sicurezza e la protezione di OpenAI ha anche contribuito a "ulteriori opportunità di collaborazione e condivisione di informazioni nel settore per migliorare la sicurezza del settore dell'intelligenza artificiale". L'azienda afferma inoltre di aver intenzione di trovare nuovi modi per spiegare il proprio lavoro sulla sicurezza, offrendo più opportunità per test indipendenti dei propri sistemi. Tutto ciò avrà lo scopo di rendere la tecnologia AI più sicura per tutti.

Ti consigliamo anche