Un recente articolo pubblicato da TechCrunch pratiche di Google nello sviluppo del suo modello di intelligenza artificiale Gemini
Alcuni contractor incaricati da Google di valutare le prestazioni di Gemini hanno notato che alcune risposte presentavano un'impronta sorprendentemente simile a quella di Claude. Tra le caratteristiche rilevate ci sarebbe una particolare enfasi sulla sicurezza e una tendenza a rifiutare richieste che potrebbero risultare inappropriate o problematiche
Questa pratica, se confermata, potrebbe entrare in conflitto con i termini di servizio di Anthropic
Anthropic muoverà azioni legali contro Google?
Google ha dichiarato di confrontare regolarmente i propri modelli con quelli di aziende concorrenti, ma ha evitato di chiarire se avesse ottenuto l’autorizzazione esplicita di Anthropic per l’utilizzo delle risposte di Claude.
Sebbene il confronto tra modelli AI sia una pratica diffusa nel settore, attingere direttamente agli output di un sistema concorrente per migliorare il proprio potrebbe costituire una violazione contrattuale, oltre che sollevare importanti interrogativi sul piano etico. Questo episodio mette in evidenza le sfide crescenti nello sviluppo di tecnologie basate sull’intelligenza artificiale, dove la tutela della proprietà intellettuale e la competizione tra aziende diventano questioni centrali.
Non è ancora chiaro se Anthropic deciderà di intraprendere azioni legali contro Google. Tuttavia, questa vicenda potrebbe avere ripercussioni significative sul futuro dell’IA, stabilendo nuovi standard e precedenti per quanto riguarda l’uso corretto e legale dei dati e dei modelli nel settore.
Se vuoi aggiornamenti su su questo argomento inserisci la tua email nel box qui sotto:
Compilando il presente form acconsento a ricevere le informazioni relative ai servizi di cui alla presente pagina ai sensi dell'informativa sulla privacy