Nessun risultato. Prova con un altro termine.
Guide
Notizie
Software
Tutorial

Animate Anyone: il tool capace di creare deepfake in full-motion

Grazie ad Animate Anyone sarà possibile realizzare dei deepfake capaci di muovere il corpo in full-motion, con risultati eccezionali.
Animate Anyone: il tool capace di creare deepfake in full-motion
Grazie ad Animate Anyone sarà possibile realizzare dei deepfake capaci di muovere il corpo in full-motion, con risultati eccezionali.
Link copiato negli appunti

I deepfake sono spesso considerati come una delle più grandi minacce dell’intelligenza artificiale. Fino ad oggi però, si trattava di immagini fisse con piccoli movimenti. Adesso i ricercatori dell’Institute for Intelligent Computing del Gruppo Alibaba hanno sviluppato un nuovo strumento, chiamato Animate Anyone, capace di creare deepfake full-motion. I modelli image-to-video iniziano estraendo dettagli, come caratteristiche del viso, pattern e pose, da un'immagine di riferimento come una foto di una modella che indossa un abito in vendita. Quindi viene creata una serie di immagini in cui questi dettagli vengono mappati su pose leggermente diverse, che possono essere catturate dal movimento o estratte da un altro video. Ciò non è una novità, ma gli LLM precedenti avevano diversi problemi soprattutto a livello di allucinazioni. Il modello doveva infatti generare da zero dettagli plausibili, con risultati tutt’altro che convincenti. Animate Anyone ha migliorato il tutto, anche se ancora lontano dall'essere perfetto.

Animate Anyone: il  nuovo livello dei deepfake

Animate Anyone porta i modelli image-to-video al livello successivo. Utilizza tecniche avanzate per mantenere i dettagli coerenti e i movimenti fluidi combinando diversi modelli per i dettagli come ReferenceNet, un post guider per il controllo e una sovrapposizione temporale per transizioni più fluide. Questo strumento analizza semplicemente l'immagine e adatta diverse versioni ritoccate dell'immagine a uno schema di movimento attuale. Nell’esempio proposto dall’azienda possono notare persone e personaggi anime danzare all'interno dell'inquadratura con interruzioni o rumori minimi o nulli. I risultati sono così reali che, se non avvisati, gli utenti possono sbagliarsi facilmente e credere che si tratti di un video reale.

I creatori del progetto, Li Hu, Xin Gao, Peng Zhang, Ke Sun, Bang Zhang e Liefeng Bo, hanno pubblicato il loro progetto su GitHub e il loro articolo è disponibile su arXiv. Il team di ricerca ha anche reso anche disponibile il codice e i video dimostrativi su GitHub, per consentire ad altri sviluppatori di lavorare sulla tecnologia e persino di utilizzarla nelle loro app o servizi. Animate Anyone è ancora da migliorare, ma nel prossimo futuro sarà possibile raggiungere risultati sempre più convincenti. Ciò porta comunque a problemi di natura etica. Cadendo nelle mani sbagliate, questo strumento può causare problemi anche gravi. I ricercatori faranno qualcosa per evitare che ciò accade?

Ti consigliamo anche