Meta, il gigante dei social media, ha recentemente svelato i suoi innovativi modelli AI per la generazione di video e l’editing di immagini. Questi modelli all’avanguardia sono ancora nella fase sperimentale, ma i primi risultati suggeriscono che potrebbero rivoluzionare il settore per creatori di contenuti, artisti e animatori.
Svelare il Potere di Emu Video e Emu Edit
I due modelli AI introdotti da Meta sono Emu Video e Emu Edit. Emu Video, un potenziamento del precedente modello Emu di Meta, può generare videoclip da input di testo e immagini. D’altra parte, Emu Edit si concentra sulla manipolazione delle immagini, offrendo una precisione migliorata nell’editing delle immagini.
Emu Video utilizza un approccio unico “fattorizzato”, dividendo il processo di addestramento in due fasi per rendere il modello reattivo a input diversi. Prima genera immagini basate su un prompt di testo, quindi crea un video utilizzando sia il testo che l’immagine generata. Questo modello può anche “animare” immagini basate su un prompt di testo.
A differenza di altri modelli che si basano su una cascata profonda di modelli, Emu Video utilizza solo due modelli di diffusione per generare video di 512×512 di quattro secondi a 16 frame al secondo. Emu Edit, d’altra parte, consente agli utenti di aggiungere o rimuovere sfondi delle immagini, eseguire trasformazioni del colore e della geometria, e modificare le immagini sia a livello locale che globale.
Impegno di Meta per la Precisione e la Reattività
Meta sottolinea che l’obiettivo principale di questi modelli non è solo quello di produrre immagini “credibili”. Invece, l’attenzione è concentrata sull’alterare solo i pixel rilevanti alla richiesta di modifica con la massima precisione. Ad esempio, se l’istruzione è quella di aggiungere il testo “Aloha!” a una visiera da baseball, il modello si assicura che la visiera stessa rimanga inalterata.
Emu Edit è stato addestrato utilizzando compiti di computer vision con un dataset di 10 milioni di immagini sintetizzate, ognuna con un’immagine di input, una descrizione del compito e un’immagine di output mirata. Meta sostiene che questo sia il più grande dataset del genere ad oggi.
Addestramento dei Modelli AI con Dataset Massicci
Il modello originale di Emu è stato addestrato utilizzando uno straordinario miliardo e cento milioni di dati, tra cui foto e didascalie condivise dagli utenti su Facebook e Instagram. Ciò è stato rivelato dal CEO Mark Zuckerberg all’evento Meta Connect a settembre.
Nonostante il potenziale di questi strumenti AI, Meta è stata cauta nel loro impiego a causa di un’attenta osservazione da parte dei regolatori. Ad esempio, Meta ha recentemente annunciato che non consentirà alle campagne politiche e agli inserzionisti di utilizzare i suoi strumenti AI per creare annunci su Facebook e Instagram.
Mentre ci addentriamo sempre più nel mondo dell’AI e delle sue applicazioni, piattaforme come cryptoview.io possono fornire preziosi approfondimenti sul panorama tecnologico in rapida evoluzione. Con le sue funzionalità complete, cryptoview.io può aiutare gli utenti a rimanere aggiornati sulle ultime novità nel mondo della tecnologia.
