Hvordan revolutionerer AI-modeller videogenerering og billedredigering?

Hvordan revolutionerer AI-modeller videogenerering og billedredigering?

CryptoView.io APP

Røntgen-krypto-markeder

Meta, den sociale mediegigant, har for nylig afsløret sine innovative AI-modeller til videogenerering og billedredigering. Disse topmoderne modeller er stadig i eksperimentfasen, men tidlige resultater antyder, at de kan ændre spillet for indholdsoprettelse, kunstnere og animationsfolk.

Afsløring af Emu Video og Emu Edit

De to AI-modeller, som Meta har introduceret, er Emu Video og Emu Edit. Emu Video, en forbedring af Metas tidligere Emu-model, kan generere videoklip ud fra tekst- og billedeindgange. På den anden side fokuserer Emu Edit på billedmanipulation og tilbyder forbedret præcision i billedredigering.

Emu Video anvender en unik “faktoriseret” tilgang, der opdeler træningsprocessen i to trin for at gøre modellen responsiv over for forskellige indgange. Først genererer den billeder baseret på en tekstprompt, derefter skaber den en video ved hjælp af både teksten og det genererede billede. Denne model kan også “animere” billeder baseret på en tekstprompt.

I modsætning til andre modeller, der er afhængige af en dyb kaskade af modeller, anvender Emu Video kun to diffusionmodeller til at generere 512×512 firesekunders videoer med 16 billeder pr. sekund. Emu Edit muliggør derimod, at brugerne kan tilføje eller fjerne billedbaggrunde, udføre farve- og geometriændringer samt redigere billeder både lokalt og globalt.

Metas forpligtelse til præcision og respons

Meta lægger vægt på, at disse modellers primære mål ikke bare er at producere “troværdige” billeder. I stedet fokuseres der på kun at ændre de pixler, der er relevante for redigeringsforespørgslen med størst mulig præcision. For eksempel, hvis instruktionen er at tilføje teksten “Aloha!” til en baseballkasket, sørger modellen for, at kasketten selv forbliver uændret.

Emu Edit blev trænet ved hjælp af computer vision-opgaver med et datasæt på 10 millioner syntetiserede billeder, hver med et inputbillede, en opgavebeskrivelse og et målrettet outputbillede. Meta hævder, at dette er det hidtil største datasæt af denne art.

Træning af AI-modeller med massive datasæt

Den originale Emu-model blev trænet ved hjælp af en imponerende mængde på 1,1 milliarder datastykker, herunder fotos og billedtekster delt af brugere på Facebook og Instagram. Dette blev afsløret af administrerende direktør Mark Zuckerberg på Meta Connect-begivenheden i september.

Trods potentialet for disse AI-værktøjer har Meta været forsigtig med deres implementering på grund af tæt kontrol fra myndighederne. For eksempel annoncerede Meta for nylig, at det ikke vil tillade politiske kampagner og annoncører at bruge sine AI-værktøjer til at oprette annoncer på Facebook og Instagram.

Som vi dykker dybere ned i verdenen af AI og dens anvendelser, kan platforme som cryptoview.io give uvurderlige indblik i det hastigt udviklende teknologiske landskab. Med sine omfattende funktioner kan cryptoview.io hjælpe brugerne med at holde sig opdateret med de seneste udviklinger i tech-verdenen.

Udforsk cryptoview.io nu

Kontroller RSI for alle krypto markeder

RSI Weather

Alle RSI'er for de største volumener med et enkelt blik.
Brug vores værktøj til øjeblikkeligt at se markedssentimentet eller kun dine favoritter.