Meta, het sociale mediareus, heeft onlangs zijn innovatieve AI-modellen voor video-generatie en beeldbewerking onthuld. Deze state-of-the-art modellen bevinden zich nog in de experimentele fase, maar de eerste resultaten suggereren dat ze baanbrekend kunnen zijn voor content creators, kunstenaars en animators.
Het Onthullen van de Kracht van Emu Video en Emu Edit
De twee AI-modellen die door Meta zijn geïntroduceerd, zijn Emu Video en Emu Edit. Emu Video, een verbetering van Meta’s vorige Emu-model, kan videoclips genereren uit tekst- en beeldinvoer. Aan de andere kant richt Emu Edit zich op beeldmanipulatie, met een verbeterde precisie in beeldbewerking.
Emu Video maakt gebruik van een unieke “gefactoriseerde” benadering, waarbij het trainingsproces in twee stappen wordt verdeeld om het model responsief te maken voor verschillende invoeren. Het genereert eerst beelden op basis van een tekstprompt, en maakt vervolgens een video met zowel de tekst als het gegenereerde beeld. Dit model kan ook afbeeldingen “animeren” op basis van een tekstprompt.
In tegenstelling tot andere modellen die vertrouwen op een diepe cascade van modellen, maakt Emu Video slechts gebruik van twee diffusiemodellen om 512×512 vier seconden durende video’s te genereren met 16 frames per seconde. Emu Edit stelt gebruikers daarentegen in staat om achtergronden toe te voegen of te verwijderen, kleur- en geometrietransformaties uit te voeren, en afbeeldingen zowel lokaal als globaal te bewerken.
Meta’s Toewijding aan Precisie en Responsiviteit
Meta benadrukt dat het primaire doel van deze modellen niet alleen is om “geloofwaardige” beelden te produceren. In plaats daarvan ligt de focus op het alleen wijzigen van de pixels die relevant zijn voor het bewerkingsverzoek met de grootst mogelijke precisie. Als bijvoorbeeld de instructie is om de tekst “Aloha!” aan een baseballpet toe te voegen, zorgt het model ervoor dat de pet zelf onveranderd blijft.
Emu Edit is getraind met behulp van computervisietaken met een dataset van 10 miljoen gesynthetiseerde afbeeldingen, elk met een invoerafbeelding, een taakbeschrijving en een doeluitvoerafbeelding. Meta beweert dat dit tot nu toe de grootste dataset in zijn soort is.
AI-modellen Trainen met Massale Datasets
Het oorspronkelijke Emu-model is getraind met een verbijsterende 1,1 miljard gegevens, waaronder foto’s en bijschriften die door gebruikers op Facebook en Instagram zijn gedeeld. Dit werd onthuld door CEO Mark Zuckerberg tijdens het Meta Connect-evenement in september.
Ondanks het potentieel van deze AI-tools, is Meta voorzichtig geweest bij hun implementatie vanwege nauwlettend toezicht door toezichthouders. Zo kondigde Meta onlangs aan dat het politieke campagnes en adverteerders niet zal toestaan om zijn AI-tools te gebruiken om advertenties te maken op Facebook en Instagram.
Naarmate we dieper ingaan op de wereld van AI en de toepassingen ervan, kunnen platforms zoals cryptoview.io waardevolle inzichten bieden in het snel evoluerende technologische landschap. Met zijn uitgebreide functies kan cryptoview.io gebruikers helpen op de hoogte te blijven van de laatste ontwikkelingen in de techwereld.
