Vi er veldig glade for å introdusere Aurora (Audio-driven Ultra-Realistic Rendering of Reactive Avatars) – vårt siste tekniske gjennombrudd: en ny toppmoderne AI-grunnmodell for generering av avatarvideo. Fra ett enkelt bilde + et lydklipp produserer Aurora en fotorealistisk video av en person som snakker eller synger – med uttrykksfullhet i hele kroppen, ikke bare leppesynkronisering. Aurora er en diffusjonsbasert multimodal modell som smelter sammen lyd, bilde og valgfrie tekstinnganger for å generere tidsmessig sammenhengende, følelsesmessig justert bevegelse over ansiktet, øynene, hendene og den generelle holdningen. Se demoer + fullstendig detaljert blogginnlegg her: 🔗 Hva gjør dette kraftig: - Zero-shot-generering med høyeste visuelle gjengivelse Identitetskonsistens over lange videoer - Naturlige bevegelser, ansiktsnyanser og subtile bevegelser - Robust ytelse på tvers av ulike scenarier Det er en av de mest naturlige, uttrykksfulle og kontrollerbare avatarmodellene vi har sett – og jeg er utrolig stolt av teamet mitt for å få det til.
1681F3
1681F34. sep., 00:57
🆕 I dag introduserer vi Aurora - den toppmoderne bildet til avatar-modellen. Fra et enkelt bilde og en stemme genererer den ultrarealistiske avatarer som beveger seg, snakker og føles ekte. Med Aurora kan du skalere de mest kreative markedsføringsideene dine. Aurora-avatarer sier ikke bare replikker, de uttrykker dem, og gjør ideene dine levende på skjermen. Kommenter "Aurora" og RT for å få tidlig tilgang i dag.
10,18K