Meta kündigt Make-A-Video an, das Video aus Text generiert

Meta kündigt Make-A-Video an, das Video aus Text generiert

Standbild aus einem KI-generierten Video eines Bären, der ein Porträt zeichnet.
Zoomen / Standbild aus einem KI-generierten Video eines Bären, der ein Porträt zeichnet.

Heute für tot erklärt Mach ein Videoist ein KI-gestützter Videogenerator, der neue Videoinhalte aus Text- oder Bildaufforderungen erstellen kann, ähnlich wie vorhandene Fotomontage-Tools wie z DALL-E Und die stabile Verbreitung. Es kann auch Varianten bestehender Videos erstellen, obwohl es noch nicht für die allgemeine Verwendung verfügbar ist.

Auf der Werbeseite „Make-A-Video“ zeigt Meta Beispielvideos aus Text, darunter „Junges Paar geht im strömenden Regen spazieren“ und „Teddybär malt ein Bild“. Es demonstriert auch die Fähigkeit von Make-A-Video, ein unbewegtes Quellbild aufzunehmen und zu animieren. Beispielsweise kann ein Standbild einer Meeresschildkröte, nachdem es durch ein KI-Modell verarbeitet wurde, so aussehen, als würde es schwimmen.

Die Schlüsseltechnologie hinter Make-A-Video – und warum sie früher kam einige Experten Erwartet – es baut auf bestehender Arbeit mit Text-zu-Bild-Synthese auf, die mit Bildgeneratoren wie DALL-E von OpenAI verwendet wird. Im Juli kündigte Meta sein KI-Modell für die Text-zu-Bild-Konvertierung an eine Szene machen.

Anstatt das Make-A-Video-Modell mit gekennzeichneten Videodaten zu trainieren (z. B. kommentierte Beschreibungen der beschriebenen Aktionen), nahm Meta stattdessen die Bildsynthesedaten (trainierte Standbilder mit Untertiteln) und wendete die nicht gekennzeichneten Videotrainingsdaten an, so dass die Modell erlernt zu erkennen An der Stelle, an der eine Text- oder Bildaufforderung zu Zeit und Ort vorhanden sein kann. Dann kann es vorhersagen, was nach dem Bild kommt, und die Szene für kurze Zeit in Bewegung anzeigen.

Bücher tot drin weiße Papiere. „Das erweiterte räumlich-zeitliche Netzwerk enthält neue Interesseneinheiten, die die zeitliche Weltdynamik aus einer Reihe von Videoclips lernen.“

Siehe auch  Spieler von Halo Infinite finden eine Möglichkeit, die Zusammenarbeit auf geteiltem Bildschirm hinzuzufügen

Meta hat keine Ankündigung darüber gemacht, wie und wann Make-A-Video öffentlich verfügbar werden könnte oder wer darauf zugreifen kann. Meta-Datei speichert Registrieren Sie sich von Leute können es ausfüllen, wenn sie daran interessiert sind, es in Zukunft auszuprobieren.

Meta räumt ein, dass die Möglichkeit, realistische On-Demand-Videos zu erstellen, einige soziale Risiken birgt. Am Ende der Anzeigenseite sagt Meta, dass alle KI-generierten Videoinhalte von Make-A-Video ein Wasserzeichen enthalten, um „zu gewährleisten, dass die Zuschauer wissen, dass das Video KI-generiert und kein aufgenommenes Video ist“.

wenn Datum gibt es Beweise, Wettbewerber Open-Source-Text-zu-Video-Modelle können folgen (einige, wie z CogVideoexistiert bereits), wodurch der Meta-Wasserzeichenschutz irrelevant werden könnte.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert