Photo: teh_z1b – shutterstock.com
Dying in young Zeit become popular AI-Art-Generators, etwa Midjourney, DALL-E or Stable Diffusion, they themselves in former Linie dadurch aus, Text in static Bilder zu verwandeln. Facebook and Instagram Mutterkonzern Meta trains es mit der generative KI nun ein Stück weiter and hat Make-A-Video vorgestellt:
We are pleased to introduce Make-A-Video, our newest in #GenerativeAI Research! With just a few words, this state-of-the-art AI system generates high-quality videos from text prompts.
Have an idea you want to see? Reply with your prompt using #MetaAI and we will share more results. pic.twitter.com/q8zjiwLBjb
— MetaAI (@MetaAI) September 29, 2022
Der AI-Art-Generator aus dem Hause Zuckerberg combined AI-Art and interpolation, um kurze Videos so Stel – die ein bisschen and herkömmliche GIFs erinnern. “Das System learned a hand from Text-Bild-Paaren, wie die Welt aussieht, and a hand from Video material ohne zugehörigen Text, wie sich die Welt bewegt. Demo”, writes der Konzern in einer Pressemitteilung.
Dabei zeichnet sich Metas AI-Art-Generator im Wesentlichen durch three Features aus:
1. Generate Videos aus Text
Aus Texteingaben Kreiert Make-A-Video entsprechendes Video. So erzeugt der etwas längliche Input “A fluffy baby sloth with an orange knitted hat tries to figure out a laptop close up, highly detailed studio lighting screen that reflects in his eye” following comments:
2. Generate videos from static Bildern
Metas KI-Art-Generator is also in der Lage, two static Bilder miteinander zu einem Video zu “vernetzen” – also die zwischenliegenden Einzelbilder per KI zu erzeugen en einzufügen. Of course, static Einzelbilder could also be changed in Bewegung. So lassen zum Beispiel antike Gemälde in Bewegtbild verwandeln:
3. Different videos can be set
Schließlich erzeugt Make-A-Video auch aus vorhandenem Video-Input Variations. Diese unterscheid sich vom Original in diversn Details beispielsweise Farbgebung or Bildeinstellung.
Wie de KI-Forscher van Meta im zugehörigen Research Paper (PDF) erklären, baut Make-A-Video auf den kürzlich erzielten Fortschritten im Bereich Text-to-Image-Generation (T2I) auf en übersetzt diese in Text-to-Video- Generation (T2V). “Make-A-Video setzt in sämtlichen Aspekten – räumliche and zeitliche Auflösung sowie Texttreue – new Standards, wenn es darum geht, Videos aus Text zu erzeugen – Sowohl nach quantitative als auch qualitative Maßstäben”, wrote the Forscher selbstbewust.
Who Meta Mitteilt, spoiled this AI-Art-Generator free of data, was der Forschung a sisterätzliche Ebene der Transparenz verleihen soll: “Wir teilen diese Forschungsergebnisse auf dem Gebiet der generative KI mit der Community, um ihr Feedback einzuholen and were unser Responsible- AI-Framework useful, um unseren Ansatz für diese new Technology weiterzuentwickeln.”
Also Mark Zuckerberg feiert Make-A-Video im Rahmen and Facebook posts: “Das ist ein ziemlich erstaunlicher Fortschritt. muss, who sich die Pixel im Laufe der Zeit verändern zijn. Text-Bild-Erzeugung anzuwenden”, schreibt der Meta-CEO .
In der Tat, Meta mit seinem AI-Art-Generator shines that AI-Art in a new Bewegtbild-Zeitalter zu überführen. Ähnliche Features distributed by Midjourney and Stable Diffusion cannot be used for a long time over the entire length. Wenn es soweit ist, dürfte uns eine Flut von KI-generierten Video artworks erwarten. If so, say a Blick in the Make-A-Video-Beispielgalerie: