Adobe MAX London: Firefly Model 4 mit KI von Google und OpenAI

Michael Schäfer
6 Kommentare
Adobe MAX London: Firefly Model 4 mit KI von Google und OpenAI
Bild: Adobe

Adobe hat auf seiner hauseigenen Konferenz mit dem Firefly Image Model 4 ein leistungsstarkes neues KI-Modell vorgestellt, das nun auch mit Modulen von Partnern wie OpenAI und Google arbeitet. In den kommenden Monaten soll es weiter ausgebaut werden. Auch Adobe Express hat neue KI-Funktionen erhalten.

Mit dem Firefly Image Model 4 präsentiert Adobe sein bislang schnellstes Modell dieser Reihe, das laut eigener Aussage „lebensechte Bildqualität“ sowie eine Auflösung von bis zu 2k bieten und gleichzeitig deutlich mehr kreative Kontrolle ermöglichen soll. Dazu zählen etwa die gezielte Steuerung von Struktur, Stil, Kamerawinkel und Zoom eines Bildes. Die höhere Auflösung soll zudem beim Druck dafür sorgen, dass es zu keinerlei Qualitätseinbußen kommt. Für besonders komplexe Motive mit feineren Strukturen steht das Firefly Image Model 4 Ultra zur Verfügung, das vor allem durch seine Detailgenauigkeit und Realitätsnähe überzeugen soll.

Firefly Video aus Beta-Phase entlassen

Nach der öffentlichen Beta im Februar hat Adobe zudem das Firefly Video Model offiziell eingeführt, welches als „das erste IP-freundliche, produktionsfähige Videomodell der Branche“ beschrieben wird. Es soll Kreativen die Möglichkeit geben, hochwertige Video-Clips mit einer Länge von bis zu fünf Sekunden und einer Auflösung von bis zu 1080p auf Basis von Texteingaben oder Bildern zu erstellen. Zudem stellt Adobe zahlreiche Steueroptionen bereit, mit denen sich unter anderem die Atmosphäre eines Clips beeinflussen und benutzerdefinierte Motion-Design-Elemente gestalten lassen. Auch Bilder lassen sich zur Definition von Stil und Komposition einbinden. Das neue Modell wird laut Adobe bereits von Marken wie PepsiCo/Gatorade oder Stagwell zur Produktion von Inhalten eingesetzt.

Auch das Adobe Vector Model wurde vorgestellt. Es verfügt über eine neue Text-zu-Vektorgrafik-Funktion, die besonders die Erstellung editierbarer, vektorbasierten Grafiken, Logo-Variationen, Verpackungen, Symbole, Szenen und Muster durch einfache, in Alltagssprache formulierte Eingaben erleichtern soll.

Generative KI-Modelle jetzt mit Partnern

Um die Möglichkeiten für Kreative zu erweitern, hat Adobe Partner mit ins Boot geholt. Nutzer sind nun nicht mehr ausschließlich auf Adobes eigene KI-Modelle angewiesen, sondern können auch auf Bildgeneratoren von OpenAI, Imagen 3 und Veo 2 von Google sowie Flux 1.1 Pro zurückgreifen. Der Wechsel zwischen den einzelnen Modellen soll dabei jederzeit reibungslos möglich sein, auch eine Kombination der Modelle ist vorgesehen. Dabei legt Adobe Wert auf Transparenz, bei jedem Schritt soll angezeigt werden, welches Modell gerade verwendet wird. Zudem sorgen Content Credentials dafür, dass generierte Inhalte eindeutig als KI-Erzeugnisse gekennzeichnet werden – inklusive der Information, mit welchem Modell sie erstellt wurden. In den kommenden Monaten sollen weitere Partner wie fal.ai, Ideogram, Luma, Pika und Runway hinzukommen.

Hilfe für neue Ideen

Das weiterhin im öffentlichen Beta-Status befindliche Firefly Boards soll Kreativen eine KI-gestützte Oberfläche zur Erstellung von Moodboards, Storyboards und anderen Konzepten für den kreativen Prozess bieten. Die Ideen lassen sich dabei gemeinsam weiterentwickeln und direkt in die Produktion überführen.

Zur besseren Integration der Adobe-Tools in Unternehmensabläufe stellt der Konzern mit Firefly Services eine Sammlung von generativen KI- und Kreativ-APIs zur Verfügung. Diese lassen sich in bestehende Infrastrukturen einbinden und sollen dabei helfen, sich wiederholende und zeitintensive Aufgaben effizienter zu gestalten. So soll etwa die Beta-Version der Photoshop-API Bildbearbeitungsprozesse beschleunigen, die Text-to-Video-API und die Image-to-Video-API ermöglichen zudem die Erstellung von Live-Action-Clips aus Texteingaben und Standbildern. Ergänzend dazu stehen bald die neueste Texteingabe-Schnittstelle im Firefly Image Model 4 sowie eine Avatar-API zur Verfügung, mit der Teams Videoinhalte für Produktbeschreibungen und ähnliche Zwecke erzeugen können.

Adobe Express erhält neue KI-gestützte Video-Tools

Auch bei Adobe Express gibt es Neuerungen. Das Grafikdesign-Tool bietet nun Funktionen wie Clip Maker, Dynamic Animation und Generate Similar. Damit lassen sich Videoinhalte auf einfache Weise bearbeiten und erzeugen, weiter sollen sich statische Bilder mit „lebensechten Bewegungen aufpeppen “ lassen können. Die Möglichkeiten der neuen Funktionen sollen dabei vielfältig sein – von der Umwandlung eines Podcasts in Social-Media-Clips bis hin zu Kundenpräsentationen, die mit personalisierten Videobotschaften angereichert werden können.

Unsere Bots RTX 50 kaufen und RX 9000 kaufen bieten jetzt einen Filter auf Deals⭐ und zeigen den Preistrend📉.