Plakatkleber auf einem Baugerüst glättet ein frisch geklebtes Magazin-Cover-Plakat mit mehrsprachiger Typografie auf eine urbane Werbewand, Symbolbild für KI-generierte Bilder im physischen Raum und EU-Kennzeichnungspflicht

ChatGPT Images 2.0: OpenAIs neuer Maßstab für KI-Bilder

gpt-image-2 holt einen Rekord-Abstand in der LM Arena, bringt Reasoning ins Bildmodell und verändert die Kostenrechnung für Marketing und Produkt, während der EU AI Act die Kennzeichnungspflicht scharfstellt

Am 21. April 2026 hat OpenAI mit gpt-image-2 eine neue Generation der Bildgenerierung veröffentlicht. In der LM Arena liegt das Modell mit 1.512 Punkten 242 Punkte vor Google Nano Banana 2. Thinking Mode, Multi-Image-Batch mit bis zu 8 konsistenten Bildern und nahezu perfekte Typografie öffnen neue Use Cases für Marketing, Produkt und Kommunikation. Gleichzeitig greifen ab 2. August 2026 die Transparenzpflichten des EU AI Act für KI-generierte Inhalte.

Zusammenfassung

OpenAI hat am 21. April 2026 ChatGPT Images 2.0 mit dem API-Namen gpt-image-2 veröffentlicht. Das Modell erreicht in der LM Arena 1.512 Punkte und schlägt Nano Banana 2 (1.271 Punkte) mit 242 Punkten Abstand, dem größten je auf diesem Leaderboard gemessenen Vorsprung. Neu sind ein Thinking Mode mit Web-Suche, bis zu 8 kohärente Bilder aus einem Prompt mit Charakter-Kontinuität, nahezu 100 Prozent Typografie-Genauigkeit und flexible Seitenverhältnisse von 3:1 bis 1:3 in 2K-Auflösung. Über die API kostet ein 1024 x 1024 Bild in hoher Qualität 0,211 USD, der Thinking Mode ist an ChatGPT Plus (20 USD pro Monat), Pro, Business oder Enterprise gebunden. Für deutsche Unternehmen wird der Release durch den EU AI Act begleitet: Ab 2. August 2026 greift Artikel 50 mit maschinenlesbarer Kennzeichnung, Verstöße kosten bis zu 35 Mio EUR oder 7 Prozent des Weltumsatzes. OpenAI setzt C2PA Content Credentials automatisch, diese Metadaten verschwinden aber, sobald ein Screenshot entsteht oder die Datei in Formate ohne Metadaten-Support konvertiert wird. Empfehlung: Pilot im Marketing oder Produkt starten, AI-Act-konforme Policy bis Juli 2026 aufsetzen und eine Multi-Modell-Strategie aus gpt-image-2, Nano Banana 2 und stilisierten Spezialtools prüfen.

Einordnung: Was ChatGPT Images 2.0 wirklich ist

ChatGPT Images 2.0 ist ein klarer Generationssprung, kein Incremental Update. OpenAI hat am 21. April 2026 das Modell mit dem API-Namen gpt-image-2 veröffentlicht und es parallel in ChatGPT, Codex und der OpenAI API freigeschaltet. In der LM Arena eroberte es innerhalb von zwölf Stunden Platz 1 in allen drei Disziplinen: Text-to-Image, Single-Image-Edit und Multi-Image-Edit.

1.512
LM-Arena-Score von gpt-image-2, neuer Platz 1
+242
Punkte Abstand zu Nano Banana 2, Rekord auf dem Leaderboard
8
kohärente Bilder pro Prompt im Thinking Mode
2K
Standard-Auflösung, 4K im Beta

Der Release ordnet den Markt neu. Nano Banana 2 (Gemini 3.1 Flash Image) galt bis vor wenigen Tagen als Maß der Dinge, wie wir im Artikel zu Google Nano Banana AI beschrieben haben. Mit gpt-image-2 verschiebt OpenAI den Rahmen wieder Richtung eigener Plattform. Zielgruppe sind Unternehmen, die Bildgenerierung produktiv einsetzen, vor allem Marketing, Produkt, Corporate Communications und interne Kreativteams.

Within 12 hours of its release, gpt-image-2 had claimed the number 1 spot across every category on the Image Arena leaderboard by a plus 242 point margin, the largest lead ever recorded on that leaderboard.

VentureBeat ,
Features

Was das Modell konkret besser kann

Vier technische Sprünge prägen den Leistungsvorsprung. Sie adressieren die Schwachstellen, an denen bisherige Bildmodelle auch nach mehreren Iterationen gescheitert sind: unsauberer Text, fehlende Kontinuität in Serien, schwache Multilingualität und starre Formate.

1

Text-Rendering

Magazin-Cover, Infografiken, UI-Mockups und sogar Barcodes sind direkt im ersten Wurf lesbar. LM-Arena-Blindtests zeigen nahezu 100 Prozent Typografie-Genauigkeit.

2

Thinking Mode

Das Modell plant das Layout, sucht im Web nach aktuellen Fakten, prüft den eigenen Output und erzeugt bis zu 8 konsistente Bilder mit identischem Charakter, Stil und Objekt.

3

Multilinguale Schrift

Japanisch, Koreanisch, Chinesisch, Hindi und Bengali sind erstmals belastbar. Deutsche Umlaute und ß funktionieren nach ersten Praxistests zuverlässig.

4

Flexible Formate

Seitenverhältnisse von 3:1 Querformat bis 1:3 Hochformat direkt im Prompt wählbar. Standard 2K (2.048 x 2.048), 4K experimentell über fal.ai.

5

Web-Suche integriert

Im Thinking Mode kann gpt-image-2 während der Generierung auf aktuelle Informationen zugreifen, etwa für Preisangaben auf Speisekarten oder tagesaktuelle Ereignisse.

6

Output-Verifikation

Das Modell prüft nach der ersten Skizze, ob Text, Hände, Details stimmen, und bessert selbstständig nach. Weniger Iteration durch den Nutzer.

Thinking Mode ist ein vorgeschalteter Reasoning-Durchlauf, in dem das Modell Layout, Komposition und Text plant, bevor das eigentliche Bild gerendert wird. Er erhöht die Qualität deutlich, kostet aber 15 bis 120 Sekunden zusätzliche Latenz.

Die Multi-Image-Batch-Funktion ist für Unternehmen der praktischste Sprung. Eine 4er-Serie Instagram-Posts für ein Produkt mit gleichem Becher, gleicher Farbpalette und gleicher Markenführung entsteht aus einem Prompt, nicht aus vier nachträglich abgestimmten Einzelbildern. Für Landing Pages oder Katalog-Assets bedeutet das eine reduzierte Review-Schleife.

Warum Text-Rendering der eigentliche Hebel ist: Bis gpt-image-2 war Text auf KI-Bildern in 30 bis 50 Prozent der Fälle unbrauchbar. Jedes Magazin-Cover, jedes Produkt-Mockup und jedes Infografik-Konzept musste nachträglich per Photoshop korrigiert werden. Mit 99 Prozent Genauigkeit verschwindet dieser Arbeitsschritt, und damit eine der letzten Begründungen, warum KI-Bilder in der Produktion nur für Moodboards taugen.

Benchmark und Nano-Banana-2-Vergleich

Die LM Arena misst Bildmodelle im Blindvergleich: Nutzer bewerten Paare ohne zu wissen, welches Modell welche Ausgabe lieferte. Der Rekord-Abstand von 242 Punkten bedeutet nicht, dass Nano Banana 2 schlecht ist, sondern dass gpt-image-2 gleichzeitig in drei Disziplinen signifikant davonzieht.

Kriterium gpt-image-2 (OpenAI) Nano Banana 2 (Google Gemini 3.1)
LM-Arena-Score 1.512 Punkte (Platz 1) 1.271 Punkte (Platz 2)
Text-Rendering nahezu 100 Prozent Genauigkeit gut, einzelne Wortfehler
Foto-Realismus stark, etwas mehr Stil führend, filmische Beleuchtung
Multi-Image-Kohärenz bis 8 Bilder pro Prompt, Charakter-Kontinuität Edit-fokussiert, kein natives Batch in dieser Größe
Geschwindigkeit Instant Mode rund doppelt so schnell wie GPT Image 1.5 unter 3 Sekunden für 2K-Bilder
Preis (indikativ) 0,211 USD pro 1024 x 1024 High Quality spürbar günstiger, 95 Prozent Pro-Qualität
Ideal für finale Assets mit Text, Magazin-Cover, Mehrsprachiges Iterationen, Moodboards, volumenstarke Foto-Workflows

Die Faustregel für Teams mit begrenztem Budget: gpt-image-2 dort einsetzen, wo Text auf dem Bild entscheidet, Nano Banana 2 dort, wo Foto-Look und Iterationsgeschwindigkeit zählen. Beide Modelle lassen sich über Gateway-Anbieter wie fal.ai oder das Flux-Ökosystem in einer Single-API-Strategie parallel nutzen.

GPT Image 2 wins on structural control and text rendering, while Nano Banana 2 wins on photorealism and generation speed.

Miraflow AI, Comparison Report April 2026

API-Kosten und Zugriffsmodell

OpenAI rechnet die API Token-basiert ab und staffelt den Preis nach Qualität und Auflösung. Für Einsteiger bleibt der Low-Quality-Preis attraktiv, für produktive Assets in High Quality steigt der Stückpreis gegenüber GPT Image 1.5 leicht an, während größere Formate günstiger werden.

Preisdimension Wert Kontext
Bild-Input-Tokens 8 USD / Mio für Edit-Workflows, Referenzbilder
Bild-Output-Tokens 30 USD / Mio Standardabrechnung
1024 x 1024 Low Quality 0,006 USD pro Bild Moodboards, schnelle Iteration
1024 x 1024 Medium Quality 0,053 USD pro Bild Social-Media-Assets
1024 x 1024 High Quality 0,211 USD pro Bild finale Assets, Marketing
1024 x 1536 High Quality 0,165 USD pro Bild günstiger als GPT Image 1.5 mit 0,20 USD
4K über fal.ai 0,41 USD pro Bild Druck, Out-of-Home-Werbung
211 USD
1.000 Bilder in High Quality (1024 x 1024)
53 USD
1.000 Bilder in Medium Quality
20 USD
ChatGPT Plus pro Monat (Thinking Mode freigeschaltet)

Das Zugriffsmodell gliedert sich in drei Ebenen. Der Instant Mode steht allen ChatGPT-Nutzern offen, inklusive Free-Tier. Der Thinking Mode ist in ChatGPT an Plus (20 USD pro Monat), Pro (200 USD pro Monat), Business und Enterprise gebunden. Über die API ist der Thinking Mode für alle Entwickler verfügbar, allerdings mit 15 bis 120 Sekunden Latenz pro Request, was asynchrone Pipelines voraussetzt.

Vorsicht bei der Hochrechnung: High-Quality-Bilder rechnen sich für Hero-Assets und Kampagnen, nicht für A/B-Iterationen. Ein Team, das 20 Varianten pro Kampagne testet, sollte die ersten Runden in Medium Quality fahren und nur die Finalisten in High Quality generieren. So fällt der Kostenaufschlag gegen GPT Image 1.5 kaum auf.

Compliance

Der EU AI Act und die Kennzeichnungspflicht

Der Release trifft europäische Firmen mitten in der Vorbereitung auf die AI-Act-Transparenzpflichten. Artikel 50 des EU AI Act verpflichtet Anbieter generativer KI-Systeme, synthetische Inhalte maschinenlesbar zu kennzeichnen. Die vollständige Durchsetzung greift ab 2. August 2026, also in rund dreieinhalb Monaten.

21. April 2026

gpt-image-2 Release

OpenAI schaltet ChatGPT Images 2.0 mit Thinking Mode und Multi-Image-Batch frei. Automatische C2PA Content Credentials werden in jedes Bild eingebettet.

Mai bis Juli 2026

Umsetzungsfenster für Firmen

Deutsche und EU-Firmen müssen eine interne Policy zur Kennzeichnung KI-generierter Inhalte aufsetzen, Freigabe-Prozesse definieren und die Erhaltung von C2PA-Metadaten in den Produktions-Pipelines sicherstellen.

2. August 2026

AI Act Artikel 50 voll in Kraft

Die Transparenzpflichten greifen rechtsverbindlich. KI-generierte Bilder müssen maschinenlesbar gekennzeichnet sein. Verstöße kosten bis zu 35 Mio EUR oder 7 Prozent des weltweiten Jahresumsatzes.

Ab August 2026 laufend

Aufsicht durch Bundesnetzagentur und BSI

Die deutsche AI-Act-Aufsicht koordiniert erste Marktkontrollen. Einzelne EU-Länder setzen parallel eigene Durchsetzungsbehörden ein. Beschwerden von Wettbewerbern und Verbraucherverbänden werden erwartet.

Der Draft Code of Practice auf EU-Ebene schreibt einen mehrschichtigen Ansatz vor. Anbieter müssen laut aktuellem Entwurf Provenance-Metadaten nach C2PA-Standard einbetten, zusätzlich ein unsichtbares Wasserzeichen im Pixelraum, das Kompression und Zuschnitt übersteht, und wenn das nicht genügt, Logs oder digitale Fingerprints vorhalten. OpenAI liefert C2PA-Metadaten automatisch mit. Screenshots, Konvertierungen in Formate ohne Metadaten-Support oder Uploads auf bestimmte Social-Plattformen entfernen die Kennzeichnung jedoch wieder.

Ohne Policy bis August 2026
Kein einheitliches Kennzeichnungskonzept
C2PA-Metadaten gehen beim Export verloren
Keine zentrale Freigabeinstanz für KI-Bilder
Risiko von Abmahnungen und Bußgeldern
Unklare Verantwortung bei Deepfake-Vorwürfen
Mit Policy bis August 2026
Kennzeichnungslogik im Asset-Management
C2PA-Erhalt als Pipeline-Anforderung
Zentrale Review-Rolle, klare Verantwortung
Audit-Trail für Regulatoren und Presse
Gleiche Regeln für interne und externe Nutzung

Die Nähe zum ersten Durchsetzungstag erhöht den Druck. Wer bisher wartete, bis die konkreten Durchsetzungsmaßnahmen des AI Act sichtbar werden, hat jetzt noch ein Quartal, um Prozesse, Tools und Verantwortlichkeiten zu ordnen.

Herausforderungen und kritische Stimmen

Der Qualitätssprung vergrößert das Missbrauchspotenzial. Fotorealistische Szenen, präzise Typografie und multilinguale Texte machen Deepfakes, Marken-Imitationen und Betrugsversuche schwerer erkennbar, auch für technisch versierte Zielgruppen.

Deepfake-Risiko

Bilder werden glaubwürdig genug, um Laien zu täuschen. C2PA-Metadaten schützen nur, solange die Datei unverändert bleibt. Screenshots entfernen die Kennzeichnung, was den Schutz im Social-Web schwach macht.

Urheberrecht offen

OpenAI hat die Trainingsdaten nicht offengelegt. Verfahren durch The New York Times, Ta-Nehisi Coates und Jodi Picoult sind anhängig. Für Unternehmen bleibt die Frage, welche Markenassets in den Trainingsdaten stecken, ungeklärt.

Logo-Reproduktion schwach

Marken-Logos werden auch nach mehreren Iterationen nicht immer exakt getroffen. Das ist für B2B-Assets problematisch, wenn Kundenlogos oder Marken-Layouts eingebunden werden sollen.

Latenz im Thinking Mode

15 bis 120 Sekunden pro Request machen Echtzeit-Use-Cases wie Live-Chat-Bilder oder interaktive Demos unpraktisch. Thinking Mode gehört in asynchrone Pipelines, nicht in User-Facing-Loops.

Was der C2PA-Schutz nicht leistet: Die Metadaten sind leicht entfernbar, und selbst mit Metadaten bleiben die Bilder visuell ununterscheidbar von Fotos. Der regulatorische Rahmen schützt die Dokumentation, nicht die Erkennung durch Dritte. Unternehmen sollten eigene Freigabeprozesse etablieren, statt sich allein auf technische Wasserzeichen zu verlassen.

Eine weitere kritische Stimme kommt aus der Design-Community. Wenn Multi-Image-Batches mit Charakter-Kontinuität aus einem Prompt entstehen, verschiebt sich der Arbeitsanteil von Erstellung zu Kuratierung. Agenturen müssen ihre Preisgestaltung anpassen, weil der Aufwand je Asset sinkt, die Strategie- und Review-Arbeit aber wichtiger wird.

Was Unternehmen jetzt tun sollten

Der Einstieg ist überschaubar, wenn Strategie, Tooling und Compliance parallel laufen. Sechs Schritte bringen Organisationen in den nächsten drei Monaten in eine belastbare Position, bevor die AI-Act-Pflichten am 2. August 2026 rechtsverbindlich greifen.

  1. Pilot in einem Team starten

    Marketing, Corporate Communications oder Produkt sind die naheliegenden Use Cases. Messe Kosten pro Asset und Iterationsaufwand gegenüber den Bestandsprozessen. Zwei bis drei Wochen reichen für eine belastbare Kostenkalkulation.

  2. Multi-Modell-Strategie aufsetzen

    gpt-image-2 für finale Assets mit Text, Nano Banana 2 für schnelle Iterationen und volumenstarke Workflows, Midjourney oder Flux für stilisierte Anforderungen. Gateway-Anbieter wie fal.ai oder Vercel AI Gateway liefern einheitliche APIs für alle drei.

  3. AI-Act-konforme Policy entwerfen

    Kennzeichnungspflicht (Artikel 50), C2PA-Metadaten-Erhalt in allen Produktionsschritten und eine klare Freigabe-Verantwortlichkeit definieren. Ziel ist eine abgenommene Policy bis spätestens Juli 2026, damit Teams den Umsetzungspuffer haben.

  4. Asset-Management-System anpassen

    DAM oder PIM-Systeme müssen C2PA-Metadaten erhalten und Kennzeichnungen als Pflichtfeld führen. Mit dem IT-Team prüfen, welche Export-Pipelines die Metadaten strippen und diese nachrüsten.

  5. Rechte- und Markenprüfung etablieren

    Jedes KI-generierte Bild mit erkennbaren Markenelementen, Personen oder Motiven Dritter durchläuft ein Vier-Augen-Prinzip. Standardprompts vermeiden, die fremde IP implizieren. Verträge mit Agenturen auf KI-Nutzung anpassen.

  6. Team-Enablement planen

    Interne Schulungen zu Prompt-Qualität, Thinking-Mode-Nutzung und Kennzeichnungspflicht. Ein kleines Playbook mit 10 Use Cases reduziert die Einstiegshürde und verhindert, dass jedes Team eigene Prompt-Patterns aufbaut.

Die Verknüpfung mit der laufenden Marketing-KI-Strategie ist entscheidend. Wer bereits strategische Marketing-Prompts nutzt, kann die Bildgenerierung direkt als zusätzliche Stufe einbauen, etwa für die visuelle Begleitung von KI-generierten Textkampagnen. Teams, die bereits Studien zur Effektivität visueller KI-Werbung ausgewertet haben, bringen den Kontext gleich mit.

Kernpunkt

gpt-image-2 ist kein reines Tool-Update, sondern ein Kostenshift, ein Prozessshift und ein Compliance-Shift in einem. Unternehmen, die jetzt Policy, Pipeline und Modellstrategie parallel angehen, sind im Sommer 2026 einsatzbereit. Wer wartet, läuft im August 2026 gleichzeitig in die AI-Act-Durchsetzung und in den Tool-Lernkurveneffekt.

Q2

April bis Juni 2026

Pilot starten, Kostenbasis messen, erste Policy-Entwürfe abstimmen. Gateway-API auswählen und testen.

Q3

Juli bis August 2026

Policy finalisieren, Asset-Management anpassen, Team-Schulung durchführen. AI-Act-Deadline 2. August 2026 einhalten.

Q4

September bis Dezember 2026

Skalierung in weitere Teams, Messung von ROI und Prozessqualität, erste Audits durch Aufsichtsbehörden vorbereiten.

Weiterführende Informationen

Häufig gestellte Fragen

Was ist ChatGPT Images 2.0 (gpt-image-2)? +

ChatGPT Images 2.0 ist die neue Generation des Bildmodells von OpenAI, veröffentlicht am 21. April 2026. Der API-Name lautet gpt-image-2. Es ist das erste OpenAI-Bildmodell mit integriertem Reasoning (Thinking Mode), kann während der Generierung im Web suchen und erzeugt bis zu 8 konsistente Bilder pro Prompt. Das Modell erreichte in der LM Arena direkt Platz 1 mit 1.512 Punkten, 242 Punkte vor Google Nano Banana 2.

Wie schlägt gpt-image-2 Nano Banana 2 ab? +

In der Text-to-Image-Rangliste der LM Arena liegt gpt-image-2 mit 1.512 Punkten vor Google Nano Banana 2 (Gemini 3.1 Flash Image) mit 1.271 Punkten. Der Abstand von 242 Punkten ist laut VentureBeat der größte je auf diesem Leaderboard gemessene Vorsprung. Nano Banana 2 bleibt stark bei Foto-Realismus und Geschwindigkeit, gpt-image-2 führt bei Text-Rendering, Layout-Kontrolle und Multi-Element-Kompositionen.

Was kostet gpt-image-2 über die API? +

Die API rechnet Token-basiert ab. Ein Bild bei 1024 x 1024 Pixeln kostet in hoher Qualität 0,211 USD, in mittlerer Qualität 0,053 USD und in niedriger Qualität 0,006 USD. Die Token-Preise liegen bei 8 USD pro Million Bild-Input-Tokens und 30 USD pro Million Bild-Output-Tokens. 1.000 Bilder in hoher Qualität ergeben rund 211 USD, in mittlerer Qualität rund 53 USD.

Was ist der Thinking Mode von gpt-image-2? +

Der Thinking Mode ist ein Reasoning-Durchlauf vor der eigentlichen Bildgenerierung. Das Modell plant das Layout, kann im Web nach aktuellen Fakten suchen, prüft den eigenen Output und erzeugt bis zu 8 kohärente Bilder pro Prompt mit Charakter- und Objekt-Kontinuität. Die Latenz steigt dabei auf 15 bis 120 Sekunden. In ChatGPT ist der Thinking Mode Plus-, Pro-, Business- und Enterprise-Abos vorbehalten, über die API steht er allen Entwicklern offen.

Was schreibt der EU AI Act zu KI-generierten Bildern vor? +

Artikel 50 EU AI Act verpflichtet Anbieter generativer KI, synthetische Inhalte maschinenlesbar zu kennzeichnen. Die vollständigen Transparenzpflichten greifen ab 2. August 2026. Der Draft Code of Practice der EU setzt auf C2PA-Metadaten, unsichtbare Wasserzeichen und digitale Fingerprints. Verstöße können mit bis zu 35 Mio EUR oder 7 Prozent des weltweiten Jahresumsatzes geahndet werden.

Welche Sprachen und Schriften rendert gpt-image-2 zuverlässig? +

OpenAI nennt Japanisch, Koreanisch, Chinesisch, Hindi und Bengali als nicht-lateinische Schriften, die jetzt verlässlich funktionieren. Deutsche Umlaute und ß wurden in ersten Praxistests ebenfalls sauber dargestellt. Das Text-Rendering erreicht in Blind-Tests der LM Arena nahezu 100 Prozent Typografie-Genauigkeit, auch bei dichten Kompositionen wie Magazincovern oder Infografiken.