OpenAI präsentiert GPT-5.4 mit nativer Computersteuerung: Was das neue Modell kann

Mila building at daytime
Photo by Morgan Petroski on Unsplash

Stand: 8. März 2026

Das Wichtigste in Kürze

  • OpenAI hat GPT-5.4 veröffentlicht – das erste Modell des Unternehmens mit nativen Computersteuerungs-Fähigkeiten
  • Das Kontextfenster wurde auf eine Million Token erweitert, 2,5-mal mehr als beim Vorgänger GPT-5.2
  • Einzelne Aussagen sind zu 33 Prozent seltener falsch, komplette Antworten zu 18 Prozent fehlerärmer als bei GPT-5.2
  • Die neue „Tool Search“-Funktion spart bei 250 MCP-Tasks 47 Prozent Tokens
  • Beim Softwareentwicklungs-Benchmark SWE-Bench Pro erreicht das Modell eine Erfolgsquote von 57,7 Prozent

OpenAI hat mit GPT-5.4 ein neues Frontier-Modell vorgestellt, das erstmals native Fähigkeiten zur Computersteuerung mitbringt. Wie Reuters Tech berichtet, können autonome KI-Agenten mit diesem Modell eigenständig auf Desktop-Betriebssysteme zugreifen, Tastaturanschläge und Mauseingaben simulieren sowie verschiedene Software-Programme öffnen, Werte ablesen und Aktionen ausführen.

Native Computersteuerung als Kernfeature

Die wohl bedeutendste Neuerung ist die Integration von Computernutzungs-Fähigkeiten direkt in die Modellarchitektur. Laut Reuters Tech kombiniert GPT-5.4 damit die Programmierfähigkeiten des kürzlich erschienenen GPT-5.3-Codex mit erweiterten logischen Denkfähigkeiten in einer einzigen Architektur.

Ein experimenteller Skill namens „Playwright“ demonstriert diese Kombination eindrucksvoll: Die KI erschuf basierend auf einem einzigen Prompt eine komplette, isometrische Freizeitpark-Simulation inklusive Wegfindung für simulierte Besucher, wie die Quelle beschreibt.

Massiv erweitertes Kontextfenster und höhere Effizienz

Das neue Modell verarbeitet laut Reuters Tech bis zu eine Million Token – 2,5-mal mehr als der Vorgänger GPT-5.2 mit 400.000 Token. Dies ermöglicht die Analyse riesiger Code-Basen oder kompletter Dokumentensammlungen in einem einzigen Kontext, was besonders für Rechts-, Finanz- und Forschungsbranchen revolutionär sein könnte.

Gleichzeitig hat OpenAI die Effizienz deutlich gesteigert: Bei 250 Model Context Protocol (MCP)-Tasks spart GPT-5.4 dank der neuen „Tool Search“-Funktion 47 Prozent Tokens gegenüber GPT-5.2, wie die Quelle berichtet. Diese intelligente Werkzeugsuche lädt Beschreibungen nicht vollständig, sondern ruft nur die benötigten Definitionen ab.

Deutlich verbesserte Zuverlässigkeit

OpenAI meldet nach Angaben von Reuters Tech erhebliche Qualitätsgewinne: Einzelne Aussagen sind zu 33 Prozent seltener falsch, komplette Antworten zu 18 Prozent fehlerärmer als bei GPT-5.2. Bei abstrakten Denktests (ARC-AGI-2) verbesserte sich das Modell von 54,2 auf 83,3 Prozent.

Beim Softwareentwicklungs-Benchmark SWE-Bench Pro erreicht GPT-5.4 eine Erfolgsquote von 57,7 Prozent bei etwa 1.000 Sekunden Latenz. Ein neuer Schnellmodus soll die Verarbeitungsgeschwindigkeit um das 1,5-Fache steigern, so die Quelle.

Zwei Varianten für unterschiedliche Anforderungen

OpenAI bietet laut Reuters Tech zwei Modellvarianten an:

  • GPT-5.4 Thinking: Für tiefgehende Analysen mit einer neuen „Thinking“-Funktion, die den KI-Planungsprozess sichtbar macht und direkte Korrekturen durch Nutzer ermöglicht
  • GPT-5.4 Pro: Für maximale Gründlichkeit in komplexen Entscheidungsszenarien und höhere Durchsatzraten

Technische Verbesserungen umfassen auch einen neuen Bilddetail-Modus, der Grafiken mit bis zu 10,24 Megapixeln im Originalformat verarbeitet, was eine präzisere visuelle Wahrnehmung für Agenten ermöglicht.

Neue Governance-Herausforderungen für Unternehmen

Wie Reuters Tech einordnet, beschleunigt GPT-5.4 das Rennen unter KI-Anbietern, um zur Utility-Layer für Knowledge Work zu werden. Für Unternehmen ergeben sich neue Möglichkeiten in der Automatisierung von Büroaufgaben, Dokumentenanalyse und bei agentic Workflows.

Gleichzeitig entstehen neue Governance-Herausforderungen, wie die Quelle betont: Wie werden Outputs verifiziert? Wie werden Kosten gemanagt? Wie werden unbeabsichtigte Aktionen verhindert, wenn Modelle direkt Computer steuern können? Diese Fragen verbinden technische Leistung direkt mit Enterprise-Readiness und stellen neue Anforderungen an Auditierbarkeit und Kontrolle.

OpenAI verliert Robotics-Leiterin nach Pentagon-Deal

Während OpenAI mit GPT-5.4 technisch vorlegt, sorgt das Unternehmen gleichzeitig für Schlagzeilen wegen interner Konflikte. Caitlin Kalinowski, die seit November 2024 die Robotics- und Hardware-Abteilung leitete, trat am 7. März 2026 aus Protest gegen den überstürzten Pentagon-Deal zurück, wie TechCrunch berichtet.

„AI has an important role in national security. But surveillance of Americans without judicial oversight and lethal autonomy without human authorization are lines that deserved more deliberation than they got.“ (eigene Übersetzung: „KI hat eine wichtige Rolle in der nationalen Sicherheit. Aber Überwachung von Amerikanern ohne richterliche Kontrolle und tödliche Autonomie ohne menschliche Autorisierung sind Grenzen, die mehr Überlegung verdient hätten, als sie bekommen haben.“) – Caitlin Kalinowski

Wie TechCrunch berichtet, kritisierte Kalinowski den Deal als zu hastig ohne ausreichende Safeguards. In einem Follow-up-Post auf X präzisierte sie: „To be clear, my issue is that the announcement was rushed without the guardrails defined. It’s a governance concern first and foremost.“ (eigene Übersetzung: „Um es klarzustellen: Mein Problem ist, dass die Ankündigung überstürzt war, ohne dass die Sicherheitsvorkehrungen definiert waren. Es ist in erster Linie ein Governance-Problem.“)

Hintergrund des Pentagon-Deals

Der Deal mit dem US-Verteidigungsministerium wurde Ende Februar 2026 verkündet, nachdem Verhandlungen mit Anthropic gescheitert waren. Laut TechCrunch hatte Anthropic einen Vertrag im Wert von 200 Millionen Dollar abgelehnt, weil das Pentagon Safeguards gegen Massenüberwachung und autonome Waffen zurückwies.

Das Pentagon stufte Anthropic daraufhin als Supply-Chain-Risiko ein. OpenAI sprang ein und akzeptierte die Bedingungen, wobei CEO Sam Altman laut t3n später einräumen musste, dass OpenAI keine technische Kontrolle über die Umsetzung der Sicherheitsmaßnahmen durch das Pentagon hat.

Ein OpenAI-Sprecher betonte gegenüber TechCrunch: „We believe our agreement with the Pentagon creates a workable path for responsible national security uses of AI while making clear our red lines: no domestic surveillance and no autonomous weapons.“ (eigene Übersetzung: „Wir glauben, dass unsere Vereinbarung mit dem Pentagon einen praktikablen Weg für verantwortungsvolle nationale Sicherheitsanwendungen von KI schafft und gleichzeitig unsere roten Linien klarstellt: keine Inlandsüberwachung und keine autonomen Waffen.“)

Auswirkungen auf die KI-Branche

Der Rücktritt von Kalinowski schafft ein Führungsvakuum in OpenAIs Robotics-Abteilung, die ein Labor in San Francisco mit rund 100 Mitarbeitern betreibt und ein zweites Labor in Richmond, Kalifornien, plant, wie Reuters Tech berichtet.

Laut TechCrunch stiegen die ChatGPT-Deinstallationen nach Bekanntwerden des Pentagon-Deals um 295 Prozent. Anthropics Claude kletterte währenddessen an die Spitze der App Store Charts und hält diese Position weiterhin.

Wie TechCrunch einordnet, markiert der Fall eine Warnung für Startups bei Bundesverträgen: Ethische Prinzipien können mit nationalen Sicherheitsinteressen kollidieren, und die Entscheidung für oder gegen solche Deals hat erhebliche kommerzielle Konsequenzen.

Fazit: Technischer Fortschritt trifft auf ethische Debatten

Mit GPT-5.4 demonstriert OpenAI beeindruckende technische Fortschritte, insbesondere bei der Integration von Computersteuerung und der Erweiterung des Kontextfensters. Die neuen Fähigkeiten eröffnen Unternehmen erhebliche Automatisierungspotenziale, werfen aber gleichzeitig neue Governance-Fragen auf.

Parallel dazu zeigt der Pentagon-Deal und der darauf folgende Rücktritt von Caitlin Kalinowski, dass die KI-Branche vor grundlegenden ethischen Weichenstellungen steht. Die Spannungen zwischen schnellem technologischem Fortschritt, kommerziellen Interessen und ethischen Grenzen werden sich in den kommenden Monaten weiter verschärfen – besonders bei physischer KI und Robotik, wo Fehler reale Konsequenzen haben.

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Nach oben scrollen