
Stand: 8. Februar 2026
Das Wichtigste in Kürze
- OpenAI hat GPT-5.3-Codex vorgestellt, ein agentisches Coding-Modell, das 25 Prozent schneller ist und neue Branchenmaßstäbe setzt
- 16 Claude Opus 4.6-Agenten entwickelten eigenständig einen funktionsfähigen C-Compiler in Rust, der Linux kompilieren kann
- Alphabet, Amazon, Meta und Microsoft planen 2026 Rekordinvestitionen von 610 Milliarden Dollar in KI-Infrastruktur
- GPT-5 optimierte in einem Roboterlabor die Proteinsynthese und senkte die Kosten um 40 Prozent
- Waymo stellte ein KI-Weltmodell vor, das extreme Szenarien für autonomes Fahren simuliert
OpenAI stellt GPT-5.3-Codex vor: Schneller und leistungsstärker
OpenAI hat am 5. Februar 2026 GPT-5.3-Codex veröffentlicht – ein agentisches Coding-Modell, das die Programmierfähigkeiten von GPT-5.2-Codex mit den erweiterten Denk- und Wissensfähigkeiten von GPT-5.2 vereint. Das neue Modell ist laut Heise 25 Prozent schneller als sein Vorgänger und verbraucht dabei weniger Token.
Das Modell setzt neue Spitzenwerte in vier Leistungstests: SWE-Bench Pro, Terminal-Bench 2.0, OSWorld und GDPval. Besonders bemerkenswert ist die Überlegenheit im Terminal-Bench 2.0, wo GPT-5.3-Codex das kürzlich veröffentlichte Anthropic-Modell Opus 4.6 um zwölf Prozentpunkte übertrifft, wie OpenAI berichtet.
GPT-5.3-Codex führt nicht nur Code aus, sondern erledigt mehrstufige Aufgaben eigenständig: verstehen, planen, recherchieren, ändern, testen und prüfen. Das Modell markiert einen Paradigmenwechsel vom reinen Code-Generator zum interaktiven Partner, mit dem Entwickler in Echtzeit zusammenarbeiten können.
„Das Codex-Team nutzte frühe Versionen des Modells, um Fehler im Training zu finden, die Bereitstellung zu steuern und Testergebnisse auszuwerten. Das Team war überrascht, wie sehr Codex seine eigene Entwicklung beschleunigt habe.“
Das Modell ist seit dem 5. Februar 2026 für zahlende ChatGPT-Nutzer in allen Codex-Umgebungen verfügbar: in der Codex-App, CLI, IDE-Erweiterung und im Web. Ein API-Zugang soll folgen.
Eine bemerkenswerte Besonderheit ist die erste „High-Capability“-Einstufung für Cybersecurity im Preparedness Framework von OpenAI. GPT-5.3-Codex ist das erste OpenAI-Modell, das als „High“ für Sicherheitsrisiken klassifiziert wird. OpenAI implementiert daraufhin robuste Sicherheitsvorkehrungen und ein Pilotprogramm namens „Trusted Access for Cyber“ für geprüfte Sicherheitsexperten.
16 Claude-Agenten programmieren gemeinsam einen C-Compiler
In einem bemerkenswerten Experiment haben 16 parallele Claude Opus 4.6-Instanzen in zwei Wochen einen funktionsfähigen C-Compiler in der Programmiersprache Rust entwickelt, ohne dass ein menschlicher Projektmanager die Koordination übernahm. Wie Ars Technica berichtet, verbrauchte das Projekt knapp 2 Milliarden Input-Token und 140 Millionen Output-Token bei einem Gesamtkostenaufwand von etwa 20.000 US-Dollar.
Der resultierende 100.000-Zeilen-Compiler kann einen bootfähigen Linux 6.9-Kernel auf x86, ARM und RISC-V kompilieren und erreicht eine 99-Prozent-Erfolgsquote bei Standard-Compiler-Testsuite. Das Experiment nutzte Anthropics neue „Agent Teams“-Architektur von Claude Opus 4.6. Jeder Agent lief isoliert in einem Docker-Container, klonte ein gemeinsames Git-Repository und identifizierte eigenständig Aufgaben durch Lock-Dateien.
Nicholas Carlini, Forschungsleiter bei Anthropic, dokumentierte kritische Engineering-Erkenntnisse: Claude kann Zeit nicht korrekt einschätzen und würde stundenlang Tests durchführen, ohne Fortschritt zu machen. Ein weiteres zentrales Problem war „Infrastructure Noise“: Winzige API-Fehler oder Latenz-Spitzen summieren sich über tausende Schritte hinweg zu fatalen Abbruchquoten, wie Anthropic in einem technischen Blogpost erläutert.
Der Compiler kompilierte erfolgreich große Open-Source-Projekte wie PostgreSQL, SQLite, Redis, FFmpeg und QEMU und bestand Carlinis „ultimativen Entwickler-Test“: das Kompilieren und Ausführen von Doom. Das System ist eine Clean-Room-Implementierung ohne Internetzugang, die nur auf der Rust-Standardbibliothek basiert.
„The resulting compiler has nearly reached the limits of Opus’s abilities.“ (eigene Übersetzung: „Der resultierende Compiler hat nahezu die Grenzen der Fähigkeiten von Opus erreicht.“) – Nicholas Carlini, Anthropic
Allerdings zeigen sich auch klare Limitierungen: Der Compiler besitzt keinen 16-Bit-x86-Compiler für den Real-Mode-Boot und muss hier auf GCC zurückgreifen. Zudem fehlen eigenständiger Assembler und Linker. Der Code wurde als Open-Source auf GitHub veröffentlicht.
Tech-Giganten investieren 610 Milliarden Dollar in KI-Infrastruktur
Alphabet (Google), Amazon, Meta und Microsoft wollen 2026 zusammen 610 Milliarden US-Dollar in Rechenzentren und KI-Infrastruktur investieren – ein Plus von 70 Prozent gegenüber 2025, berichtet The Decoder unter Berufung auf Bloomberg-Analysen.
Die Aufschlüsselung pro Unternehmen zeigt massive Steigerungen: Amazon plant 200 Milliarden Dollar (+52 Prozent), Alphabet 180 Milliarden Dollar (+98 Prozent), Meta 125 Milliarden Dollar (+76 Prozent) und Microsoft 105 Milliarden Dollar (+62 Prozent). Pro Firma übersteigen die Summen oft die Ausgaben der Vorjahre 2023 bis 2025 zusammen.
Trotz starker Quartalszahlen verloren die vier Firmen zusammen über 950 Milliarden Dollar an Marktwert nach Bekanntgabe der Investitionspläne. Die Amazon-Aktie fiel beispielsweise um bis zu 9 Prozent. Investoren sind unsicher, ob und wann sich die hohen Investitionen auszahlen werden.
„Der Großteil der Investitionen [200 Mrd. $] dem Ausbau der KI-Infrastruktur zugutekommen soll. Das Geld werde schon wieder zurückverdient.“ – Andy Jassy, Amazon-CEO
Die Pläne basieren auf der explodierenden Nachfrage nach Rechenleistung. Google-CEO Sundar Pichai spricht von anhaltenden Lieferengpässen trotz Kapazitätserweiterungen. AWS (Amazon) meldete ein Umsatzwachstum von 24 Prozent auf 35,6 Milliarden Dollar – die Investitionen übersteigen den AWS-Umsatz jedoch um 55 Prozent.
Gleichzeitig entsteht ein Kreislauf: Ein großer Teil des Börsenwerts basiert auf dem Versprechen künftiger KI-Gewinne. Weniger Ausgaben könnten als fehlendes Vertrauen in KI gedeutet werden und die Kurse einbrechen lassen. Start-ups wie OpenAI profitieren von dieser Zirkularität, da die Investitionen von Big Tech zu Ausgaben bei eben diesen Unternehmen werden.
GPT-5 optimiert Proteinsynthese im Roboterlabor
OpenAI und das Biotech-Unternehmen Ginkgo Bioworks haben GPT-5 mit Ginkgos Cloud-Labor verbunden, um zellfreie Proteinsynthese (CFPS) zu optimieren. Über sechs Iterationsrunden und etwa sechs Monate testete das System 36.000 einzigartige Reaktionszusammensetzungen auf über 580 Mikrotiterplatten, wie The Decoder berichtet.
Das Ergebnis: Die Produktionskosten für sfGFP (superfolder green fluorescent protein) wurden auf 422 US-Dollar pro Gramm gesenkt – eine Reduktion um 40 Prozent der Gesamtkosten und 57 Prozent bei Reagenzkosten im Vergleich zum vorherigen State-of-the-Art von 698 Dollar pro Gramm. Das System erzeugte circa 150.000 Datenpunkte.
GPT-5 steuerte autonom Experimentdesign, Analyse und Hypothesenbildung. Menschen beschränkten sich auf Reagenzvorbereitung, Laden und Entladen sowie Oversight. Das System arbeitete in einer geschlossenen Schleife: GPT-5 generierte Designs, ein Pydantic-Validierungstool prüfte die Machbarkeit, Roboter in Boston pipettierten, inkubierten und maßen, und Daten flossen zurück für die Analyse und nächste Runde.
„By pairing a frontier large language model with an autonomous lab, we found reaction compositions that are notably cheaper than prior state of the art.“ (eigene Übersetzung: „Durch die Verbindung eines Frontier-Sprachmodells mit einem autonomen Labor fanden wir Reaktionszusammensetzungen, die deutlich günstiger sind als der bisherige Stand der Technik.“) – Reshma Shetty, Ginkgo-Mitgründerin
Das Projekt markiert einen Meilenstein für AI-gestützte autonome Labore in der Biotech-Branche. Es demonstriert, wie Frontier-Modelle wie GPT-5 reale Experimente skalieren, Kosten senken und neue Hypothesen priorisieren können. Ginkgos Kommerzialisierung der optimierten CFPS-Mischung unterstreicht die praktische Relevanz. Der zugehörige Preprint vom 5. Februar 2026 ist noch nicht peer-reviewed, und das Pydantic-Validierungstool wurde als Open Source veröffentlicht.
Waymo stellt KI-Weltmodell für autonomes Fahren vor
Waymo hat das Waymo World Model präsentiert, ein generatives Simulationsmodell für autonomes Fahren, das auf Google DeepMinds Genie 3 basiert. Laut The Decoder soll es hyperrealistische Szenarien erzeugen, die in der Realität kaum vorkommen.
Das Modell kann auf Basis von Texteingaben fotorealistische 3D-Umgebungen generieren und extrem seltene Szenarien simulieren – etwa Begegnungen mit Elefanten, Tornados oder überflutete Straßen. Ein entscheidender Vorteil: Es generiert sowohl Kamera- als auch Lidar-Sensordaten, wodurch die Trainingsumgebung exakt mit den physischen Sensoren des Fahrzeugs korrespondiert.
Während traditionelle Simulationsmodelle ausschließlich mit den eigenen Fahrdaten trainiert werden, nutzt das Waymo World Model das breite Weltwissen von Genie 3, das aus vielfältigen Videoquellen stammt. Waymo und Google DeepMind haben einen spezialisierten Post-Training-Prozess entwickelt, um das 2D-Videowissen in 3D-Lidar-Outputs zu übersetzen.
Ein wesentliches Merkmal ist die Interaktivität der generierten Umgebung. Anders als bei passiven Videoaufzeichnungen reagieren die simulierten Agenten auf das Verhalten des Robotaxis. Das System bietet drei Hauptmechanismen: Fahreraktion-Kontrolle für kontrafaktische Szenarien, Szenenlayout-Kontrolle zur Anpassung von Straßenlayouts und sprachbasierte Steuerung über Texteingaben.
Waymo bezeichnet Simulation als eine der drei zentralen Säulen seines Sicherheitsansatzes. Der Waymo Driver hat bereits fast 200 Millionen vollständig autonome Meilen in realem Straßenverkehr zurückgelegt und absolviert zusätzlich Milliarden von Meilen in virtuellen Umgebungen. Allerdings nennt Waymo in der Ankündigung keine konkreten Benchmark-Ergebnisse oder unabhängigen Evaluierungen des Modells.
Fazit: KI-Entwicklung nimmt weiter Fahrt auf
Die aktuellen KI News zeigen: Die Entwicklung generativer KI-Systeme beschleunigt sich weiter. Von autonomen Agenten-Teams über optimierte Coding-Modelle bis hin zu massiven Infrastruktur-Investitionen – die Tech-Branche setzt verstärkt auf KI-Technologien.
Besonders bemerkenswert ist der Übergang von digitaler Simulation zu physischer Experimentation, wie das GPT-5-Roboterlabor-Projekt zeigt. Gleichzeitig werfen die Rekordinvestitionen von 610 Milliarden Dollar Fragen nach der Rendite und Nachhaltigkeit auf. Während die technischen Fortschritte beeindruckend sind, bleiben Herausforderungen bei Sicherheit, Infrastruktur und Energieverbrauch bestehen.
Die nächsten Monate werden zeigen, ob sich die massiven Investitionen auszahlen und wie sich autonome KI-Systeme in realen Anwendungsfällen bewähren.
Quellen
- Heise – GPT-5.3-Codex: OpenAI stellt neues Coding-Modell vor
- OpenAI – Introducing GPT-5.3-Codex
- Ars Technica – Sixteen Claude AI agents working together created a new C compiler
- Anthropic – Building a C Compiler
- GitHub – Claude’s C Compiler
- The Decoder – Tech-Giganten planen 2026 Rekordausgaben von 610 Milliarden Dollar für KI-Infrastruktur
- The Decoder – OpenAI und Ginkgo Bioworks optimieren Proteinsynthese mit GPT-5 im Roboterlabor
- OpenAI – GPT-5 lowers protein synthesis cost
- The Decoder – Waymos neues KI-Weltmodell simuliert Szenarien, die es real kaum gibt
- Waymo – The Waymo World Model
