
München/Berlin, 2. November 2025 – In einem strategisch bedeutsamen Schritt zur Stärkung der europäischen KI-Infrastruktur bereiten die Deutsche Telekom und Nvidia die offizielle Ankündigung eines milliardenschweren KI-Rechenzentrumsprojekts in München vor. Die Vorstellung dieses wegweisenden Vorhabens wird noch im November 2025 in Berlin erwartet und soll hochrangige Vertreter wie Telekom-Chef Tim Höttges, Nvidia-CEO Jensen Huang, SAP-Chef Christian Klein und Digitalminister Karsten Wildberger zusammenbringen.
Das Projekt, mit einer gemeinsamen Investition von rund 1 Milliarde Euro (etwa 1,2 Milliarden US-Dollar), zielt darauf ab, Europas Rückstand in der Künstlichen Intelligenz gegenüber den USA und China zu verringern und eine resiliente, Europa-zentrierte KI-Ökosystem zu etablieren. Dies soll die Abhängigkeit von externer Dateninfrastruktur reduzieren und die Wettbewerbsfähigkeit Deutschlands und Europas im globalen KI-Wettbewerb sichern, ein Ziel, das auch von der Bundesregierung durch die Förderung von „KI-Gigafactories“ unterstützt wird.
Ein Leuchtturm für Europas KI-Zukunft
Die Rollenverteilung in diesem Joint Venture ist klar definiert: Die Deutsche Telekom wird die Infrastruktur, den Betrieb, den Vertrieb sowie Sicherheits- und KI-Lösungen verantworten. Telekom-Chef Tim Höttges betonte bereits in der Vergangenheit, wie entscheidend es sei, dass Europa im KI-Wettbewerb nicht den Anschluss verliere. Nvidia wiederum liefert die fortschrittliche GPU-Technologie und das umfassende KI-Software-Ökosystem.
Als erster Großkunde hat sich bereits die SAP SE, Europas größtes Softwareunternehmen, für die Nutzung der Infrastruktur im Münchner Rechenzentrum verpflichtet. Dies unterstreicht die Relevanz des Projekts für die europäische Wirtschaft. Zudem werden KI-Robotik-Pioniere wie Agile Robots und Wandelbots ihre Anwendungsfälle im Rahmen des Projekts präsentieren. Die „Industrial AI Cloud“ soll bereits Anfang des ersten Quartals 2026 starten, die vollständige Inbetriebnahme des Rechenzentrums wird für das Jahr 2027 erwartet.
Blackwell B200: Das Herzstück der neuen KI-Power
Das Herzstück des neuen Rechenzentrums werden rund 10.000 Nvidia Blackwell GPUs sein, darunter NVIDIA DGX B200 Systeme und NVIDIA RTX PRO Server, ergänzt durch Nvidias führende Netzwerklösungen und KI-Software. Die Blackwell B200 GPU, Nvidias neueste Hardware, ist seit Juli 2025 für Forscher und Ingenieure verfügbar und setzt neue Maßstäbe in der KI-Beschleunigung.
Technische Highlights der B200 GPU:
- Transistoren: Beeindruckende 208 Milliarden Transistoren (gegenüber 80 Milliarden beim Vorgänger H100/H200), gefertigt im TSMC 4NP-Prozess als Dual-Die-Design.
- Speicher: 192 GB HBM3e-Speicher pro GPU mit einer Bandbreite von 8 TB/s.
- KI-Leistung: Bis zu 20 PFLOPS (Peta-Floating-Point Operations Per Second) bei Sparse FP4 AI-Berechnungen – eine vierfache Steigerung der Inferenzleistung im Vergleich zum Hopper H100.
- DGX B200 Systeme: Ein KI-Supercomputer mit acht Blackwell B200 GPUs, der bis zu 144 PFLOPS für Inferenzaufgaben liefert und eine bis zu 15-mal schnellere Inferenzleistung sowie einen 12-mal geringeren Energieverbrauch gegenüber dem DGX H100-System bietet.
Ein boomender Markt mit geopolitischen Schatten
Der Markt für KI-Beschleuniger erlebt ein explosives Wachstum. Prognosen von Omdia zufolge wird der Markt für KI-Rechenzentrumschips von 123 Milliarden US-Dollar im Jahr 2024 auf 207 Milliarden US-Dollar im laufenden Jahr 2025 und voraussichtlich 286 Milliarden US-Dollar bis 2030 ansteigen. Die Dell’Oro Group erwartet, dass der globale Markt für Rechenzentrums-Beschleuniger bis 2029 sogar 382 Milliarden US-Dollar erreichen wird.
Nvidia behauptete im 3. Quartal 2024 mit fast der Hälfte der gemeldeten Einnahmen seine dominante Position. Doch der Markt ist in Bewegung: Obwohl Nvidia weiterhin führend ist, erwarten Experten, dass Hyperscaler zunehmend auf kundenspezifische ASICs umsteigen werden, um Effizienz zu steigern und Kosten zu senken. Die Fertigung dieser Hochleistungschips bleibt stark von der Taiwan Semiconductor Manufacturing Company (TSMC) abhängig, die im zweiten Quartal 2025 über 30 Milliarden US-Dollar Umsatz generierte und bei fortschrittlichen Knotenpunkten (5nm, 3nm) einen Marktanteil von 70-90 Prozent hält. Die Massenproduktion im 2nm-Prozess wird in der zweiten Hälfte des Jahres 2025 erwartet.
Die geopolitische Lage beeinflusst diesen Markt maßgeblich. Die US-Exportbeschränkungen für fortschrittliche KI-Chips nach China, die im Oktober 2022 eingeführt und 2025 erweitert wurden, haben Nvidias Marktanteil in China laut CEO Jensen Huang von 95 Prozent auf null reduziert, was dem Unternehmen erhebliche Belastungen einbrachte. Trotz einer vorübergehenden Lockerung im September 2025 für weniger leistungsstarke Chips und der Wiederaufnahme des Verkaufs der H20-GPU im Juli 2025, bleibt die Situation angespannt.
Anwendungen und die europäische Antwort
Neben SAP wird das Münchner Rechenzentrum vielfältige Workloads unterstützen, darunter große Sprachmodelle (LLMs), Empfehlungssysteme und wissenschaftliche Simulationen. Es soll auch als Katalysator für die Entwicklung KI-gesteuerter Fertigungsprozesse für europäische Industrieunternehmen ab 2026 dienen und den deutschen Mittelstand, die Wissenschaft und Forschungseinrichtungen unterstützen.
Die Deutsche Telekom selbst setzt intensiv auf KI zur Effizienzsteigerung. Im zweiten Quartal 2025 konnten beispielsweise 1,6 Millionen Anrufe durch KI abgewehrt werden, was etwa 133.000 Call-Agenten-Stunden einsparte. Bis 2027 rechnet die Telekom mit Kosteneinsparungen von rund 800 Millionen Euro durch den verstärkten Einsatz von KI.
Die Europäische Union hat im Februar 2025 einen 200 Milliarden Euro umfassenden Plan angekündigt, um die KI-Entwicklung und Rechenkapazität im Block in den nächsten fünf bis sieben Jahren zu verdreifachen. Dies unterstreicht die Entschlossenheit Europas, im globalen KI-Rennen aufzuholen und digitale Souveränität zu gewährleisten.
Blick in die Zukunft: Nvidias ehrgeizige Roadmap
Nvidia plant eine aggressive Roadmap für die kommenden Jahre:
- Die Blackwell Ultra (B300), eine Weiterentwicklung der Blackwell-Linie mit 288 GB HBM3E-Speicher, wird für Ende 2025 erwartet.
- Die nächste GPU-Architektur, Rubin, soll 2026 folgen und HBM4-Speicher nutzen.
- Rubin Ultra ist für 2027 geplant und wird voraussichtlich 576 GB HBM4-Speicher bieten.
Das milliardenschwere KI-Rechenzentrumsprojekt der Deutschen Telekom und Nvidia in München ist somit mehr als nur eine Investition in Hardware; es ist ein klares Statement für die digitale Zukunft Europas und ein wichtiger Schritt, um die Region als globalen Akteur in der Künstlichen Intelligenz zu positionieren.
Quellen
- winfuture.de
- gamestar.de
- techfundingnews.com
- folio3.ai
- industrie.de
- mitrade.com
- btcc.com
- investmentweek.com
- alleaktien.com
- dig.watch
- youtube.com
- modal.com
- datacrunch.io
- tomshardware.com
- cudocompute.com
- runpod.io
- informa.com
- informa.com
- delloro.com
- delloro.com
- idc.com
- nasdaq.com
- trendforce.com
- perplexity.ai
- taipeitimes.com
- substack.com
- rcrwireless.com
- telekom.com
- theguardian.com
- computerweekly.com
- builtin.com
- indiatimes.com
- medium.com
- trendforce.com
- theregister.com
- semiwatch24.com
- tweaktown.com
- nvidia.com
- capital.com
- investing.com
- telekom.com
