Nvidia-Chef Jensen Huang hat auf der Entwicklerkonferenz GTC einen Ausblick auf die nächste Generation der KI-Infrastruktur gegeben und dabei überraschend früh den Marktstart seines neuen Supercomputers „Vera Rubin“ angekündigt. Erste Systeme laufen bereits in der Cloud von Microsoft Azure. Die Produktion der neuen Rechner sei deutlich reibungsloser angelaufen als beim Vorgänger Blackwell, der zum Start noch mit Verzögerungen kämpfte. Details zu „Vera Rubin“ hatte Nvidia zuerst im vergangenen Herbst veröffentlicht. Damals waren Analysten noch von einem Marktstart frühestens im dritten Quartal 2026 ausgegangen.

„Das Sampling läuft unglaublich gut“, sagte Huang auf der Bühne im SAP Center in San Jose, der Auftragsfertiger TSMC produziert also weniger Ausschuss-Chips als erwartet. Während die Markteinführung vom Vorgänger Blackwell in dieser Hinsicht noch holprig verlief, scheint Nvidia diesmal schneller voranzukommen. Das sogenannte Tape-out – also der Moment, in dem das Chipdesign bei TSMC in die Produktion geht – habe deutlich besser funktioniert. Für Kunden bedeutet das, dass mehr Chips bereits zu Beginn der Serienfertigung verfügbar sind.

„Vera Rubin“ ist dabei kein einzelner KI-Prozessor, sondern ein komplettes Computer-System inklusive Netzwerk. Der neue KI-Supercomputer kombiniert insgesamt sieben verschiedene Chip-Typen über fünf verschiedene Module für Rechenschränke zu einer riesigen Rechenmaschine. Nvidia zufolge kann das neue System bis zu 700 Millionen KI-Tokens pro Sekunde erzeugen – gegenüber rund zwei Millionen Tokens pro Sekunde bei der Hopper-Architektur von 2022. Damit ist Hopper vier Jahre nach Erscheinen zumindest wirtschaftlich obsolet.

Jensen spielt mit Chips wie mit Lego

Ein entscheidender Teil von Nvidias Strategie wird dabei immer sichtbarer: Jensen Huang baut sich Schritt für Schritt seine eigene Computerplattform und wird unabhängiger von anderen Chipherstellern. Lange waren Nvidias KI-Supercomputer auf klassische Server-Prozessoren von Intel oder AMD angewiesen. Mit der neuen „Vera“-CPU ändert sich das. Der 88-Kern-Prozessor stammt vollständig aus eigener Entwicklung und ist speziell dafür ausgelegt, die Rubin-KI-Chips mit Daten und Aufgaben zu versorgen. Zusammen mit Nvidias Speicher- und Netzwerktechnik „NVLink 72“ kann Huang nun komplette Systeme aus einer Hand bauen.

Das Prinzip erinnert tatsächlich an Lego: CPU, GPU, Netzwerktechnik und Beschleuniger lassen sich modular zu riesigen KI-Rechenmaschinen kombinieren, auf Kabel will Huang dabei weitgehend verzichten. Alle Steckerverbindungen sind proprietär, alles passt zueinander in einem Ökosystem. Nvidia nennt Rechenzentren auf Basis seiner neuen Supercomputer „KI-Fabriken“, die nicht mehr Dateien speichern, sondern KI-Tokens produzieren.

Der Vorteil dieser vertikalen Integration liegt vor allem in der Energieeffizienz. Nvidia behauptet, seine neuesten Systeme lieferten bis zu 35-mal mehr Rechenleistung pro Watt als frühere Generationen. In einer Zeit, in der KI-Rechenzentren immer größere Mengen Strom verbrauchen, wird das zum entscheidenden Wettbewerbsfaktor.

Eine Schlüsselrolle spielen dabei neue Spezialchips für KI-Inferenzrechnung, also das Ausführen fertig trainierter KI-Algorithmen. Nvidia integriert erstmals sogenannte „Language Processing Units (LPUs)“ in seine Systeme – Beschleuniger, die speziell für die schnelle Berechnung von KI-Antworten entwickelt wurden. Die Technik dafür hatte Huang erst Ende vergangenen Jahres vom Start-up „Groq“ lizenziert und dabei auch gleich das ganze Entwicklerteam abgeworben.

Huang bezeichnete Tokens als „die neue Rohstoff-Einheit der digitalen Wirtschaft“. Je mehr Tokens ein Rechenzentrum pro Sekunde erzeugen kann, desto leistungsfähiger und profitabler werden KI-Dienste. Die neuen „Groq 3“-Chips sind deswegen darauf optimiert, viele dieser Tokens mit möglichst wenig Speicher und Energie zu berechnen. Nvidia kombiniert also zwei Chips – die GPU „Rubin“ für maximalen Durchsatz, also die Ausführung möglichst großer Sprachmodelle im Speicher, und die LPU „Groq 3“ für extrem niedrige Latenz bei der Beantwortung von konkreten Fragen. Die neue „Vera“-CPU trennt beide Aufgaben und verteilt sie auf spezialisierte Chips. Damit versucht Nvidia ein zentrales Problem moderner KI-Systeme zu lösen: Hoher Durchsatz und geringe Latenz gelten eigentlich als Gegensätze. „Sie sind Feinde“, sagte Huang. Mit der neuen Architektur soll sich beides gleichzeitig erreichen lassen. Huang sieht seine Architektur damit im Hinblick auf Energieeffizienz und Tempo weit vor der Konkurrenz. Das sei insbesondere wichtig, da Energie der limitierende Faktor beim Ausbau der kommenden Generation von Rechenzentren sei, so der Nvidia-CEO.

Zum Abschluss der Keynote blickte Huang noch auf den nächsten großen Wachstumstreiber für KI: Nvidia zeigt auf der GTC über hundert Roboter, die mit Nvidias Software betrieben werden. Das Unternehmen spricht von „Physischer KI“ – KI-Systemen, die nicht nur Texte oder Bilder erzeugen, sondern Maschinen steuern. Dazu gehören autonome Fahrzeuge ebenso wie Industrieroboter. Nvidia kündigte neue Partnerschaften mit mehreren Autobauern an, darunter BYD, Hyundai und Nissan, die Roboterfahrzeuge entwickeln.

Für Huang ist das der nächste große Schritt der KI-Revolution: Wenn intelligente Software nicht nur im Rechenzentrum arbeitet, sondern Maschinen in der realen Welt steuert, steigt der Bedarf an Rechenleistung noch einmal massiv. Die Rolle von Rechenzentren verändere sich grundlegend. Früher hätten sie vor allem Daten gespeichert. Heute seien sie Produktionsanlagen.

Langfristig denkt Nvidia sogar noch größer. Das Unternehmen arbeitet an Konzepten für Rechenzentren im Weltraum, die Sonnenenergie nutzen könnten. Doch schon auf der Erde dürfte der Bedarf explodieren. Huang geht davon aus, dass die Nachfrage nach KI-Rechenleistung in den kommenden Jahren drastisch steigen wird. Für Nvidia zeichne sich bereits jetzt ein Markt von bis zu einer Billion Dollar pro Jahr ab.

Dieser Artikel wurde für das Wirtschaftskompetenzzentrum von WELT und „Business Insider Deutschland“ erstellt.

Wirtschaftsredakteur Benedikt Fuest berichtet regelmäßig über das KI-Rennen, Technologie und Rüstung.

Haftungsausschluss: Das Urheberrecht dieses Artikels liegt beim ursprünglichen Autor. Die erneute Veröffentlichung dieses Artikels dient ausschließlich der Informationsverbreitung und stellt keine Anlageberatung dar. Bei Verstößen kontaktieren Sie uns bitte umgehend. Wir werden bei Bedarf Korrekturen oder Löschungen vornehmen. Vielen Dank.