Billionen-Markt im Visier: Nvidia läutet mit „Vera Rubin“ und Groq-Technologie neue KI-Ära ein

Auf der diesjährigen Entwicklerkonferenz GTC in Kalifornien hat Nvidia-Chef Jensen Huang eine neue Dimension für das Geschäft mit Künstlicher Intelligenz skizziert. Vor über 18.000 Zuschauern in der ausverkauften Eishockey-Arena von San Jose korrigierte der Konzern seine bisherigen Marktprognosen massiv nach oben: Nvidia traut dem Markt für seine KI-Lösungen bis zum Jahr 2027 nun ein Umsatzpotenzial von mindestens einer Billion Dollar zu.

Noch bei der Bekanntgabe der jüngsten Quartalszahlen lag die Schätzung bei 500 Milliarden Dollar bis 2026. Die Verdopplung dieses Ziels unterstreicht den rasanten Ausbau der weltweiten „KI-Fabriken“.

Der Strategiewechsel: Von Training zu Inferenz

Ein zentraler Aspekt von Huangs Keynote war die Feststellung, dass der Markt einen entscheidenden Wendepunkt erreicht habe. „Der Wendepunkt bei der Inferenz ist erreicht“, erklärte Huang. Während in den letzten Jahren das Training großer Sprachmodelle im Fokus stand, verlagert sich der Bedarf nun massiv auf die Inferenz – also das Beantworten von Nutzeranfragen in Echtzeit durch bereits trainierte Modelle.

Um diese Phase zu dominieren, bricht Nvidia mit der reinen GPU-Tradition und setzt auf eine neue, hybride Architektur.

Die „Vera Rubin“-Plattform und die Allianz mit Groq

Das Highlight der Konferenz war die Vorstellung des neuen KI-Systems, das auf der „Vera Rubin“-Architektur (benannt nach der Astronomin, die dunkle Materie nachwies) basiert. Hierbei kombiniert Nvidia seine eigenen Hochleistungschips mit Technologie des Startups Groq, die im Dezember 2025 für rund 20 Milliarden Dollar (teils als Lizenzdeal, teils als „Acqui-Hire“) gesichert wurde.

Der Rechenprozess wird künftig in zwei spezialisierte Phasen unterteilt:

  1. Phase 1 (Verständnis): Die neuen Vera-Rubin-Chips übernehmen die Übersetzung menschlicher Sprache in computerlesbare Datenbausteine (Tokens). Diese Chips bieten eine enorme Speicherbandbreite und Rechenkraft für komplexe Datenstrukturen.
  2. Phase 2 (Antwortgenerierung): Die von Groq lizenzierten LPUs (Language Processing Units) übernehmen den zweiten Schritt. Durch ihren spezialisierten SRAM-Speicher liefern sie Antworten mit extrem niedriger Latenz und bis zu 10-facher Geschwindigkeit im Vergleich zu herkömmlichen GPUs.

Hinweis zur Verwechslungsgefahr: Nvidia betonte explizit, dass das Startup Groq nichts mit der KI „Grok“ des Elon-Musk-Konzerns xAI zu tun hat. Groq wurde bereits 2016 von Jonathan Ross, dem Miterfinder der Google TPU, gegründet.

Hardware-Roadmap: Nvidia übernimmt das Rechenzentrum

Mit dem Vera Rubin NVL72 System stellt Nvidia nicht mehr nur Komponenten, sondern komplette Rack-Strukturen bereit.

  • Vera CPU: Ein neuer 88-Kern-Prozessor, der direkt mit Intel und AMD konkurriert.
  • Rubin GPU: Der Nachfolger der Blackwell-Generation mit HBM4-Speicher.
  • Groq 3 LPU: Integrierte Beschleuniger für den massiven Inferenz-Durchsatz.

Laut Huang wird das System bereits in der zweiten Jahreshälfte 2026 ausgeliefert. Cloud-Anbieter wie Oracle, Microsoft und Alibaba haben bereits Interesse signalisiert, ihre Infrastruktur auf die neue Plattform umzustellen.


Mobilfunk-Newsletter: Einmal pro Woche die neusten Informationen rund um Handy, Smartphones und Deals!


Unser kostenloser Newsletter informiert Sie regelmäßig per E-Mail über Produktneuheiten und Sonderaktionen. Ihre hier eingegebenen Daten werden lediglich zur Personalisierung des Newsletters verwendet und nicht an Dritte weitergegeben. Sie können sich jederzeit aus dem Newsletter heraus abmelden. Durch Absenden der von Ihnen eingegebenen Daten willigen Sie in die Datenverarbeitung ein und bestätigen unsere Datenschutzerklärung.

Immer die aktuellsten Nachrichten direkt im Smartphone.
Unsere Kanäle gibt es kostenlos hier:

Telegram: Appdated Telegram Channel
Facebook: Appdated Facebook Seite
Twitter: Appdated Twitter Channel

Schreibe einen Kommentar