Es ist GTC: Lederjacke, LPU & eine Billion Dollar Umsatz

Our Podcast with Sven Kramer & Sebastian Karger

Want more analyses & insights like this delivered weekly to your inbox?
Sign up for the Tech Update now!

The digital world moves fast! This article was published more than 180 days ago. While the core ideas may still hold value, some details or data might be outdated. Need up-to-date assessments? Feel free to contact us!

This content has been automatically translated.

Update

Produktsheet des NVIDIA Groq 3 LPX Serverschranks mit technischen Daten zu Rechenleistung, SRAM-Kapazität und Speicherbandbreite für KI-Inferenz.

Nvidia

Es ist GTC Woche, das heißt für Jensen Huang Lederjacke an, ab auf die Bühne und den Rockstar der Halbleiter-Welt geben. Inmitten von 30.000 Fans im SAP Center (in San Jose, nicht Walldorf) rief er das „Zeitalter der Inferenz“ aus. Der Star der Show? Das Nvidia Groq 3 LPX Rack. Nvidia kaufte sich für 20 Milliarden Dollar bei dem Startup Groq ein. Durch die Kombination von deren Language Processing Units (LPUs) mit dem hauseigenen Vera Rubin System verspricht der Konzern nun Geschwindigkeiten, die 350-mal schneller sind als die Hopper-Generation.

Warum ist das wichtig?

Das Problem der kostspieligen Inferenz ist nicht neu, weshalb Groq bereits seit längerem heiß gehandelt wird. Kaum ist der Deal mit Nvidia unterschrieben, folgt auch schon das erste Produkt. Neben den für „Trainings“ (das Füttern der Modelle) prädestinierten GPUs, stellt Nvidia ein vollständiges Rack für die Phase der „Inferenz“ (das tatsächliche Arbeiten der Modelle bei Nutzeranfragen) vor.

Bisherige GPUs sind für die Antwort-Phase oft zu energiehungrig sowie durch Speicher-Engpässe zu langsam. Mit dem neuen Setup löst Nvidia genau diesen Flaschenhals und Jensen Huang träumt von 1 Billion Dollar Umsatz bis 2027.

Ein weiterer interessanter Aspekt ist, dass Samsung und nicht TSMC die Chips produziert. Samsung hatte vor wenigen Monaten schon die notwendigen Zulassungen erhalten. Und: Die offizielle Empfehlung von Jensen Huang ist es, ein Data Center mit 25 % Groq und 75 % Vera-Rubin auszustatten. Damit nur keiner auf Idee kommt, auf z.B. Googles TPU zurückzugreifen.

Unsere Einordnung

Wenn Rechenleistung und Geschwindigkeit um den Faktor 350 steigen, verlieren klassische Effizienz-Metriken ihre Bedeutung. Die Bedeutung dieser „Intelligence-Factories“ werden wir alle wohl erst später greifen können. Sicher ist aber: Im Vergleich dazu wirken menschliche Denkprozesse wie Standbilder.

One more: Das Ökosystem

Nvidia kontrolliert nicht mehr nur den einen Chip, sondern will alle Chips entlang der KI-Wertschöpfungskette kontrollieren. Das sichert ihnen Abnehmer für ihre Chips in einem Segment, welches weiter wachsen wird, auch wenn in der Zukunft zunehmend weniger trainiert werden muss.
Thema Ökosystem: Schon letzte Woche wurde dazu gemutmaßt, jetzt hat es Nvidia im Rahmen der GTC bestätigt. Nvidia schafft eine Open-Source AI Agent Platform, ähnlich wie OpenClaw. Damit folgt die nächste Komponente im Ökosystem.

Für unsere Kunden geht es an dieser Stelle noch weiter.
Jetzt anmelden!

Dive in!

Sehen Sie Parallelen zu Ihren Herausforderungen? Lassen Sie uns besprechen, wie eine maßgeschneiderte Lösung für Sie aussehen könnte.

Continue Reading

By clicking “Accept”, you agree to the storing of cookies on your device to enhance site navigation, analyze site usage, and assist in our marketing efforts. View our Privacy Policy for more information.