Es ist GTC: Lederjacke, LPU & eine Billion Dollar Umsatz

Unser Podcast mit Sven Kramer & Sebastian Karger

Gefällt Ihnen dieser Einblick? Erhalten Sie jede Woche aktuelle Analysen und Impulse wie diesen direkt in Ihr Postfach.
Jetzt für das Tech-Update anmelden!

Die digitale Welt dreht sich schnell! Dieser Artikel wurde vor mehr als 180 Tage veröffentlicht. Während die grundlegenden Überlegungen weiterhin relevant sein können, entsprechen möglicherweise nicht mehr alle Details oder Daten dem heutigen Stand. Benötigen Sie tagesaktuelle Einschätzungen? Sprechen Sie uns gerne an!

This content has been automatically translated.

Update

Produktsheet des NVIDIA Groq 3 LPX Serverschranks mit technischen Daten zu Rechenleistung, SRAM-Kapazität und Speicherbandbreite für KI-Inferenz.

Nvidia

Es ist GTC Woche, das heißt für Jensen Huang Lederjacke an, ab auf die Bühne und den Rockstar der Halbleiter-Welt geben. Inmitten von 30.000 Fans im SAP Center (in San Jose, nicht Walldorf) rief er das „Zeitalter der Inferenz“ aus. Der Star der Show? Das Nvidia Groq 3 LPX Rack. Nvidia kaufte sich für 20 Milliarden Dollar bei dem Startup Groq ein. Durch die Kombination von deren Language Processing Units (LPUs) mit dem hauseigenen Vera Rubin System verspricht der Konzern nun Geschwindigkeiten, die 350-mal schneller sind als die Hopper-Generation.

Warum ist das wichtig?

Das Problem der kostspieligen Inferenz ist nicht neu, weshalb Groq bereits seit längerem heiß gehandelt wird. Kaum ist der Deal mit Nvidia unterschrieben, folgt auch schon das erste Produkt. Neben den für „Trainings“ (das Füttern der Modelle) prädestinierten GPUs, stellt Nvidia ein vollständiges Rack für die Phase der „Inferenz“ (das tatsächliche Arbeiten der Modelle bei Nutzeranfragen) vor.

Bisherige GPUs sind für die Antwort-Phase oft zu energiehungrig sowie durch Speicher-Engpässe zu langsam. Mit dem neuen Setup löst Nvidia genau diesen Flaschenhals und Jensen Huang träumt von 1 Billion Dollar Umsatz bis 2027.

Ein weiterer interessanter Aspekt ist, dass Samsung und nicht TSMC die Chips produziert. Samsung hatte vor wenigen Monaten schon die notwendigen Zulassungen erhalten. Und: Die offizielle Empfehlung von Jensen Huang ist es, ein Data Center mit 25 % Groq und 75 % Vera-Rubin auszustatten. Damit nur keiner auf Idee kommt, auf z.B. Googles TPU zurückzugreifen.

Unsere Einordnung

Wenn Rechenleistung und Geschwindigkeit um den Faktor 350 steigen, verlieren klassische Effizienz-Metriken ihre Bedeutung. Die Bedeutung dieser „Intelligence-Factories“ werden wir alle wohl erst später greifen können. Sicher ist aber: Im Vergleich dazu wirken menschliche Denkprozesse wie Standbilder.

One more: Das Ökosystem

Nvidia kontrolliert nicht mehr nur den einen Chip, sondern will alle Chips entlang der KI-Wertschöpfungskette kontrollieren. Das sichert ihnen Abnehmer für ihre Chips in einem Segment, welches weiter wachsen wird, auch wenn in der Zukunft zunehmend weniger trainiert werden muss.
Thema Ökosystem: Schon letzte Woche wurde dazu gemutmaßt, jetzt hat es Nvidia im Rahmen der GTC bestätigt. Nvidia schafft eine Open-Source AI Agent Platform, ähnlich wie OpenClaw. Damit folgt die nächste Komponente im Ökosystem.

Für unsere Kunden geht es an dieser Stelle noch weiter.
Jetzt anmelden!

Jetzt reinhören!

Sehen Sie Parallelen zu Ihren Herausforderungen? Lassen Sie uns besprechen, wie eine maßgeschneiderte Lösung für Sie aussehen könnte.

Weitere Themen

Wir verwenden Cookies, um die Nutzung dieser Website zu verbessern, zu analysieren und unsere Marketingbemühungen zu unterstützen. Indem Sie auf „Akzeptieren“ klicken, stimmen Sie der Verwendung dieser Cookies zu. Mehr Informationen finden Sie in unserer Datenschutzerklärung.