The Rise of Claude

Our Podcast with Sven Kramer & Sebastian Karger

Want more analyses & insights like this delivered weekly to your inbox?
Sign up for the Tech Update now!

The digital world moves fast! This article was published more than 180 days ago. While the core ideas may still hold value, some details or data might be outdated. Need up-to-date assessments? Feel free to contact us!

This content has been automatically translated.

Update

Screenshot des Claude-Interfaces (Sonnet 4.5) mit einer komplexen deutschen Prompt-Anfrage zur Analyse von Satellitendaten und strategischer Planung.

Claude

OpenAI's GPT galt lange als das unantastbare "Tempo" unter den Sprachmodellen. Doch während ChatGPT die Schlagzeilen der Boulevardpresse dominiert, hat sich Anthropic mit seinem Modell Claude zum neuen Goldstandard für professionelle Anwender hochgearbeitet.
Der aktuelle "Ritterschlag": Das Pentagon setzte Claude (via Palantir) bei der militärischen Operation zur Ergreifung des venezolanischen Ex-Präsidenten Nicolás Maduro ein. Parallel dazu untermauert eine neue Finanzierungsrunde über 30 Mrd. Dollar bei einer Bewertung von 380 Mrd. Dollar den Anspruch auf die Thronfolge im KI-Sektor.

Warum ist das wichtig?

Anthropic setzt OpenAI bei der Akzeptanz im Enterprise-Sektor massiv unter Druck. Claude liefert Ergebnisse, die oft präziser und "vernünftiger" sind als die der Konkurrenz, was zu einem massiven Umsatzsprung auf zuletzt 14 Mrd. Dollar führte. Die Tatsache, dass das Pentagon Claude für hochsensible Missionen wie die Festnahme Maduros einsetzte, unterstreicht die technologische Reife und Verlässlichkeit unter Extrembedingungen. Doch der Erfolg hat Risse: Der Abgang des Sicherheitschefs Mrinank Sharma, der die "Welt in Gefahr" sieht und sich nun lieber der Poesie widmet, wirft Fragen über den internen Druck und das Tempo der Entwicklung auf.

Unsere Einordnung

Wenn Talente wie Sharma das Unternehmen aus ethischer Sorge verlassen,  ist das entweder ein Warnsignal oder ein ausgeprägtes Geltungsbedürfnis.

Könnten Anthropic-Kunden vor einem moralistischem Dilemma stehen? Vielleicht. Das Unternehmen wirbt mit strengen Sicherheitsrichtlinien gegen Gewalt und Überwachung. Dass das Pentagon das Modell dennoch in einem bewaffneten Konflikt einsetzte, zeigt eine gefährliche Grauzone. Es ist gut möglich, dass Kunden nun genau prüfen, ob die Nutzung von Claude in ihren Lieferketten mit den eigenen Zielen und Werten vereinbar ist, wenn die Grenzen zwischen ziviler und militärischer Nutzung verschwimmen. Immerhin zeigt Anthropic dem Pentagon aktuell noch Grenzen auf. Das fordert bereits uneingeschränkten Zugriff.

Das funktionale Momentum liegt aber definitiv bei Claude. Sam Altman bleibt aktuell aber immerhin ein Recruiting-Erfolg: Peter Steinberger, Entwickler von OpenClaw, heuert bei OpenAI an.

Für unsere Kunden geht es an dieser Stelle noch weiter.
Jetzt anmelden!

Dive in!

Sehen Sie Parallelen zu Ihren Herausforderungen? Lassen Sie uns besprechen, wie eine maßgeschneiderte Lösung für Sie aussehen könnte.

Continue Reading

By clicking “Accept”, you agree to the storing of cookies on your device to enhance site navigation, analyze site usage, and assist in our marketing efforts. View our Privacy Policy for more information.