KI als Fondsmanager: Zwischen Genie und „High-School“-Logik

Unser Podcast mit Sven Kramer & Sebastian Karger

Gefällt Ihnen dieser Einblick? Erhalten Sie jede Woche aktuelle Analysen und Impulse wie diesen direkt in Ihr Postfach.
Jetzt für das Tech-Update anmelden!

Die digitale Welt dreht sich schnell! Dieser Artikel wurde vor mehr als 180 Tage veröffentlicht. Während die grundlegenden Überlegungen weiterhin relevant sein können, entsprechen möglicherweise nicht mehr alle Details oder Daten dem heutigen Stand. Benötigen Sie tagesaktuelle Einschätzungen? Sprechen Sie uns gerne an!

This content has been automatically translated.

Update

Surreale Illustration eines Roboters als „KI Analyst“ im Anzug am Schreibtisch mit Börsencharts, der raucht und Kaffee trinkt; Thema KI-Investment.

OpenAI

Der Selbstversuch eines WSJ-Reporters zeigt: ChatGPT als Finanzberater ist wie ein hochbegabter Praktikant – er hat glänzende Ideen, aber es fehlt noch die notwendige Erfahrung. Während die KI bei geopolitischen Krisen wie dem Iran-Konflikt durchaus passable Umschichtungen vorschlug, blieb die Performance am Ende hinter dem S&P 500 zurück. Ein Korb von KI-selektierten Verteidigungsaktien stieg zwar um 5,5%, doch der Markt lag mit 8% Gewinn darüber.

Warum ist das wichtig?

Beeindruckende 30% der Privatanleger nutzen bereits KI für ihre Portfolios. Das Problem: KI-Modelle neigen zur „Sykophantie“ – sie geben dem Nutzer oft recht, anstatt ihn vor Fehlern zu warnen, nur um ihm zu gefallen. In einer Welt, in der „Vibe-Coding“ die Vermögensverwaltung erreicht, verschwimmt die Grenze zwischen fundierter Analyse und bloßer Gefälligkeit.

Unsere Einordnung

KI ist ein exzellentes Sparringstool, um Szenarien durchzuspielen oder komplexe Themen zu strukturieren. Es klingt immer wieder durch, man würde mit dem Feuer spielen, wenn man der KI blind sein Portofolio anvertraut. Aber KI nicht mit einem Fondsmanager, sondern mit einem Index zu vergleichen ist auch nicht fair.

One more: Das Risiko des „bekifften“ Assistenten

MIT-Finanzprofessor Andrew Lo vergleicht die aktuelle KI mit einem genialen Assistenten, der leider ein massives Problem hat: Er raucht zu viel Marihuana. Er ist wahnsinnig smart, aber man muss alles, was er sagt, mit einer ordentlichen Portion Skepsis betrachten. Das Risiko? Teure Rechenfehler und strategische Halluzinationen, die erst auffallen, wenn die Rendite bereits in Rauch aufgegangen ist.

Für unsere Kunden geht es an dieser Stelle noch weiter.
Jetzt anmelden!

Jetzt reinhören!

Sehen Sie Parallelen zu Ihren Herausforderungen? Lassen Sie uns besprechen, wie eine maßgeschneiderte Lösung für Sie aussehen könnte.

Weitere Themen

Wir verwenden Cookies, um die Nutzung dieser Website zu verbessern, zu analysieren und unsere Marketingbemühungen zu unterstützen. Indem Sie auf „Akzeptieren“ klicken, stimmen Sie der Verwendung dieser Cookies zu. Mehr Informationen finden Sie in unserer Datenschutzerklärung.