Yann LeCun ist einer der „Godfathers of AI“, Turing-Preisträger und der Mann, der bei Meta eigentlich die Richtung vorgeben sollte. Doch während Mark Zuckerberg Milliarden in den Traum von der „Superintelligenz“ pumpt, steht LeCun am Rand und schüttelt den Kopf. Seine These: Large Language Models (LLMs) sind eine Sackgasse. Er vergleicht den aktuellen Stand der Technik gerne mit der Intelligenz einer Katze und kommt zu dem Schluss, dass die Katze schlauer ist. Yann LeCun möchte Meta verlassen, um ein eigenes Startup zu gründen, weil er den aktuellen Weg für einen Irrweg hält.
Warum ist das wichtig?
Langfristige KI-Grundlagenforschung prallt auf Quartalsergebnisse. Der gesamte Markt schreit gerade „Scale is all we need“ und wirft Unsummen in LLMs. LeCun hält schon lange dagegen: LLMs verstehen die Welt nicht, sie simulieren nur Verständnis basierend auf Textdatenbanken. Er setzt auf sogenannte „World Models“. Diese sollen lernen wie ein Mensch – durch visuelle Beobachtung und das Verstehen physikalischer Zusammenhänge, nicht durch das Auswendiglernen von Sprache. Wenn der Mann, der seit 40 Jahren mit seinen Prognosen richtig lag, jetzt sagt, dass die gesamte Branche dem "schnellen Vorteil" der LLMs verfallen ist, sollten man genauer hinhören.










