Apple druckt Geld und kauft sich mit Q.AI einen Gedankenleser

Our Podcast with Sven Kramer & Sebastian Karger

Want more analyses & insights like this delivered weekly to your inbox?
Sign up for the Tech Update now!

The digital world moves fast! This article was published more than 180 days ago. While the core ideas may still hold value, some details or data might be outdated. Need up-to-date assessments? Feel free to contact us!

This content has been automatically translated.

Update

Q.AI

Tim Cook hat es wieder getan. Während alle sich fragen, ob die KI-Blase platzt, legt Apple das sprichwörtliche "Monster-Quartal" hin. Eine potenzielle KI-Blase ist Apple schließlich egal, Apple hat ja keine KI. 144 Milliarden Dollar Umsatz, 42 Milliarden Gewinn. Das iPhone 17 verkauft sich so gut, dass selbst die bestinformiertesten Analysten überrascht sind. China? Klar zurückerobert. Aber, und das ist viel interessanter: Während alle auf die Zahlen starren, hat Apple für 2 Milliarden Dollar das israelische Startup Q.AI gekauft. Und das finden wir deutlich spannender als jeden Earnings Call.

Warum ist das wichtig?

Q.AI geht es um "Silent Speech" und die Erkennung von "Mikrobewegungen der Gesichtshaut". Apple sucht nach einer smarten Steuerung seiner Devices, denn niemand will im Zug mit seiner Brille reden ("Hey Siri, öffne Mails"). Auch Gestensteuerung (fuchteln in der Luft) ist sozial nicht akzeptiert und langfristig ermüdend. Die Technologie von Q.AI erkennt, was der Nutzer sagen will, indem sie die elektrischen Signale oder Mikrobewegungen der Muskeln analysiert, die beim "stillen Sprechen" (Subvokalisierung) entstehen, ggf. mit leichter Bewegung der Lippen. Man kann also eine Nachricht diktieren oder einen Befehl geben, ohne einen Ton zu sagen. Das scheint die perfekte, unsichtbare Interaktion für Augmented Reality Brillen zu sein.

Unsere Einordnung

Mikroexpressionen sind extrem schnelle (40 bis 500 Millisekunden), unwillkürliche Gesichtsausdrücke, die die wahren Emotionen eines Menschen offenbaren. Im Gegensatz zu normalen Gesichtsausdrücken können sie kaum bewusst unterdrückt oder gefälscht werden. Sie entstehen durch minimale Muskelkontraktionen im Gesicht. Die meisten Menschen können dieses Expressionen weder bei sich, noch bei anderen erkennen, aber können darin geschult werden.

Mit der Technologie von Q.AI könnte es Apple möglich werden, diese Mikroexpressionen zu erkennen. Und nicht nur von der eigenen Person (z.B. dem Brillenträger). Durch Außenkameras ist es auch denkbar, die Mikroexpressionen des Gesprächspartners zu analysieren (Lügt er? Ist er genervt? Hat er Kaufinteresse?). Das passt (noch) nicht zu Apples Privacy-Image, sofern das nach der Gemini Integration noch vorhanden ist. Apple wird die Technologie also vorerst als Input-Methode ("Gedankensteuerung Light") vermarkten, nicht als Überwachungstool.

Es bleibt aber noch ein weiterer Gedanke: Apple hat den ersten Hype um Generative AI (LLMs) komplett verschlafen und muss sich jetzt demütig Google Gemini ins Haus holen, um softwareseitig nicht unterzugehen. Peinlich? Vielleicht. Aber... Während andere sich um das "Gehirn" der KI prügeln, sichert sich Apple das "Nervensystem". Wenn wir in zwei Jahren unsere Brillen nur noch durch bloßes "Denken" (oder minimales Kieferbewegen) steuern, interessiert es niemanden mehr, welches LLM im Hintergrund läuft. Apple kontrolliert wieder den Zugang zum Nutzer. Wer braucht schon eigene KI-Modelle, wenn er Gedanken lesen kann?

Für unsere Kunden geht es an dieser Stelle noch weiter.
Jetzt anmelden!

Dive in!

Sehen Sie Parallelen zu Ihren Herausforderungen? Lassen Sie uns besprechen, wie eine maßgeschneiderte Lösung für Sie aussehen könnte.

Continue Reading

By clicking “Accept”, you agree to the storing of cookies on your device to enhance site navigation, analyze site usage, and assist in our marketing efforts. View our Privacy Policy for more information.