Künstliche IntelligenzMeinung

Apple-KI kommt: Kauft jetzt lieber keine Apple-Geräte!

Das lokale KI-System "Ferret" von Apple wird wahrscheinlich einschlagen wie eine Bombe. Allerdings braucht KI viel Speicher und Rechenzeit.

Apples KI-System steht in den Startlöchern, und wie immer weiß niemand außer Apple selbst im Vorfeld, was da genau kommen wird. Oder wann. Oder in welcher Form. Weitestgehend sicher ist aber: Apples KI, Codename Ferret, wird in großen Teilen – oder sogar komplett – lokal auf Euren Geräten laufen. Ein guter Grund, beim Neukauf von iPhones, iPads oder Macs erst einmal die Füße still zu halten.

Derzeit arbeiten die meisten KI-Modelle mit Cloud-Computing. Auch Apples Siri oder andere Sprachmodelle wie etwa Alexa – natürlich keine KI, nicht einmal, wenn man es gut meint – laufen über Internetverbindung zu Cloud-Diensten. Bei einer echten LLM (Large Language Models) und MLLM (Multipurpose Large Langiuage Model) wie GPT-4 oder Googles Gemini ist das nicht anders: Sie arbeiten (noch) in der Cloud. Und das hat einen guten Grund: Die technischen Leistunganforderungen für KI-Systeme sind enorm, die Modelle und Trainingsdaten benötigen enorm viel Speicher und Rechenkraft.

Apple-Geräte sind (k)eine gute Basis für lokale KI-Systeme

Speicher ist allerdings etwas, was nicht gerade Apples Spezialität ist: Basis-Macbooks müssen mit 256 Gigabyte auskommen, viele iPhones und iPads in Grundausstattung sogar nur mit 64 Gigabyte. Wohlgemerkt aktuelle Geräte. Auch in Sachen RAM sind Macs – zumindest die breite Masse in Endnutzer-Konfiguration – nach heutigen Maßstäben lausig aufgestellt.

In Sachen Rechenleistung ist Apple dagegen lokal recht gut aufgestellt: Die Machine-Learning-Kerne aktueller Apple-Silicon-Chips unterstützen den Rechner oder das Smartphone massiv und bei der Verarbeitung von KI-Inhalten. Dennoch sind sie leistungsseitig noch weit davon entfernt, mit einer Cloud mithalten zu können.

Aus Groß mach Klein

Falls Apple Ernst machen sollte und tatsächlich eine KI mit der Leistungsfähigkeit von GPT-4 lokal auf den Mac und das iPhone bringen sollte, würden theroretisch auch gigantische Speichermengen nicht ausreichen. Allein die technischen Daten von GPT-4, die im Sommer 2023 geleakt wurden, lassen Normalnutzer schwindelig werden. Bei Reddit wurde spekuliert, dass das GPT-4-Modell rund 750 Gigabyte (!) RAM und tausende Nvidia-GPUs benötigen könnte. Detaillierte Angaben fehlen allerdings.

Allerdings sind das die Anforderungen des Gesamtmodells, das zahlreiche User gleichzeitig bedient. Ein Mac oder iPhone müsste nur mit einem Anwender arbeiten. Das Context-Window eines GPT-Prozesses ist dementsprechend deutlich kleiner und deutlich unter dem Niveau eines Basis-Macs. Zudem gibt es bereits längere lokale KI-Lösungen wie GPT4All, die ohne den Cloud-Hintergrund auf normalen Computern arbeiten und mit "relativ" wenig Speicher auskommen: Rund vier Gigabyte ist etwa OpenOrca, eines der Modelle für GPT4All, groß und braucht 8 Gigabyte RAM.

Apple KI: Kommen deutlich stärkere Macs und iPhones?

Doch selbst das ist – zumindest auf iPhones und iPads oder gar dem HomePod – eine hohe Anforderung: Apple muss also einen Weg finden, den Aufwand für die Modelle deutlich zu verkleinern, um sie effizient in MacOS, iOS, iPadOS und den kleineren Systemen für Smart-Devices zu integrieren. Oder die Leistungsfähigkeit der Endgeräte, vor allem in Sachen RAM und Speicher, deutlich erhöhen.

Ihr seht, wohin das führt? Entweder hat Apple die KI so geschrumpft, dass sie aktuelle Macs und iDevices nicht stört. Oder der Anbieter pfuscht, etwa durch einen smarten Cloud-Zugriff, der eine rein lokale Ausführung der LLM auf den Endgeräten zu erlauben, ohne deren Speicher zu fressen. Am wahrscheinlichsten ist jedoch, dass Apple die Hardware-Grundausstattung verbessert – oder die lokale KI nur auf besonders leistungsstarken Geräten erlaubt.

So oder so wird es spannend: Wahrscheinlich ist, dass Apple die KI auf der WWDC 2024 im Sommer zumindest zusammen mit den neuen MacOS und iOS-Version präsentiert, um mit den Mitbewerbern Schritt zu halten. Bis dahin ist es sinnvoll, sich mit Neukäufen zurückzuhalten, denn Macs, iPhones und andere Geräte, die "Ferret-Ready" sind, dürften spätestens im Herbst eine deutlich bessere Ausstattung erhalten. Natürlich immer vorausgesetzt, Apple findet keinen Weg für die deutliche Kompression der Anforderungen.

KI-Tools für den Unterricht: Mit E-Book inside
25,00 €
(Stand: 15.07.2024 04:45 - Details)
Verkäufer: Amazon.de
Zum Angebot bei Amazon ↗
×
Produktpreise und -verfügbarkeit sind zum angegebenen Datum / Uhrzeit korrekt und können sich ändern. Alle Preis- und Verfügbarkeitsinformationen auf https://www.amazon.de/ zum Zeitpunkt des Kaufs gelten für den Kauf dieses Produkts.
×
Produktpreise und -verfügbarkeit sind zum angegebenen Datum / Uhrzeit korrekt und können sich ändern. Alle Preis- und Verfügbarkeitsinformationen auf https://www.amazon.de/ zum Zeitpunkt des Kaufs gelten für den Kauf dieses Produkts.
×
Produktpreise und -verfügbarkeit sind zum angegebenen Datum / Uhrzeit korrekt und können sich ändern. Alle Preis- und Verfügbarkeitsinformationen auf https://www.amazon.de/ zum Zeitpunkt des Kaufs gelten für den Kauf dieses Produkts.

Christian Rentrop

Diplom-Journalist, Baujahr 1979. Erste Gehversuche 1986 am Schneider CPC. 1997 ging es online. Seither als Schreiberling in Totholzwäldern und auf digitalen Highways unterwegs. Öfter auch auf der Vespa oder mit dem Wohnwagen unterwegs. Seit 2020 Tochtervater, dementsprechend immer sehr froh über eine kleine Kaffeespende.

2 Kommentare

  1. “Rund vier Gigabyte ist ist etwa OpenOrca, …”

    Hier ist ein “ist” zu viel. Vielleicht sollte aus dem zweiten “ist” auch ein “in” werden.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Schaltfläche "Zurück zum Anfang"
></div>