News Intel-Studie: Wie stark verlagern sich AI-Berechnungen auf lokale PCs?

Andy

Tagträumer
Teammitglied
Registriert
Mai 2003
Beiträge
8.216
Wenn heute von AI-Tools die Rede ist, geht es in erster Linie um Cloud-Dienste wie ChatGPT. Immer mehr Anwendungen sollen künftig aber lokal laufen. Entscheider in Unternehmen begrüßen und fördern diesen Trend, wie eine aktuelle Studie von Intel zeigt. Das passt aber auch zur Wette des kriselnden Chip-Riesen.

Zur News: Intel-Studie: Wie stark verlagern sich AI-Berechnungen auf lokale PCs?
 
  • Gefällt mir
Reaktionen: aid0nex, schneeland, iron-man und 3 andere
Also auf meinen lokalen PC verlagert sich so wenig wie möglich davon. :D
 
  • Gefällt mir
Reaktionen: flo.murr, TIMOTOX, aid0nex und 12 andere
Wird eh wie mit RT sein - erst wills keiner und 2 Jahre später hats dann eh jeder. ;)
 
Überraschend, dass Intel zu dieser Schlussfolgerung kommt!

/s
 
  • Gefällt mir
Reaktionen: aid0nex, nyster, TechFA und 6 andere
Die Geheimdienste und die doofe Masse haben da kein Interesse dran. Es hätte rein lokal starten sollen zb mit einer echten Cortana. Stattdessen hat man halbgar und online alles versemmelt.

Zur Zeit läuft Werbung für copilot Laptops die einem angeblich viele Aufgaben abnehmen sollen. Viel sieht man in den werbeclips davon nicht.
 
  • Gefällt mir
Reaktionen: DirtyHarryOne
Bin trotzdem gespannt wie es sich entwickelt. Für Intel und AMD sicherlich auch wichtig das es in diese Richtung geht. Allerdings die Frage wo kommt die "Intelligenz" dann her. Eine riesige Datenbank gibt es ja nur in der Cloud.
 
Ist eigentlich nur logisch. Schon jetzt gibt es viele lokale (generative) KI-Anwendungen. Das funktioniert mit entsprechender Hardware auch schon ganz gut, je nach use case. Wenn die Entwicklung so weitergeht, wird das insbesondere mit spezialisierter Hardware vermutlich auch noch deutlich umfangreicher.
 
  • Gefällt mir
Reaktionen: slow_snail, Kuristina und DirtyHarryOne
Wo sollen die Infos bei der lokalen Verarbeitung herkommen?

Fotoerkennung oder das durchsuchen/zusammenfassen von pdfs kann ich mir noch vorstellen. Bei 95% meiner ChatGPT Anfragen würden lokal nicht funktionieren.
 
anexX schrieb:
Wird eh wie mit RT sein - erst wills keiner und 2 Jahre später hats dann eh jeder. ;)
Bislang ist die Devise unter Einstiegs GPUs immer noch: RT aus - spielbar. RT an - unspielbar.
Haben tun vielleicht alle; nutzen jedoch?
 
  • Gefällt mir
Reaktionen: nyster, Kaufmannsladen, Haldi und eine weitere Person
SSD960 schrieb:
Allerdings die Frage wo kommt die "Intelligenz" dann her. Eine riesige Datenbank gibt es ja nur in der Cloud.
Die Anwendungsfelder für KI sind halt breit und dementsprechend die benötigten Ressourcen divers.
Seit Jahren läuft KI schon auf unseren Handys für bessere Fotos, Gesichtserkennung, Katalogisierung der Alben usw.
Um nicht Siri dreimal unterschiedlich anbrüllen zu müssen, damit es meinen Befehl ordentlich versteht, braucht es auch keine Rechenleistung in der Cloud.

Es wird also nicht auf die eine Lösung hinauslaufen, sondern mindestens zweigleisig.
Einmal eine effiziente NPU in den Geräten selbst, ganz nah am User, vieles sogar ohne Internetzwang.

Wie sich so eine aktuelle "50 Tops, Copilot+ fähige NPU" in Adobe Firefly oder anderen grafiklastigen Szenarien für die Mediengestaltung schlägt, weiß ich nicht. Oder ob da eine/mehrere Highend Grafikkarten weiterhin der Standard bleiben werden.

Und dann eben noch der Anwendungsfall mit gigantischen KI Rechenzentren wo Unternehmen / User mittels API / Software ihre Anfragen stellen.

Wer weiß was sich Microsoft oder Apple zukünftig für Sachen einfallen lassen.
Wieviel TOPS muss die nextgen NPUs liefern um wieder für irgendeinen Aufkleber würdig zu sein?
Steigt es um 2x oder 10x ? Wieviel ist möglich bei wieviel Chipfläche oder Stromverbrauch... wird spannend die nächsten Jahre.
 
  • Gefällt mir
Reaktionen: LDNV
Lokale PCs?

Meine Fresse, KI hat SETI getötet...
 
Naja, wir leben in Zeiten wo man 99% der AI Features eben ohne irgendwelche Abos, Werbung oder ähnliches Kostenlos aus der Cloud laufen lassen kann. Wenn sich das in ein paar Jahren ändert und die Investoren Gewinne fordern kann sich das mit den lokalen NPU Features auch rasch ändern. Wahrscheinlich könnt man mit dem Vermarkten der Zugriffsdaten auch Kostendeckend arbeiten, irgendwann reicht das dann halt nicht mehr.
 
  • Gefällt mir
Reaktionen: Nefcairon
AI könnte lokal evtl. auch auf der Grafikkarte laufen. Mal schauen, ob die GPU-Hersteller nicht auf diesen Zug aufspringen.
Ergänzung ()

Ostfriese schrieb:
Meine Fresse, KI hat SETI getötet...
Antwort von Gemini:
Nein, die Künstliche Intelligenz (KI) hat SETI nicht "getötet", sondern sie revolutioniert und beschleunigt die Suche nach außerirdischer Intelligenz.
Reiner Selbstschutz - die Maschinen wehren sich!
 
  • Gefällt mir
Reaktionen: Ostfriese und Kuristina
  • Gefällt mir
Reaktionen: Topi41
Also wälzen die ganzen großen Anbieter die Stromkosten und die Hardware auf alle Endgerätebenutzer ab?
 
supermanlovers schrieb:
Wo sollen die Infos bei der lokalen Verarbeitung herkommen?
Soweit ich das verstanden habe, Model(le) herunterladen und lokal mit deinen eigenen Sachen anfüttern.
je nach Anwendungsfall erlaubt man dann Anfragen ins Netz um auch aktuelles an Infos zu bekommen.

Cloud only nein danke:

there-is-no-cloud.png
 
  • Gefällt mir
Reaktionen: drmaniac und Jan
also wenn KI dann nur lokal. Nur sind die tollsten Funktionen lokal nicht stemmbar
 
  • Gefällt mir
Reaktionen: drmaniac und Haldi
@Stahlseele
Ja und es macht ja auch Sinn. Man verarbeitet lokal selbst seine Daten und die Firmen haben die Kapazität frei für weiteres Training. Und gerade deutsche oder europäische Firmen haben es sehr viel einfacher bezüglich DSGVO etc.

Von daher kann ich persönlich es nur begrüßen wenn es so läuft.
Ergänzung ()

Botcruscher schrieb:
:freak:
Der Blurfilter als killerapp. NPUs sind verschwendetes Silizium. Change my mind!
Training der Modelle bei den Firmen, Ausführung bei mir. Das ist das beste, was geschehen kann für den Kunden. Daher: keine NPU ist verschwendetes Silizium.
 
  • Gefällt mir
Reaktionen: Nefcairon, nyster, LDNV und eine weitere Person
Zurück
Oben