Sie wollen das Zeitalter von "Skynet" heraufbeschwören...eine andere Erklärung gibt es nicht😂SuperHeinz schrieb:Ich könnte mir sogar vorstellen, dass Kunden von diesem "AI-Zauber" sogar abgeschreckt werden könnten. Ich besitze einen solchen Copilot-PC und frage mich immer noch, wofür dieser Zauber gut ist, wozu er mir nützt?
Was bewirkt diese dedizierte "NPU (2x Gen3 Neural Compute Engines) mit 11 TOPS INT8"? Welchem Zweck dient sie? Was kann ich damit machen? Welche Anwendungen profitieren davon?
Solange man den Kunden damit alleine lässt, bleibt der Verdacht bestehen, die Anbieter dieser Hardware wissen selbst nichts Rechtes damit anzufangen.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Captain Obvious?: Käufer interessieren sich laut Dell nicht für AI-PCs
- Ersteller Andy
- Erstellt am
- Zur News: Captain Obvious?: Käufer interessieren sich laut Dell nicht für AI-PCs
SuperHeinz
Commodore Pro
- Registriert
- März 2023
- Beiträge
- 4.259
Aber mein PC funktioniert damit weiterhin auch so, wie ich es von einem PC eben so gewohnt bin. 😉rentex schrieb:Sie wollen das Zeitalter von "Skynet" heraufbeschwören...eine andere Erklärung gibt es nicht😂
Hab im Firmenlaptop Lunar Lake und die meisten Funktionen sind deaktiviert, kein Wunder.
Andererseits haben wir ein eigenes auf ChatGPT basiertes LLM, welches auf interne Daten/Dokumente zugreifen kann. Der Dienst wird sehr gut angenommen und es gibt viel positives Feedback
Andererseits haben wir ein eigenes auf ChatGPT basiertes LLM, welches auf interne Daten/Dokumente zugreifen kann. Der Dienst wird sehr gut angenommen und es gibt viel positives Feedback
SuperHeinz
Commodore Pro
- Registriert
- März 2023
- Beiträge
- 4.259
Aber nur in PCs, in denen auch eine GPU verbaut ist. Bei den anderen läuft das über die NPU in der CPU.raychan schrieb:Bis jetzt habe ich noch kein Vorteil von ner NPU gesehen am Anfang liefen die lokalen KIs noch auf CPU aber da gab's noch keine NPUs jetzt wo es NPUs gibt läuft doch jede lokale KI über die GPU.
Und das ist halt in manchen Fällen auch inhaltlich gar nicht mal so gut. Auf der Arbeit bin ich dazu angehalten, Copilot zu nutzen, verwende manchmal auf Google-Suche und als ich bestimmte Spezialbegriffe einer speziellen Telefonsoftware recherchiert habe, habe ich Ergebnisse bekommen, wo das System sehr selbstsicher Aussagen machte, die zum Teil nicht richtig waren.just_fre@kin schrieb:Heute mache ich mit dem ganzen A.I.-Kram im Prinzip genau das Gleiche - nur mit dem Unterschied, dass ich die Ergebnisse etwas besser aufbereitet/zusammen gefasst bekomme. Und dafür der ganze Wirbel?
Herausgefunden habe ich es erst, als ich die "echten" Suchergebnisse durchgeschaut habe, endlich auf die technische Dokumentation des Herstellers gelangt bin, und dann dort manuell nachgeschaut habe.
Ich kann den Ergebnissen leider einfach nicht vertrauen. Was noch OK wäre. Aber die Systeme geben mir dann kaum brauchbare Quellen, wo ich dann selber nachschauen kann.
Das Problem an den ganzen Bot-Systemen ist, dass sie uns eben NICHT "helfen" wollen, möglichst gute Ergebnisse zu bringen, sondern die wollen, dass wir uns möglichst nur noch auf diese Bot-Systeme verlassen. Und das finde ich katastrophal.
Das ist gut so. Aber wofür braucht man ein KI PC zu hause?guggi4 schrieb:Hab im Firmenlaptop Lunar Lake und die meisten Funktionen sind deaktiviert, kein Wunder.
Andererseits haben wir ein eigenes auf ChatGPT basiertes LLM, welches auf interne Daten/Dokumente zugreifen kann. Der Dienst wird sehr gut angenommen und es gibt viel positives Feedback
crustenscharbap
Rear Admiral
- Registriert
- Jan. 2008
- Beiträge
- 5.396
Die Effizienz ist soweit ich weiß um Faktor 2-3 besser. Also wenn du etwas berechnest braucht eine iGPU ca 30W und ne NPU ca 10W. Aber schneller sind se nicht. Ne RTX 4060 schafft 233 TOPs bei 115W. Ne NPU so ca 50 TOPs bei 10-15W.raychan schrieb:Bis jetzt habe ich noch kein Vorteil von ner NPU gesehen am Anfang liefen die lokalen KIs noch auf CPU aber da gab's noch keine NPUs jetzt wo es NPUs gibt läuft doch jede lokale KI über die GPU.
Ein KI PC: Also für automatische Untertitel, zum Freistellen der Hintergründe oder Texterkennung brauche ich lokale KI. Aber das kann mein Mini PC mit R5 5560U ohne KI Chip auch.
Also verstehe ich die News.
Genauso soll es ja auch sein! Top!guggi4 schrieb:Andererseits haben wir ein eigenes auf ChatGPT basiertes LLM, welches auf interne Daten/Dokumente zugreifen kann.
@SVΞN , also zumindest so mancher Tastaturhersteller. Da gibt es dann eine Kappe gratis falls jemanden das Copilot Zeichen schon ankotzt. ^^
aspro
Captain
- Registriert
- Mai 2004
- Beiträge
- 3.554
Tja, für die meisten Menschen ist KI eine nette Spielerei, aber mehr nicht und demnach auch kein Anlass extra Geld dafür auszugeben. Und das sage ich als Software-Entwickler, der mittlerweile gerne mal KI zur Unterstützung nutzt. Ich bin allerdings auch früher mit Stackoverflow o.Ä. gut ausgekommen. Daher auch für mich kein wirklicher Gamechanger.
Jetzt bleibt eigentlich nur die Frage, wie viele Milliarden noch in KI versenkt werden, bis die KI-Blase endlich platzt, wenn Dell schon sagt, dass das niemandem interessiert. Was muss eigentlich noch passieren, bis realisiert wird, dass es weit und breit keinen rentablen Business Case dafür gibt. Mal von wenigen professionellen Anwendungen abgesehen, die aber nicht im Ansatz dieses Fantastilliarden an Investitionen rechtfertigen.
Mir kommt die Branche mittlerweile wie so ein Glücksspielesüchtiger vor: "Nur noch mal ein paar Milliarden, dann hole ich die ganzen Verlust ganz bestimmt wieder rein, ich schwöre..."
Jetzt bleibt eigentlich nur die Frage, wie viele Milliarden noch in KI versenkt werden, bis die KI-Blase endlich platzt, wenn Dell schon sagt, dass das niemandem interessiert. Was muss eigentlich noch passieren, bis realisiert wird, dass es weit und breit keinen rentablen Business Case dafür gibt. Mal von wenigen professionellen Anwendungen abgesehen, die aber nicht im Ansatz dieses Fantastilliarden an Investitionen rechtfertigen.
Mir kommt die Branche mittlerweile wie so ein Glücksspielesüchtiger vor: "Nur noch mal ein paar Milliarden, dann hole ich die ganzen Verlust ganz bestimmt wieder rein, ich schwöre..."
Flossen_Gaming
Commander
- Registriert
- Aug. 2008
- Beiträge
- 2.250
Ich habe nichts dagegen, wenn das ganze KI Thema wieder von der Bildfläche verschwindet.
Mit ChatGPT habe ich mal ein bisschen rumgespielt und getestet, aber bisher hat es für mich keinerlei Produktiven Nutzen hervorgebracht.
Meine 9070XT unterstützt da wohl das ein oder andere neben dem Gaming, aber bisher kenne ich da keinerlei Programm.
Mit ChatGPT habe ich mal ein bisschen rumgespielt und getestet, aber bisher hat es für mich keinerlei Produktiven Nutzen hervorgebracht.
Meine 9070XT unterstützt da wohl das ein oder andere neben dem Gaming, aber bisher kenne ich da keinerlei Programm.
coxon
Fleet Admiral
- Registriert
- Mai 2005
- Beiträge
- 12.549
Nun, fangen wir doch einfach mal bei deiner GPU und DLSS an.just_fre@kin schrieb:Ich verstehe bis heute nicht, was A.I. für mich als Konsument bringen soll? Um Aufklärung bin ich dankbar.
Bis du zuhause einen anderen Nutzen davon hast, werden leider noch ein paar Järchen vergehen.
input_iterator
Lt. Junior Grade
- Registriert
- Jan. 2010
- Beiträge
- 267
Die Aussage ist stark verkürzt wiedergegeben. Kevin Terwilliger erklärte, dass Kunden nicht auf Basis von K.I. Features kaufen. Er sagte aber nicht das Kunden K.I. Geräte generell ablehnen.
Wobei für lokale LLMs eine vorhanden NPU und deren Rechenleistung letzlich eher zweitrangig ist. Entscheidend für die "Qualität" der Intelligenz eines LLM die Größe und Genauigkeit des Modells. Das braucht aber wieder entsprechend viel (V)RAM. Dazu kommt, dass die integrierten NPUs in der Regel auf geringere Präzision und starke Quantisierung optimiert sind. Primäre Resource für brauchbare LLMs ist also der (V)RAM und die NPU ist auch gar nicht für größere, preäzisere LLMs ausgelegt.Conqi schrieb:Richtig. Ich glaube, wenn darauf lokal brauchbare LLMs laufen würden, gäbe es sogar ein gewisses Interesse.
Bei aktuellen AI-PCs ist man eher auf sehr simple Modelle beschränkt, die dann nur einfache Ergebnisse für einen Prompt liefern. Also eher Spielzeug als wirklich hochwertige KI.
Im Marketing wird halt die NPU und deren TOPS hervorgehoben, weil das einfach benennbare Eigenschaften sind. Rückschlüsse auf die tatsächliche KI-Leistung & -Qualität lässt das eber alleine nicht zu und in der Praxis stellt sich dann raus, dass damit am Ende nur simpelste KI läuft.
just_fre@kin
Rear Admiral
- Registriert
- Jan. 2010
- Beiträge
- 5.755
Und was bringt mir als Konsument diese Information? 😅Laphonso schrieb:Da beginnt der Fehler. ;-) LLMs sind keine Suchmaschinen, sondern stochastische Papageien.
Das ist für mich aber nicht greifbar und "unsichtbar": ich kaufe mir seit 30 Jahren alle drei bis fünf Jahre eine neue Grafikkarte, die in der Regel einen ganzen Batzen schneller ist als das Modell davor. Wie diese Leistung software-/hardwareseitig zustande kommt, ist mir als Endkunde egal, solange am Schluss die Games flüssiger laufen.coxon schrieb:Nun, fangen wir doch einfach mal bei deiner GPU und DLSS an.![]()
Wart ab😂SuperHeinz schrieb:Aber mein PC funktioniert damit weiterhin auch so, wie ich es von einem PC eben so gewohnt bin. 😉
iron_monkey
Vice Admiral
- Registriert
- Juli 2005
- Beiträge
- 6.540
Wenn KI so toll wäre, dann würde die Unternehmen es ausschließlich für sich selber nutzen, weil es ein Wettbewerbsvorteil wäre, statt es allen anderen verkaufen zu wollen, einfach das nächste Buzzword, sind wohl alle schon wieder aus den "Wolken" gefallen was... ;-)
Zuletzt bearbeitet:
mchawk777
Lt. Commander
- Registriert
- Okt. 2024
- Beiträge
- 1.430
Daran sieht man, dass die Verkäuferregel #1:SuperHeinz schrieb:Ich könnte mir sogar vorstellen, dass Kunden von diesem "AI-Zauber" sogar abgeschreckt werden könnten. Ich besitze einen solchen Copilot-PC und frage mich immer noch, wofür dieser Zauber gut ist, wozu er mir nützt?
"Verkaufe den Nutzen - nicht die Features!"
nach wie vor nicht angekommen ist - und dieser Regel ist keinesfalls neu.
Drehen wir es mal um: Gibt es überhaupt einen Nutzen, den man verkaufen könnte?
Zuletzt bearbeitet: