News Probleme bei N1x?: Designfehler und Windows sollen Nvidias/MediaTeks PC-Chip verzögern

BxBender schrieb:
Nach dem 5000er Debakel mit dem grundlegend schlechtesten Produktupdate aller Nvidia-Zeiten kommt nun die nächste große Hiobsbotschaft für den Megakonzern.
Bewertet der Markt genauso: Hier im Kik sind die Lederjacken bereits jetzt um 50% reduziert.
 
  • Gefällt mir
Reaktionen: bad_sign, SweetOhm und Mr.Zweig
x86 kann genauso so sparsam sein wie ARM. Mein i7-1165G7 verbraucht 3-4 Watt idle und 16-20 Watt im wenn er etwas gedrosselt ist (Steckdosenstrom {Lenovo e14 gen2}). Auch die neuen Intel Core200V Modelle sind genauso Sparsam wie ARM wenn nicht sparsamer.
 
Zuletzt bearbeitet:
Chaosbreed schrieb:
x86 kann genauso so sparsam sein wie ARM. Mein i7-1165G7 verbraucht 3-4 Watt idle
Genau DAS ist das Problem bei X86. 3-4W nur für die CPU. Mein Mac Mini braucht 2,8 W im Idle. Der ganze PC. Der Prozessor braucht meist 0,1W im Idle. Der Rest geht auf Netzteil, RAM, SSD, USB usw. Dein PC wird schon 10-12W im Leerlauf brauchen. Die besten X86 Systeme kommen auf 8W im Idle.

Beim Mini PC ist das recht egal. Aber beim Notebook ziehen deine 3-4W bei 10 Stunden etwa einen halben Laptopakku leer. Das zeigen auch einige Tests von Laptops mit Snapdragon X. Die Akkulaufzeit ist top.

Abgesehen vom Idle finde ich dass AMDs HX 370 ziemlich ähnlich einer Apples M4 ist. Von der Leistung her. Der AMD braucht etwa 50-60W. Der M4 braucht 24W. Wenn ich den AMD auf 24W beschränke, ist der halt schon spürbar langsamer.

Ich sehe in ARM sehr großes Potenzial. Gerade mit den N1X stelle ich mir sowas wie ein HX 370 in sparsam und eventuell günstiger vor. Zudem mit CUDA.
Auch als Apple zu ARM wechselte waren die Geräte 100-200€ günstiger.
Und wenn nicht, dann hat AMD endlich mal Konkurrenz hier.

Windows hat mMn auch etwas schwierigere Ausgangsbedingungen. Gerade im Geschäftsbereich: Beim Mac sind oft Grafikprogramme oder Videoprogramme im Einsatz. Oft sie selben. Bei Windows ist das immer so eine Sache: Es gibt unzählige Büroprogramme. Teilweise echt veraltete und die nicht mehr supported werden und auch tief ins System integriert sind. Ob eine Emulation via Prism 100% so funktioniert, bleibt fraglich. Geht bestimmt. Aber 100% kann man nicht sagen ob das geht. Ich denke das hält die Ganze Sache auf. Dazu noch die Exklusivverträge zwischen Qualcomm und MS bis Anfang 2024. Es war unklar ob der Vertrag verlängert wird. Daher hat keiner außer Qualcomm ein ARM Prozessor speziell für Laptops entwickelt. Ein Chip entwickelt man nicht mal eben. Deswegen haut Nvidia hier auch nur „Standardkost“ rein.

Linux läuft eigentlich gut auf ARM. Nur wird das gerne gesperrt. Ist ne Hersteller/Chip Sache. Denkt mal an den Raspberries. Die sind auch ARM. Da läuft Linux sehr, sehr gut und vielleicht ist NV da etwas offener. Die haben ja auch die Jetsons. Sind ja ARM Boards für Linux.
Dazu sehe ich in Zukunft weniger Kompatibilitätsprobleme. Viele Programme können dank KI schnell auf nativ ARM umgeschrieben werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SuperDrive, DocAimless, knoxxi und eine weitere Person
tomgit schrieb:
Wieso sollte keine Sau es haben wollen? Der Translation-Layer ist mindestens so effizient wie der von Apple und wenigstens ein fester Bestandteil des OS - während Rosetta nächstes Jahr aus macOS rausfällt.

Für alle Ewigkeit "fester Bestandteil des OS", d.h. sofern nicht selbst Intel und AMD komplett auf ARM wechseln, wird auch in 10 Jahren Software noch für x86 geschrieben und für ARM gibt es dann halt die Übersetzungsschicht.

Bei Apple dagegen: "Hier ist die neue Technologie, für den Moment habt ihr dafür ne Übersetzungsschicht und selbst damit läuft alles viel schneller als auf "der alten Sache", aber fangt schon mal an eure Software anzupassen, denn Rosetta 2 bleibt nicht ewig!"

Wo erwartest du 2030 mehr ARM-native Software?
 
  • Gefällt mir
Reaktionen: SuperDrive
iSight2TheBlind schrieb:
Wo erwartest du 2030 mehr ARM-native Software?

Das ist nicht das Problem. Das größere Problem ist, dass es bei Apple einfach Software gibt, die ab Spätjahr '26 nicht mehr auf einem aktuellen macOS-System laufen wird. Entwicklung an Rosetta kann hingegen nicht eingestellt werden, weil es ein elementarer Bestandteil des GPTK ist.
 
Meh die Argumente sind doch Kokolores. Ja Windows on Arm ist mies aber da wird sich so schnell auch nichts verändern und den Fehler im Hochpreissegment mit Softwaremüll antreten zu wollen hat schon QCOM die Überheblichkeit gestutzt.
crustenscharbap schrieb:
Genau DAS ist das Problem bei X86. 3-4W nur für die CPU. Mein Mac Mini braucht 2,8 W im Idle.
Das ist kein spezifisches Problem von X86 und natürlich geht deutlich weniger auch bei entsprechenden Geräten. Die Designziele sind einfach grob verschieden.
 
  • Gefällt mir
Reaktionen: peru3232
TheInvisible schrieb:
@gartenriese Jap man muss sich endlich mal damit abfinden, Vergleiche mit den Hardwaresprüngen vor über 20 Jahren sind einfach nur Unsinn. Am meisten würde man noch mit MultiCore Unterstützung gewinnen
Nein Cache Baby, gut hilft wohl auch bei allem aber die 3d stacked Caches von Zen 6 wars glaub?
Also AMD kann bis zu 240mb 3d Cache dann geben ich glaub, sie sind wohl schon bei 6,2 6,4ghz und versuchen auf 7 Ghz die Gen hoch zu bekommen als Ziel.
Und selbst der normale L3 Cache wächst einfach wegen 12 Cores statt 8 cores pro CCD auch 48mb statt 32mb per CCD.
Das heißt auch das man 50% des Caches von heutigen X3D hat statt bisher nur 1/3 und der Cache sollte ja schneller sein.

Klar pro Core ist die Menge da die selbe, aber wenn ein Game nur 8 cores nutzt z.B. hat es trotzdem den vollen Cache, das mit deutlich höherem Takt, mehr IPC aus anderen Quellen und mehr Cores obendrauf pro CCD wo es nicht durch kein Zugriff auf den selben Cache extrem verlangsamt wird. Und nochmal das sind dann nur die normalen CPUs, X3D wirds auch noch geben. Und natürlich gibts dann auch nen 24core Modell.

Und achja es wird dann auch jeh nach Namensgebung eine art 10600 Modell geben mit 8 Cores und 48mb Cache, einfach wegen ein paar Defekten Cores das wird dann ein Budget Gaming Killer werden.

So oder so kann man mit Takt und Cache neben mehr Cores durchaus auch mehr gewinnen potenziell zumindest auch für Gaming auch mehr wie durch Multicore, nicht um sonst schlägt ein 9800x3d jede 16C CPU in Gaming zumindest durch die Bank vielleicht gibts 1-2 Titel die von mehr Cores mehr profitieren trotz 2 CCDs.

Und du darfst nicht sagen nur weil Intel nichts gutes besseres mehr bauen kann eine Firma die Grad ähnlich am Arsch ist wie AMD zu Bulldozerzeiten, und Qualcomm und co extrem enttaeuscht haben auch wegen software aber nicht nur.

Zen 5 war ja eher ein Mini Update Sprung was Intel vielleicht unter Tok abgebucht hätte, trotzdem holte man auch bei Strix Point 28% raus klar durch 50% mehr Cores Wobei das bei Cinebench ist dem Intel Benchmark in der Relaität ist man oft natürlich nur wenige % vorne dafür aber mit halber TDP. Bei Notebooks kommen dann auch immer 1000 Variablen wie Kühlung verbauter Ram usw. dazu.

Batterielaufzeit hat man dann halt 40% mehr und bei Youtube sogar 92% mehr, sicher mag auch am Display oder irgendwas liegen teilweise, aber so oder so sind fuer den Kunden gigantische Sprünge statt 7:35 Stunden hast dann halt 10:30 Stunden, wobei ich da nicht mal sicher bin das das Oled mit 120hz so viel weniger schluckt wie das IPS. Wobei das dann wohl irgend ne Art Arbeitszeit ist, nicht Idle, denn Youtube streaming schafft es sogar 11:30 Stunden also bist bei Idle wahrscheinilch bei 16h was für 99% der Leute voll reicht und der massiv höhere Speed und volle Windows / Linux kompatibilität dem Bugge Arm Erfahung deutlich überwiegt, nur Leute mit extremen Mobilitätsanforderungen die Tagelang ohne Steckdose auskommen wollen (und selbst dafür gabs noch Powerbanks) muss es dann doch Intel oder Arm sein.

Da man die Dinger alle auch noch über usb3 laden kann also jedse Handyladekabel, muss man schon irgendwo in Urwald um wirklich damit Probleme zu bekommen.

Mein Punkt ist AMD liefert doch regelmäsig mehr als 10% pro Gen, nur weil die letzte Gen bisschen enttäuschend war, weil es eigentlich nur ein Refresh war, und selbst da sieht man nen Uplieft von 7950x -> 9950x von 17% Single core und ja nur 9% multicore aber bei ca. 10% weniger Watt, aber das wird sich mit Zen6 deutlich verbessern, das bei fehlender Konkurenz nach Zen 6 wieder langsamer wird, das kann gut sein aber Zen6 wird eben durch aus ein gigantischer Uplift.
 
Zuletzt bearbeitet:
crustenscharbap schrieb:
Die besten X86 Systeme kommen auf 8W im Idle.
Mein AMD Ryzen AI Max+ 395 braucht im Idle 5W. An der Steckdose gemessen. Mit 128 GB super schnellen RAM, 16 Kernen, geladenem LLM und aktivem 2.5GbE.

Ein älterer i3 10. oder 11. Gen braucht 4.2W im idle. An der Steckdose gemessen.

Und bei beiden habe ich nicht mal extra irgendwelche Energieeinstellungen abgepasst. Out-of-the-Box.
 
  • Gefällt mir
Reaktionen: Chaosbreed, Calid, SweetOhm und 2 andere
@Flutefox Muss ich leider passen. Ich hab mich ausschließlich mit AI damit beschäftigt. Für Spiele hab ich meine 9070XT.
 
  • Gefällt mir
Reaktionen: SweetOhm und Flutefox
eastcoast_pete schrieb:
"Copilot Ready" zu machen.
Naja die Software wird auch überschätzt offensichtlich wurde ja als Hauptverkaufsargument für Qualcom im Markteting genutzt und nun benutzt es quasi niemand im Moment.

Vielleicht wird dann irgend ein Copilot 2.0 3.0 angenommen das kann ich nicht vorhersagen, aber im Moment will niemand es.

A.I. wird eher in Spielen interessant, oder eben für Bild/Musik erstellung/bearbeitung, aber das wird ja weitgehend nicht über APU sondern GPUs laufen.
 
tomgit schrieb:
Das ist nicht das Problem. Das größere Problem ist, dass es bei Apple einfach Software gibt, die ab Spätjahr '26 nicht mehr auf einem aktuellen macOS-System laufen wird. Entwicklung an Rosetta kann hingegen nicht eingestellt werden, weil es ein elementarer Bestandteil des GPTK ist.
Dann kauf halt kein Apple mehr ;)
oder du musst halt eine seperate platte einbauen, mit dem Betriebssystem was du benötigst, in deinem Fall die jeweilige Mac Os Version
 
DocAimless schrieb:
hust Intel mit Skylake & Co. 5% pro Generation das war Handbremse. Alles was zweistellig ist, finde ich für nächste Generation mehr als vertretbar. Es wird ja keiner gezwungen, gleich zu wechseln.
Verwechsel mal nicht pro Thread/Takt Steigerung mit der Leistung allgemein.

Nimm die ~5 Jahre die genannt wurden, so gab es 2015 den 6700k frisch als erste Skylake Generation. Und ~6 Jahre später den 12900k als Alderlake. Das waren 4,2 GHz vs. 5,2GHz. Mit dem später selektierten KS sogar 5,5GHz. IPC ging durchaus ~30% hoch. Das sind in Summe ~60% Steigerung in der Peak 1T Performance.

Auch wenn das etwas länger war als die genannten 4-5 Jahre bei Apple, so hatte Intel bekanntermaßen ein Problem mit 10nm und es ergab sich eine starke Verzögerung. Apple hatte das nicht. Aber wirklich mehr kam auch nicht bei rum.

Was noch erwähnenswert wäre. Die E-Cores der ersten Hybrid CPUs ab Alder Lake waren IPC seitig ca. auf Skylake Niveau und vom Takt er fast so weit oben wie die 6700er CPUs 2015. Wenn du dir anschaust wie die Leute sich beschweren wenn ein Task mal fälschlicherweise auf den E-Cores landet, dann siehst du auch wie viel sich wirklich getan hat seit dem. Das ist eine ganze ganze Menge.
 
  • Gefällt mir
Reaktionen: Corpus Delicti
V3K1 schrieb:
Ich gönne es NVIDIA, das sie versagen, wer immer nur Features entfernt vom Treiber, statt sie zu belassen und zu verbessern und einfach nur neue hinzufügt, hat es verdient zu scheitern.
Veto :cool_alt:
 

Anhänge

  • DLSS4 Features.jpg
    DLSS4 Features.jpg
    113,3 KB · Aufrufe: 82
crustenscharbap schrieb:
Genau DAS ist das Problem bei X86. 3-4W nur für die CPU. Mein Mac Mini braucht 2,8 W im Idle. Der ganze PC. Der Prozessor braucht meist 0,1W im Idle. Der Rest geht auf Netzteil, RAM, SSD, USB usw. Dein PC wird schon 10-12W im Leerlauf brauchen. Die besten X86 Systeme kommen auf 8W im Idle.
Nö. Meinen CI329 Pro mit intel N4100 CPU bekomme ich auch auf 3-4 Watt runtergeprügelt.

Bevor Fragen kommen: 16 GB RAM und 2 TB-SATA SSD, 1 Ethernet GBit Uplink. Headless, keine Tastatur und Maus. Unter Archlinux und natürlich mit allen Registern per powertop gezogen. Passiv gekühlt. Messung an 230V, interessant wäre es mal Leistung am 19V-Eingang zu messen, aber wer hat schon die Zeit?

Ist klar keine Rakete mehr, aber als ich ihn vor sechs Jahren gekauft habe nahm ich gleichzeitig meinen (uralten) Phenom II ausser Betrieb. Es war insofern etwas LOL, dass der N4100 in etwa die gleiche Performance hatte wie der N4100 - bei 90 Watt vs 4 Watt idle.

Wer es nicht glaubt: N4100 vs Phenom II X4 960T
 
crustenscharbap schrieb:
Genau DAS ist das Problem bei X86. 3-4W nur für die CPU. Mein Mac Mini braucht 2,8 W im Idle. Der ganze PC. Der Prozessor braucht meist 0,1W im Idle. Der Rest geht auf Netzteil, RAM, SSD, USB usw. Dein PC wird schon 10-12W im Leerlauf brauchen. Die besten X86 Systeme kommen auf 8W im Idle.
Das ist doch aber ein völlig unfairer Vergleich. Der auf absoluten Minimalismus getrimmte MacMini mit einem Prozessor gepaart, der auf lediglich eine Hand voll vom selben Hersteller designte Systeme setzt, mit RAM der nicht tauschbar ist, mit einer SSD, die keinen Controller hat, sondern in die CPU integrierte Logik dafür nutzt, das Teil hat bis auf paar Thunderbold Ports quasi gar keine IO usw. usf.

Das Problem dabei ist nicht, dass es x86 vs. ARM ist, sondern dass hier der riesige Bauchladen einer voll flexiblen Lösung gegen ein sehr auf einen speziellen Zweck hin entworfenes Stück Hardware von Apple verglichen wird.

Btw. halte ich 2,8W idle für arg wenig. Wenn man mal quer Beet im Netz nach M4 MacMini Idle Verbrauch des Basismodells schaut, kommen eher 5-8W raus. Das ist dann wieder nicht mehr wirklich beeindruckend.

Und wie wichtg es ist, das ganze Fair zu vergleichen:
-> mein betagter 5950X Zen3 Desktop mit 4x16GB, paar HDDs, SSDs, NVMes, einer dGPU, Lüftern, BlingBling usw. usf. kommt auf an die 200W in Windows.
-> ein Minisforum UM560 mit 5625U, 2x32GB SODimm, einer SATA SSD, einer NVMe SSD, drei aktiven Monitoren angesteckt und vor (also bei 230V an der Wand) dem mitgelieferten China NT Gemessen liegt bei ~9-10W Idle unter Linux.
Selbe CPU Architektur, selber Technikstand von AMD mit Zen3 in der Basis. Nur ist das eine eben minimalistisch und das andere das komplette Gegenteil davon.
crustenscharbap schrieb:
Abgesehen vom Idle finde ich dass AMDs HX 370 ziemlich ähnlich einer Apples M4 ist. Von der Leistung her. Der AMD braucht etwa 50-60W. Der M4 braucht 24W. Wenn ich den AMD auf 24W beschränke, ist der halt schon spürbar langsamer.
Die 50-60W verbraucht das Ding aber nur unter Volllast.
Was bringen denn solche Vergleiche wenn du das gar nicht brauchst in deinem Workload?
Es wäre viel wichtiger den realen Workload mit der Leistung zu vergleichen und ggf. auch mit der Akkulaufzeit, wo es eben relevant ist.

Die Masse der normalen Anwender kann wahrscheinlich so einen "H" Ryzen aus dem Mobile Markt bedenkenlos auf 25W eindrosseln und würde sogut wie gar keine Leistungseinbußen dabei haben - warum? Weil in so nem Notebook selten Dauerhaft Volllasttasks laufen. Geht man in Richtung Business UseCase schon gleich gar nicht.

Was bspw. bei meinem Arbeitsbook wichtig(er) ist - bei der Effizienzbetrachtung, wenn man denn wirklich mal die Notwendigkeit hat, nen Tag primär ohne Stromstrippe im Meeting zu verbringen, häufig mit WLAN und aktiver VPN Einwahl und dann eben mit laufenden Tools wie MS Teams, ggf. mit Screensharing aktiv -> dann purzeln die Zahlen auch sehr sehr schnell.

Yosup schrieb:
Messung an 230V, interessant wäre es mal Leistung am 19V-Eingang zu messen, aber wer hat schon die Zeit?
Das wäre eigentlich was für die Redaktionen, die solche Geräte testen. Wie auch im Notebookbereich - wo man lieber irgendwelche per Software ausgelesenen Zahlen in die Tests schreibt anstatt einfach mal das naheliegendste zu prüfen - den stumpfen Verbrauch zu messen der per Kabel in das Gerät geht. Akku abziehen oder wenigstens auf 100% laden, Deckel zu klappen, damit das Display aus geht und dann Idle Verbrauch, Teillast und Volllast mit wie ohne Boost. Fertig.

Rein vom Aufwand her ist das quasi der selbe, weil die Messungen eh durchgeführt werden. Nur WO man misst, ist eben der Punkt.

Viele Geräte, gerade Mobile könnten auch per TypC mit Powerdelivery verstromt werden. Auch das würde sich gut vergleichen lassen, wenn dort eine Messvorrichtung am Kabel klemmt. Dann hört das ggf. auch irgendwann auf, dass sich Leute die Taschen gegenseitig mit Zahlen voll knallen und unterbieten, nur weil die Software mal wieder andere Telemetriewerte in den gleichen Anzeigewert nimmt.
Ergänzung ()

V3K1 schrieb:
Wo ist 3D Vision ? wo ist PhysX ?
Du solltest meinen Satz nochmal genau lesen :)
Was willst du damit in 2025?
PhysX ist heuer eigentlich irrelevant am Markt und 3D Vision Titel gibts doch auch nicht mehr. Filme wo man das potentiel noch für nutzen könnte gibt es zwar noch, aber eher wenig. Der 3D Trend ist völlig eingeschlafen. Selbst auf der TV Seite gibts da nichts mehr am Markt.

MMn kann man sowas schwer dem Hersteller ankreiden, wenn der Markt das nicht (mehr) haben will -> irgendwann fällt der Support, das ist völlig logisch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SirKhan
@fdsonne Achso, nur weil für dich beides eingeschlafen ist, soll ich es sein lassen, es jedes Wochenende zu benutzen?
Was eine Logik :D
Man hätte es wenigstens im Treiber lassen können, für die,die es halt noch nutzen.
von geo11 und co. haste wohl noch nie etwas gehört, naja sei es drum, ich für meinen Teil mag die politik NVIDIA's bei diesem Thema nicht.
 
Zuletzt bearbeitet:
V3K1 schrieb:
@fdsonne Achso, nur weil für dich beides eingeschlafen ist, soll ich es sein lassen, es jedes Wochenende zu benutzen?
Das hab ich nicht gesagt - es liegt mir absolut fern dir das vorzuschreiben. Fakt ist aber, dass du damit derart neben den aktuellen Marktanforderungen bist, dass es den Hersteller nicht stören wird, wenn du dich darüber aufregst. Ob dir das gefällt oder nicht, selbst wenn du noch ein paar Gleichgesinnte findest - das ist dieser Tage so irrelevant für den Markt, dass da wahrscheinlich auf absehbare Zeit nix mehr passieren wird.

Und so doof das für dich auch ist - als Endkunde hast du eben dann doch nicht den echten Anspruch ggü. dem Hersteller, sowas auf ewig und fünf Tage zu supporten. Das könnte als Business Kunde anders ausschauen - weil Verträge und so. Aber als privater Endanwender bist du dort eben halt raus.
 
  • Gefällt mir
Reaktionen: SweetOhm und V3K1
fdsonne schrieb:
Das waren 4,2 GHz vs. 5,2GHz. Mit dem später selektierten KS sogar 5,5GHz. IPC ging durchaus ~30% hoch.
Ab da hatte Intel mit RyZen ja auch endlich wieder Konkurrenz, bis dahin wurde man als Endkunde mit 5% abgefertigt. Und selbst diese hohe IPC wurde durch zu viel Stromleistung sich erkauft. Gerade die KS waren doch nur Hitzköpfe und unter normalen Bedingungen kaum zu kühlen.
 
  • Gefällt mir
Reaktionen: SirKhan
Zurück
Oben