News Nvidia N1x: GPU des PC-Chips scheint der RTX 5070 zu entsprechen

EL-Xatrix schrieb:
steht im text zwar nicht explizit drin aber es sind 0 GB
dafür hast du dann wie bei den laptops mal so üblich war (oder teils noch ist?) shared memory und zwar 60GB

das ist ordentlich, der ist aber halt auch langsammer.
Viel, viel langsamer. Wir sind dann so bei 50-60GB/sek im Gegensatz zu 260GB/sek. Damit ist dann auch maximal eine Grafikleistung einer GTX 970 machbar.
Damit wäre das Ding komplett obsolet und in diesem Sektor gibt es massig Konkurrenz.

Aber ich habe was von SOCAMM gelesen. Das soll SOC RAM sein, aber steckbar. Das wäre wirklich genial.
 
crustenscharbap schrieb:
Wir sind dann so bei 50-60GB/sek im Gegensatz zu 260GB/sek.
Wie kommst du auf diese Zahlen? Dual-Channel DDR5-6400 macht brutto bereits >100 GB/s. LPDDR5X schafft problemlos 8000 MT/s, das wären dann genau 128 GB/s. Quad-Channel würde also mehr als ausreichen, das wären dann 256 GB/s.
 
Jungs, das wird ein 2000 Euro Rechner, genau wie AMD Halo.
CPU + GPU + Extras wie RAM und Spezialanfertigung.
Da gibt es nichts umsonst, das sind eher Preise, die man von Apple kennt.
Die gehen damit ja in Konkurrenz.
Das ist ausschließlich was für Leute, die den Aufpreis für das Miniformat akzeptieren.
 
Bright0001 schrieb:
Es wird sicherlich die preiswerteste Möglichkeit, aber damit nicht unbedingt eine günstige. Eine aktuelle RTX 6000 mit 96GB VRAM startet bei 9.000€ - deren Absatz man ordentlich torpediert, wenn man da plötzlich mit einem 3.000€ 128GB SoC um die Ecke kommt.
Stimmt. Trotzdem gehe ich von einem gehörigen Respektabstand zu den 9000€ aus. Das SoC ist wesentlich langsamer. Für Consumer absolut akzeptabel, für Profis indiskutabel, weil da die Arbeitszeit wesentlich teurer ist - und Consumer hätten eh nicht die 9000€ hingelegt.
 
  • Gefällt mir
Reaktionen: Bright0001
Bright0001 schrieb:
Es wird sicherlich die preiswerteste Möglichkeit, aber damit nicht unbedingt eine günstige. Eine aktuelle RTX 6000 mit 96GB VRAM startet bei 9.000€ - deren Absatz man ordentlich torpediert, wenn man da plötzlich mit einem 3.000€ 128GB SoC um die Ecke kommt.

Ich glaub also nicht, dass das ein Schnäppchen-Produkt für den heimischen Hobby-LLM-Nutzer mit gelegentlichen Gamingsessions wird, sondern von Anfang an in die Workstation Produkte mit entsprechenden Preisen eingereiht wird.
Trotzdem ist es enttäuschend, daß die reine GPU Leistung nur einer 5070 entspricht, die hätten da ruhig mindestens eine 5080 oder besser 5090 reinstecken können. Da es eh "nur" ein Desktopvariante ist, hätte sie eine RTX6000 kaum gestört, weil sie für einen anderen Bereich ist.
 
Bright0001 schrieb:
Sind diese Entwickler gerade mit uns in diesem Raum?

Ich wage mal die Behauptung, dass jeder Entwickler gerne Apple-Hardware hätte - wenn da nicht der kleine Haken wäre, dass man dann auch Apple-Software nutzen muss. - und halt ARM. :P
Was für ne Aussage.

Lol, ja, sie sind hier in diesem Raum - meine Kollegen sitzen nämlich direkt bei mir. :freak: Und wir haben uns aktiv gegen Apple Geräte entschieden.
 
  • Gefällt mir
Reaktionen: nutrix
nutrix schrieb:
Trotzdem ist es enttäuschend, daß die reine GPU Leistung nur einer 5070 entspricht, die hätten da ruhig mindestens eine 5080 oder besser 5090 reinstecken können. Da es eh "nur" ein Desktopvariante ist, hätte sie eine RTX6000 kaum gestört, weil sie für einen anderen Bereich ist.
Ich möchte nur mal darauf hinweisen, dass eine 5070 die Apple Produkte in den Schatten stellt, zumindest beim Gaming hat Apple absolut keine Chance.
Eine mobile 5070 Ti im Notebook zerlegt zumindest alle Apple Geräte bis zum M3 Max um ein vielfaches in Cyberpunk, bei besserer Optik.
Wie das in angepasster Profianwendungssoftware ausschaut, steht ja noch nicht fest, aber ich denke nicht, dass sich Nvidia da irgendwie verstecken muss.
Der CEO ist einer der erfolgreichsten und klügsten Köpfe in dem Bereich, sicherlich denkt er sich auch dieses mal etwas dabei.
Und viel mehr reinstecken geht auch nur sehr bedingt, irgendwo ist halt die Grenze des Machbaren und des Sinnvollen, bei AMD's Halo Projekt ist es nicht anders, die sind glaube ich sogar nur irgendwo im 4060 Bereich, oder?
Man braucht nicht mit dem Chipumfang eines Threadripper mit 96 Kernen daherkommen, Kosten und Ausfallraten und die Risikoinvestition allgemein wären enorm.
Das Hauptproblem ist erst einmal überhaupt ein gut funktionierendes und von Softwareherstellern unterstütztes Produkt auf die Beine zu stellen.
Bei Snapdragon mit ARM und Windows und Klopilot ist das auch eher meh bisher.
Und die aktuellen Verschiebungen lassen auch böses ahnen, Marke Intel in diversen Punkten beim Thema GPU Launch.
 
Zuletzt bearbeitet:
nutrix schrieb:
Trotzdem ist es enttäuschend, daß die reine GPU Leistung nur einer 5070 entspricht, die hätten da ruhig mindestens eine 5080 oder besser 5090 reinstecken können. Da es eh "nur" ein Desktopvariante ist, hätte sie eine RTX6000 kaum gestört, weil sie für einen anderen Bereich ist.
Jup, aber ich glaube da kommen mehrere Faktoren ins Spiel; Einerseits die schon erwähnte Vermeidung der Kannibalisierung, andererseits rein praktische Limits. Der 5090-Die ist drei mal so groß wie der der 5070 - und das ist bei einem SoC noch relevanter als eh schon, weil du bei einem Teildefekt den ganzen Chip (inkl. CPU-Teil) in die Tonne schmeißen kannst. Man kann dem natürlich mit abgeschalteten Cores entgegen wirken, sprich Ersatzräder einbauen, aber das lässt die Chipfläche nur noch weiter steigen, und hat in Summe massive Auswirkungen auf Produktionskapazität und Preis.

Ein 5090 SoC, dessen VRAM man "frei" bestücken kann, wäre in der Tat absolut 𝑒𝒹𝑒𝓁, aber in meinen Augen auch schon unheilig teuer, noch bevor da die Grünlager-Steuer drauf kommt.

Yosup schrieb:
Stimmt. Trotzdem gehe ich von einem gehörigen Respektabstand zu den 9000€ aus. Das SoC ist wesentlich langsamer
Du hast Recht, ich war mit meinen 3.000€ zu pessimistisch; Ich hab gerade gesehen, dass ganze GB10-Systeme (ebenfalls Nv+MT SoC + 128GB Unified-Memmory) für rund $3.000 an den Start gehen sollen. Und da sich der N1x wahrscheinlich darunter einordnen wird, ist auch zu erwarten, dass sich das auch preislich abbildet.

Für LLM-Spielereien natürlich eine feine Sache, in 128GB bekommt man 70B_Q8 Modelle sehr entspannt aufgesetzt, und falls ConnectX-NIC verfügbar ist, also man zwei Geräte koppeln kann, sogar in FP16. Wenn es tatsächlich für 2k das Stück kommt, wäre das schon ziemlich stark.

Sehe damit zwar weiterhin nicht den Use-Case für Entwickler, da es für "richtige" KI-Entwicklung deutlich mehr Schmackes braucht, aber für Data-Scientists und Hobby-LLM-Nutzer eine spannende Option - also zumindest ist sie es gerade für mich geworden. :D

tomgit schrieb:
Lol, ja, sie sind hier in diesem Raum - meine Kollegen sitzen nämlich direkt bei mir. :freak: Und wir haben uns aktiv gegen Apple Geräte entschieden.
Aber habt ihr euch wegen der Hardware gegen Apple entschieden?

Nicht falsch verstehen, ich hatte bei meiner letzten Dev-Maschinen-Wahl ebenfalls einen Dell in Vollausstattung statt den Mac genommen, aber das lag eher am Apple-Ökosystem, das man sich damit ins Haus holt. Die Apple-Hardware als solche ist ja nur schwer zu kritisieren; Top Trackpad, Top Display, High-End Performance der M-Chips bei einer in Windows-Gefilden utopischen Laufzeit? Warum würde man das nicht wollen? :D

Und ja, die ARM-Geschichte kam da noch dazu - es war absehbar, dass das eine zusätzliche Quelle für Kopfschmerzen sein würde.
 
  • Gefällt mir
Reaktionen: Yosup
SaschaHa schrieb:
Wie kommst du auf diese Zahlen? Dual-Channel DDR5-6400 macht brutto bereits >100 GB/s.
Stimmt. Habe ich mich etwas falsch erinnert. Aber ehrlich gesagt ist ja steckbar bisher im mobilen Bereich selten mehr als 5600 MT/s verfügbar. Das kommt auf 89,6GB/sek.

Woher ich das „nicht“ weiß: Hier auf CB

Aber LPDDR5X gibt es doch gar nicht zum stecken. Der performt ja im Ryzen HX370 schon merklich besser als die Variante mit SODIMM 5600.

DDR6 wird da Einiges ändern hoffe ich. Der soll ja laut (Google KI) mit 17.000-21.000 MT/s laufen. Also gut 3x so flott wie DDR5. Selbst die 17.000MT/s schaffen schon 270GB/s. Damit ist ne Onbaordgrafik in Niveau einer RTx 4060/5060 bzw RX 7600 möglich. Das nur mit 128 Bit.

Wenn der Trend sich so fort setzt, dass die Leistungssteigerung der GPUs immer geringer wird und die des RAM sich alle 5 Jahre verdoppeln bzw. Verdreifachen, dann werden Einsteiger GPUs obsolet.

Schon jetzt kann man recht gut mit einer 780m zocken.

Da hat neulich Alexi Bexi (ja der ist sehr kommerziel) ein Videos raus gebracht, dass man mit einem Macbook M3 Pro jetzt gut zocken kann. Aber ein Notebook mit MOBILER RTX 5070 lässt den Mac total alt aussehen.

Ich hätte aber gerne gesehen wie es sich gegenüber eines Ryzen AI Max 395 verhält.
 
Zuletzt bearbeitet:
Gabs nicht irgendwo eine Meldung, daß man einem Mac (Mini?) mit 512 GB Ram ausstatten kann. War nur sehr teuer.
 
@MalWiederIch
nur weil NV so viel mehr Umsatz mit Spielern macht, heisst ja dennoch nicht, dass der Satz „NVidia interessiert sich seit längerem nicht mehr für Spieler“ nicht trotzdem stimmt :)
Man interessiert sich halt für Umsatz und melkt die Kühe die da sind.
Und auch wenn der Vergleich mehr als hinkt: früher bekam man für das gleiche Geld drei High-End Grafikkarten anstatt einer xD
 
Jetzt hab ich es wieder, es war ein Mac Studio mit M3 Max, den man auf 512 GB RAM hochrüsten kann:

https://www.apple.com/de/shop/buy-m...-core-neural-engine-96-gb-arbeitsspeicher-1tb
https://www.apple.com/de/newsroom/2025/03/apple-unveils-new-mac-studio-the-most-powerful-mac-ever/
Der Mac Studio ist ein Kraftpaket für KI. Mit einer fortschrittlichen GPU und bis zu 512 GB gemeinsamen Arbeitsspeicher im M3 Ultra – der höchsten Kapazität aller Zeiten in einem Personal Computer – kann er große Sprachmodelle (LLMs) mit über 600 Milliarden Parametern vollständig im Arbeitsspeicher ausführen. Außerdem ist er für Apple Intelligence entwickelt, das persönliche Intelligenz System, das verändert, wie Nutzer:innen arbeiten, kommunizieren und sich ausdrücken und dabei ihre Privatsphäre schützt.
 
Zurück
Oben