News Nvidia N1x: GPU des PC-Chips scheint der RTX 5070 zu entsprechen

Wolfgang schrieb:
Nvidia N1x: GPU des PC-Chips scheint der RTX 5070 zu entsprechen
Kurze Einleitung oder Verlinkung, was der N1x sein soll, wäre praktisch. Oder zumindest "PC-Chip" durch PC-SoC ersetzen, denn wenn eine CPU ein PC-Chip ist, dann ist es die dGPU, der RAM und das MB Chipset auch. :P

tomgit schrieb:
Entwickler von was genau? ARM ist immer noch mehr Hindernis als alles andere, und selbst wenn man für/mit ARM entwickelt, braucht es dafür keine beefy GPU. Zumal sowieso stark zu bezweifeln ist, dass Mediatek Apple CPU-seitig Paroli liefern kann.
 
  • Gefällt mir
Reaktionen: muvmend
Ein KI Chip würde vollkommen anders aussehen.
blubberbirne schrieb:
Die Zielgruppe sind aber nicht Gamer ;)
Wer sonst? Für KI passt die Hardware nicht. Die typische Officegurke braucht keine 5070. Was soll das Ding sonst? Der Mobilmarkt kann es also nicht sein und Privat trainiert keiner auf so einem Ding eine KI. Auch als Laufzeitumgebung fehlt Bandbreite (und Speicher). LPDDR5X ist zu langsam. GDDR6 wird dir NV nicht mit passender Menge anbieten um die Profikarten nicht zu gefährden.
 
  • Gefällt mir
Reaktionen: theGoD
Bright0001 schrieb:
Entwickler von was genau? ARM ist immer noch mehr Hindernis als alles andere, und selbst wenn man für/mit ARM entwickelt, braucht es dafür keine beefy GPU.
Mal von KI abgesehen hat zumindest Unity Support für WoA. Ich meine, wenn man keine WoA-Hardware mit leistungsstarker GPU hat, woher sollen dann auch Anwendungen kommen, welche eine leistungsstarke GPU benötigen :freak:

Bright0001 schrieb:
Zumal sowieso stark zu bezweifeln ist, dass Mediatek Apple CPU-seitig Paroli liefern kann.
Gibt auch Leute, die nicht auf Apple Hardware setzen wollen - sogar Entwickler.

Botcruscher schrieb:
Für KI passt die Hardware nicht
Und wo soll die Hardware nicht für KI passen? Ich lasse auf meinem MacBook Pro mit M1 Max auch Modelle lokal laufen mit guter Performance, da wird die 5070 dem Ding davon rennen.
 
Ob Nvidia so einen Chip für Bluter erfunden hat mit 8 Herzkammern und Wasser dicht da würden ja einige Ihre Nieren,Herz,Leber und Gehirn verkaufen um sich mit KI zu steuern.
 
Botcruscher schrieb:
LPDDR5X ist zu langsam. GDDR6 wird dir NV nicht mit passender Menge anbieten um die Profikarten nicht zu gefährden.
So kann man natürlich auch argumentieren: Das eine ist zu langsam, das andere zu schnell.
 
Also ich finde das nicht verkehrt und es gibt sicherlich Abnehmer.

Alle die, einen leisen kompakten Pc wollen mit dem man auch spielen kann. Und auch die, die gerne KI Modelle laufen lassen. Mit CUDA und z.B 128 Gig RAM sicherlich interessant. Oder Videoschnitt bzw. Workstations. Also eigentlich die ein Mac Studio nutzen.

Ich denke dass es in ferner Zukunft nur noch solche Systeme gibt. Also im Prinzip ist das eine 5070 mit einer CPU. Herdteller, die jetzt nicht mit machen, werden später den Anschluss verlieren.

Wir sehen ja, Anhand von Strix Halo was so möglich ist. Was das Ding mit 70-80W zaubert, ist krass. Nur nimmt AMD absurde Preise wegen fehlender Konkurrenz. Ich denke Nvidia ist in der Lage da was zu ändern.

Und so teuer ist ja GDDR6 auch nicht. Sehen wir an den Preisaufschlag von den 8 zu 16GB Karten. Sind doch um die 40-50€ für 8GB. Also 48GB für 250-300€. Passt. Wir reden vom RAM mit 21.600 MT/s

Ganz ehrlich: Wenn das Ding max 150W braucht, dabei so schnell wie ne 5060TI ist und wenn die CPU auch gut ist, würde ich schon ein Mini Pc mit N1X für 1,5K kaufen.

ARM Problematik. Naja Prism ist schon gut und 2. kann man heutzutage sehr schnell Programme mittels KI umschreiben lassen.
 
Zuletzt bearbeitet:
Also geht Nvidia mit dem N1x den gleichen Weg wie AMD mit Strix Halo.

Das ganze steht und fällt mit den OEMs, wenn diese nicht bereit sind die Hardware für diese Plattform zu designen, dann kann der Chip noch so gut sein. Auch Strix Halo hat es aktuell noch schwer am Markt.
 
Rickmer schrieb:
Dafür braucht der aber deutlich mehr Speicherbandbreite als ich im mobilen Formfaktor kommen sehe

Um auch nur in die Nähe der 672 GB/s der Desktop GPU zu kommen würde man bei LPDDR5 8-channel Speicher benötigen
Apple hat doch schon gezeigt, dass das geht.
 
@Powl_0 Apple hat auch schon gezeigt, wie teuer das ist.
 
@Rickmer Teuer ist es vor allem, weil Apple sich den Namen ganz gerne königlich bezahlen lässt.
 
@SaschaHa nee, das 1024 Bit Speicherinterface vom M2 Ultra war ohne Zweifel auch legitim sehr teuer in der Produktion.

Nvidia und AMD produzieren nur wiederwillig GPUs mit 512 Bit, bevorzugt weniger.
 
Haldi schrieb:
NVidia interessiert sich seit längerem nicht mehr für Spieler.
Da wird alles auf AI fokussiert.
MalWiederIch schrieb:
Bei knapp 13 Mrd Umsatz allein in den letzten 4 Quartalen?
Anhang anzeigen 1641747
Hier mal vergleichsweise AMD in demselben Sektor:
Anhang anzeigen 1641750
Oder anders - allein in diesem Sektor hat Nvidia bereits über 50% des gesamten (!) Umsatzes von AMD:
Anhang anzeigen 1641751

Kurz - es ist selten naiv zu denken Nvidia würde sich für die vielen Milliarden nicht interessieren, nur weil man anderswo noch mehr Milliarden einnimmt :rolleyes:
Vorsicht: Nur weil Nvidia es als Gaming einsortiert, ist es noch lange nicht ausschließlich Gaming. Während der Miningkrise fand das gleiche statt, Geforces wurden für Mining gekauft.

Blackwell ist ja auch sehr offensichtlich auf den AI-Einsatz hin optimiert.
 
  • Gefällt mir
Reaktionen: Haldi, DiePalme und edenjung
Das lassen auch die Ergebnisse des Nvidia N1x vermuten, denn mit einem Open-CL-Score von 46361 Punkten wäre der SoC langsamer als eine GeForce RTX 2060.

Apple M4 Pro
65394​
 
SaschaHa schrieb:
@Rickmer Teuer ist es vor allem, weil Apple sich den Namen ganz gerne königlich bezahlen lässt.


Ehrlich gesagt: es geht, weil man bekommt schon nen M4 Pro Mac Mini für 1300€. Also 250GB/sek. Allerdings nur in 24GB.

Ein Strix Halo Board mit AI 385 und 250GB/sek und 32GB kostet ca 900€. Komplett 1279€. Also im ähnlichen Preisgebiet.
 
steht im text zwar nicht explizit drin aber es sind 0 GB
dafür hast du dann wie bei den laptops mal so üblich war (oder teils noch ist?) shared memory und zwar 60GB

das ist ordentlich, der ist aber halt auch langsammer.
 
Man kann das auch so zusammenfassen: Es wird die preiswerteste Möglichkeit sein, eine brauchbare schnelle GPU mit nativem CUDA-Support und mit brauchbar schnellem RAM in für Inference ausreichender Dimensionierung (zumindest für viele Anwendungszwecke) zu erwerben. Alles was darüber hinausgeht wird in einer ganz anderen Preisregion spielen, zumindest im Nvidia-Universum.
 
Die bekommt 64 GB gpu-ram und 256 GB RAM spendiert und wird die AI-Variante von physix...
 
tomgit schrieb:
Mal von KI abgesehen
Jo, von KI-Entwicklung auf so einem SoC würde ich in der Tat absehen, außer man hat Debugging und lokales Compiling von Tools zum Hobby. PyTorch hat erst seit kurzem WoA Support, Tensorflow noch gar keinen, und ob die Myriade anderer Tools und Libs auf Windows ARM laufen, oder jemals laufen werden, steht in den Sternen.

Wüsste nicht, warum man sich das freiwillig antun würde.

tomgit schrieb:
hat zumindest Unity Support für WoA
Also du kannst Windows ARM als Build-Ziel festlegen, aber Unity selbst unterstützt offiziell nur Windows x64.

tomgit schrieb:
Ich meine, wenn man keine WoA-Hardware mit leistungsstarker GPU hat, woher sollen dann auch Anwendungen kommen, welche eine leistungsstarke GPU benötigen :freak:
Hey, ich sage nichts gegen den Chip per se, nur dass er aus Dev-Sicht keine offensichtlichen Anwendungsfelder hat.

Und klar, man bekommt damit sein 70B Q8 Modell theoretisch geladen - aber wofür? Für nen Chatbot wäre das Overkill, und als Teil einer Pipeline wäre die Rohleistung einer 5070 ein Bottleneck.

tomgit schrieb:
Gibt auch Leute, die nicht auf Apple Hardware setzen wollen - sogar Entwickler.
Sind diese Entwickler gerade mit uns in diesem Raum?

Ich wage mal die Behauptung, dass jeder Entwickler gerne Apple-Hardware hätte - wenn da nicht der kleine Haken wäre, dass man dann auch Apple-Software nutzen muss. - und halt ARM. :P

Der Architektur-Wechsel bei Mac-Entwicklermaschinen hat durchaus für einige Kopfschmerzen gesorgt, und tut das afaik immer noch, da bspw. Docker-Images inkompatibel mit ARM sein können, und man dann die Freude hat, die über Emulation laufen zu lassen.

Oracle hat auch erst letztes Jahr den ARM-Support bekommen; Ist halt alles nicht so easy-peasy.

crustenscharbap schrieb:
Alle die, einen leisen kompakten Pc wollen mit dem man auch spielen kann. Und auch die, die gerne KI Modelle laufen lassen. Mit CUDA und z.B 128 Gig RAM sicherlich interessant. Oder Videoschnitt bzw. Workstations. Also eigentlich die ein Mac Studio nutzen.
Yosup schrieb:
Es wird die preiswerteste Möglichkeit sein, eine brauchbare schnelle GPU mit nativem CUDA-Support und mit brauchbar schnellem RAM in für Inference ausreichender Dimensionierung (zumindest für viele Anwendungszwecke) zu erwerben. Alles was darüber hinausgeht wird in einer ganz anderen Preisregion spielen, zumindest im Nvidia-Universum.
Es wird sicherlich die preiswerteste Möglichkeit, aber damit nicht unbedingt eine günstige. Eine aktuelle RTX 6000 mit 96GB VRAM startet bei 9.000€ - deren Absatz man ordentlich torpediert, wenn man da plötzlich mit einem 3.000€ 128GB SoC um die Ecke kommt.

Ich glaub also nicht, dass das ein Schnäppchen-Produkt für den heimischen Hobby-LLM-Nutzer mit gelegentlichen Gamingsessions wird, sondern von Anfang an in die Workstation Produkte mit entsprechenden Preisen eingereiht wird.
 
  • Gefällt mir
Reaktionen: Haldi
Zurück
Oben