News Nvidia GeForce MX450: Notebook-GPU mit PCIe 4.0 und GDDR6

benneq schrieb:
Die braucht ja noch ein Jahr. Ich meinte eher Mobile Pendants zur den Desktop nicht-APUs.
Da es schon ES der zen3 APU gibt, denke ich das eher nicht.
 
Lustig! Wer hätte gedacht, dass die erste „normale“ Nvidia-GPU (keine Profi-Karte) mit PCIe 4.0 eine Karte aus der MX-Serie werden würde.
 
Morgen kommt News-Update. "PCIe 4.0 war nur ein Tippfehler auf der Nvidia-Seite". Ich persönlich glaube nicht, dass die PCIe 4.0 kann. Eine alte GPU im Low-End-Bereich mit PCIe 4.0. Da stimmt was nicht...
 
  • Gefällt mir
Reaktionen: Hayda Ministral
Mit Intel Xe als iGPU dürfte die MX-Serie eigentlich ihre Daseinsberechtigung verlieren. Die MX450 sollte also nochmal eine ordentliche Schippe an Leistung drauflegen, damit sie nicht obsolet wird. Ich halte von dem Modell herzlich wenig.
 
  • Gefällt mir
Reaktionen: NMA und Kenshin_01
Das Logik-Engelchen auf meiner linken Schulter schüttelt schon den Kopf, das so etwas dämliches doch nicht so kommen kann, aber der Commerz-Teufel auf der rechten Schulter bastelt schon die Xtreme-Gaming-Marketingfolie für GDDR 6 Power & first mobile PCI 4.0 ever, grab yours NOW!😵
 
  • Gefällt mir
Reaktionen: Palomino und Colindo
130mm² (GP107) vs 200mm² (TU117)....
da wird es nicht einfacher die Marge zu halten.
Und soviel effizienter ist Turing gegenüber Pascal auch nicht, dass die IPC den Mehrverbrauch kompensieren kann.
Dh. um TDP Limits einzuhalten muss die GPU wiederum mit niedrigem Takt gefahren werden.
Sofern Nvidia nicht Samsung 8nm oder TSMC 7nm fährt bei ihren MX GPUs, hat die Konkurrenz die Chance Nvidia zu schlagen.
 
  • Gefällt mir
Reaktionen: [wege]mini, Mcr-King und NMA
Rock Lee schrieb:
130mm² (GP107) vs 200mm² (TU117)....
da wird es nicht einfacher die Marge zu halten.
Und soviel effizienter ist Turing gegenüber Pascal auch nicht, dass die IPC den Mehrverbrauch kompensieren kann.
Dh. um TDP Limits einzuhalten muss die GPU wiederum mit niedrigem Takt gefahren werden.
Sofern Nvidia nicht Samsung 8nm oder TSMC 7nm fährt bei ihren MX GPUs, hat die Konkurrenz die Chance Nvidia zu schlagen.
Bei den AMD Notebooks wird solch eine MX Karte ganz sicher kaum verbaut werden. Die MX Karte ist ja eher nur was für intel Systeme. Diese haben eh schon ein TDP bzw. Stromaufnahme Handicap am Hals gegenüber den neuen AMD APUs. Dazu jetzt noch der Stromfresser MX450? Intel wird mit seiner iGPU den Markt für Nvidia hier schließen. Wie bei den Chipsätzen damals wird es auch hier bald nur noch wenige aber dafür deutlich stärkere Grafikeinheiten von Nvidia rein schaffen. Aber dieser Markt ist ja eher dürftig und damit lohnt es sich wohl bald kaum mehr für Nvidia mobile Chips zu Entwickeln.
 
Chismon schrieb:
Oberhalb von den aktuellen Renoir APUs wird eine MX 450 vermutlich schon liegen, aber wohl nicht deutlich/lohnend (was zusaetzlichen Verbrauch und Aufpreis angeht), aber was die (damit etwa bei Lenovo gleichzeitig verbauten, mit Xe LP Grafikeinheit bestueckten) Intel Tiger Lake APUs angeht, duerfte man da nur noch knapp leistungstechnisch darueber liegen, wenn nicht gar auf Augenhoehe und wenn die Cezanne APUs von AMD kommen, koennte dann Anfang bis Mitte kommenden Jahres eine MX 450 komplett ueberfluessig sein (spaestestens mit einer Rembrandt APU wird sie das aller Wahrscheinlichkeit nach sein).
Warum sollte das so sein? Nvidia weiß auch, wie schnell die IGP werden.
Eine MX350 ist schneller als ein Renoir 45W. Da wird Tigerlake U nichts oder nicht viel drauf legen.
Mit GDDR6 verdoppeln die mal eben die Speicherbandbreite. Das wird ein größerer Sprung werden. Da wird auch ein Cézanne nicht dran kommen. Und bis Rembrandt gibt's die MX550. Nvidia wird die immer leicht flotter machen als die IGP.
Ich weiß nicht wo der Glaube herkommt, die IGP könnten auf dedizierte GPU aufholen. Der Speicher wird immer deutlich limitieren. Mit LPDDR haben die IGP etwas aufgeholt, aber mit GDDR6 ist man wieder bei der knapp doppelten Bandbreite.
 
  • Gefällt mir
Reaktionen: Smartbomb, Tobi86 und Hayda Ministral
bensen schrieb:
Ich weiß nicht wo der Glaube herkommt, die IGP könnten auf dedizierte GPU aufholen. Der Speicher wird immer deutlich limitieren. Mit LPDDR haben die IGP etwas aufgeholt, aber mit GDDR6 ist man wieder bei der knapp doppelten Bandbreite.

Der Extra Speichercontroller samt GDDR Speicher säuft schon relativ stark.
Bei den low TDP Modellen dieser Karten (um die es im Zusammenhang mit IGPs ja meist geht) bleibt ziemlich wenig Power Budget für die Recheneinheiten an sich über. Selbst bei den low TDP Varianten der MX350 ist der Verbrauch eine ganze Ecke über der Version mit IGPU (wobei die MX350 dann je nach Anwendung 20-30% schneller ist). Es wird interessant, wie sehr die kleine Variante der MX450 den Vorsprung ausbauen kann.
 
spezialprodukt schrieb:
8800 gt! leider am vram-bug gestorben :(
Darf ich fragen was das für ein Bug war? Ähnlich wie bei der GTX 970?
 
Eine GPU, bei der Leistung pro Watt enorm wichtig ist bekommt PCIe 4 und GDDR 6? Klingt so, als würde Nvidia sehen, dass niemand diese GPU braucht und jetzt nur noch Marketing-Geschütze auffahren. Wobei es mich freuen würde, sollte ich mit dieser Einschätzung falsch liegen.

@VistaMizerFan35 : nicht Mal zeedy traut sich mehr noch an die Intel-Schublade zu glauben. Schämst du dich nicht?
 
Rock Lee schrieb:
Und soviel effizienter ist Turing gegenüber Pascal auch nicht, dass die IPC den Mehrverbrauch kompensieren kann.

25 Watt für 200mm² sind natürlich auch eine Ansage.

Das Milchmädchen würde rechnen, dass der Chip zwar 1/3 der Fläche von einem TU102 hat (round about) aber nur 1/10 an Strom in Rechenleistung umwandeln darf.

Wenn da nur 1/10 an Leistung raus kommt, braucht man das Produkt nicht. Also muss man die Transistoren weg bauen, die nur rum lungern.

Ein kleiner schlanker Chip mit "nur" 896 Rechen Einheiten und "nur" 64 bit Speicherinterface, kann auf jeden Fall bei hohem Takt "schnell" sein. Wenn er nicht performen würde, wäre er über das "Zeichenbrett" nicht hinaus gekommen.

Die 200mm² werden kleiner, wenn man mit besserer Fertigung shrinken kann und will. Das ergibt ja aber nur Sinn, wenn die in billiger 14nm Fertigung gefertigten Chips auch performen.

Selbst die nächsten Apus mit DDR5 Ram (das boostet richtig), arbeiten ja mit nicht mit Luft und Liebe.

mMn wird der mx450 positiv überraschen.

mfg
 
Ich denke auch das sie positiv überraschen wird und in der Leistung so auf Geforce 1050 Niveau kommt - bei allerdings nur 25 Watt!

Letztendlich entscheiden die Hersteller und nicht der Kunde ob die MX450 im Laptop ist oder nicht. Den meisten Leuten ist es doch eh egal was für eine Grafiklösung enthalten ist.
 
  • Gefällt mir
Reaktionen: end0fseven
Chillaholic schrieb:
Sehe das ähnlich, mit Renoir und Tiger-Lake sehe ich ehrlich gesagt auch keinen Bedarf mehr für solche Gurken.
Ich finds ja lustig. Ich hatte vor einiger Zeit in einem anderen Thread(https://www.computerbase.de/forum/t...ie-intel-grafikkarte-bitte-hilft-mir.1937965/) schon mal angemerkt, dass ich sowieso nicht verstehe, wieso die Hersteller ständig dGPUs in Notebooks verbauen. Es mag vielleicht für einen Desktopersatz(17"+) anders sein, aber wer hochqualitativ Zocken will, musste sich doch immer schon einen ordentlichen PC zulegen; bis vielleicht zur aktuellen RTX-Serie, die quasi fast Desktopwerte erzielt(in Verbindung mit den Renoir-H bzw. es gibt ja sogar Laptops mit den Desktop-CPUs und beschränktem Energieprofil), wo es schön langsam wirklich zum Überlegen ist, ob man leistungstechnisch überhaupt noch einen normalen PC braucht, weil man auch mit guten Laptops fast so gut arbeiten kann(z.B. Rendering). Einschränkung bleibt allerdings, dass man so oder so das Ganze nur stationär am Netzteil machen kann, weil der Akku sonst nach 1,5h die Biege macht.
 
spezialprodukt schrieb:
meineist jedoch mit grünem Schachbrettmuster abgeschmiert und das wars dann.

Die meisten Karten sind "damals" an defekten Lötstellen "gestorben", da die Versorgung mit Strom nicht mehr stabil genug war.

https://www.computerbase.de/forum/threads/defekte-grafikkarten-gesund-backen.470823/

Heutzutage gehen gerne mal die Spawas kaputt, da sie oft unterdimensioniert sind und extrem schlecht gekühlt.

Der eigentliche "Ram" geht äußerst selten wirklich kaputt und die eigentliche GPU/CPU ist fast nur verbrennbar. Daher hat man ja das ThermalThrottle erfunden.


mfg

p.s.

DAU123 schrieb:
Dachte der VRAM-Bug betraf nur die 8800GTS

https://www.computerbase.de/2007-08/forceware-163.44-behebt-vram-bug-auf-g8x/

" Der Fehler bewirkt, dass munter immer weiter Daten in den Speicher geladen werden und dieser irgendwann voll ist und somit Daten ausgelagert werden müssen, was die Geschwindigkeit enorm in den Keller drückt. Normalerweise sollte dies die Grafikkarte erkennen und den Speicher wieder leeren – dies passiert aber nicht und der Speicher quillt regelrecht über. "

Das ist ja nicht "kaputt". Es funktioniert ja, nur furchtbar schlecht :evillol:
 
Zuletzt bearbeitet:
Dachte der VRAM-Bug betraf nur die 8800GTS mit 320 und 640MB? Bei GT und GTS mit 512MB war dieser Geschichte?
 
sidewinderpeter schrieb:
es gibt ja sogar Laptops mit den Desktop-CPUs und beschränktem Energieprofil), wo es schön langsam wirklich zum Überlegen ist, ob man leistungstechnisch überhaupt noch einen normalen PC braucht, weil man auch mit guten Laptops fast so gut arbeiten kann(z.B. Rendering)
Naja, Notebooks sind ja was die Kühlung angeht grundsätzlich eingeschränkt.
Meist kommen die dann mit Stromspar-CPUs welche weniger hoch takten.
 
  • Gefällt mir
Reaktionen: Smartbomb und [wege]mini
Chillaholic schrieb:
Naja, Notebooks sind ja was die Kühlung angeht grundsätzlich eingeschränkt.

Die Kühlung ist nicht einmal das Problem.

Größe, Gewicht, Kosten des Materials und Verkaufspreis sind die Probleme, die zusammen mit einem nicht vermeidbaren Stromfluss in dem Halbleiter kombiniert werden müssen.

Bis wir aus 5 Watt wirklich viel "Power" in Form von Rechenleistung bekommen, werden wohl noch einige Jahre ins Land gehen.

Schon 50 Watt sind aber z.B. als Glühbirne unangenehm in der Hand. (so als Vergleich, weil nur diese Dinger ähnlich viel Energie in Wärme umwandeln)

Notebooks sind der richtige Weg. Leider für jedermann zu teuer und daher versucht man Technik von heute in 5 Jahren in Notebooks zu bekommen. In 10 Jahren soll es in der "Uhr" sein.

mfg
 
Zurück
Oben