Wieso keine bessere Hersteller Optimierung aktueller und künftiger GPU's ?

Verak Drezzt

Fleet Admiral
Registriert
Jan. 2020
Beiträge
11.189
Wollte Euch mal fragen, bezüglich des kommenden ATX3.0 Standard und den immer steigenden Verbrauchswerten aktueller und künftiger GPU's. Wieso die GPU Hersteller eigentlich nicht hergehen und ihre Grafikkarten besser optimieren ? Ich weis das es im Grunde Chiplotterie ist und das ausloten von Spannungen Mehraufwand bedeutet.

Aber wenn als Beispiel meine 6800XT Standard mäßig (2.285GHz) mit 1175mv befeuert wird, sie aber im Grunde ohne Probleme 1020mv und weniger mitmacht und ich sie dann sogar noch um ganze 250-300MHz übertakten kann. Wieso geben sie dann so Hohespannungswerte auf den Chip ? Wenn selbst 1050mv im Schnitt bei 2.3GHz Turbotakt reichen würde !

Hab mir eben das sehr informative und vor paar Tagen erschienene PCGH ATX3.0 Video, zum Thema Verbrauch künftiger GPU's, angeschaut und verstehe nicht wieso sie wahrscheinlich bis zu 650W Klopper raus bringen und die Karten bei selbigen Takt 100-150W oder gar mehr, ohne großen Aufwand einsparen könnten. Hätten es im Grunde dann ATX2.4/2.5 Netzteile immer noch getan. Oder haben sie in Zukunft vor das 1.0-1.5kw Netzteile Standard werden ?


Was meint ihr dazu ?
 
Zuletzt bearbeitet:
Fuer mich werden damit die "Wale"/Enthusiasten abgegrast. Da interessiert es nicht wie viel die Karte kostet oder wie viel sie verbraucht. Der neue 38" 4k 360hz Monitor muss befeuert werden. Die letzten Jahre wurden ihnen doch die GPUs aus den Haenden gerissen, egal ob sie wirklich schneller waren oder wie viel Strom verbrannt wird.

PCs sind endlich (oder wieder?) da angekommen, wo andere Enthusiasten Hobbies auch liegen: Es gibt eine Schicht von Kaeufern, die mit nahezu unendlichen finanziellen Mitteln das bestmoegliche erreichen wollen. Das sind diejenigen, die sich sonst fuer 12.000 EUR ein neues Rennrad gekauft haetten. Ab und zu sieht man doch solche Threads hier im Forum, wenn mit offenem Budget nach dem Gaming-PC fuer "alle aktuellen Spiele auf ULTRA" mit mindestens 144hz gesucht wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Herrenlos, LamaMitHut, KnolleJupp und 2 andere
@Axxid Mag schon sein und stimmen. Aber wenn die High-End Karten schon einen solch hohen Verbrauch haben, meinsde das es bei einer Midrange 4070 oder 7700XT nicht anders aussehen wird ?

mit 300-400W Verbrauch ? man munkelt ja das die 7700XT selbige Leistung wie eine 6900XT haben soll, bin gespannt ob AMD als dann auch Nvidia es da mit der Effizienz im Midrange besser hinbekommen werden. Oder ob sie selbst dort in dem Bereich 1:1 die Verbrauchswerte der alten Generation übernehmen.
 
Iguana Gaming schrieb:
Aber wenn die High-End Karten schon einen solch hohen Verbrauch haben, meinsde das es bei einer Midrange 4070 oder 7700XT nicht anders aussehen wird ?
Es steht dir jederzeit frei eine sparsamere Karte zu kaufen oder du kaufst ein Topmodell und nutzt es schlichtweg mit Vsync-On. Wer Leistung will braucht Energie, das bedeutet aber nicht, dass jeder gezwungen ist die Karten mit Vollgas zu betreiben.

Effizient kann man jede auch noch so vermeintlich ineffiziente Karte betreiben, umgekehrt funktioniert es nicht.
 
  • Gefällt mir
Reaktionen: Chri996 und FR3DI
Physik hat ihre Grenzen, die auch der Mensch nicht verschieben kann.
dein GPU Chip muss nicht zwangsläufig auf meiner GPU sein. sprich, jeder Chip "verträgt" andere Einstellungen über oder unter der Norm. die Hersteller vertreiben gpus, wie auch CPUs mit eben werten, die auch ohne Probleme/sicher in jedem Rechner funktionieren. finde es auch ok, wenn der User dann die tolleranzen versucht, auszuloten sei es nun an Spannung oder Takt oder anderen werten .
 
  • Gefällt mir
Reaktionen: FR3DI
Naja man kauft sich aber auch keine 400W 3080Ti, wenn man mit ihr nur in 60FPS in FullHD/WQHD zocken möchte um dann "Strom zu sparen". Geht auch eher mehr um die Frage weshalb die Hersteller wie oben beschrieben, nicht besser optimieren. Um so einiges mehr an Verbrauch und damit auch Abwärme einzusparen.
 
Optimieren kostet Zeit, Geld und reduziert im schlimmsten Fall deinen Yield.
Sind deine Karten nicht stabil (genug) hast du viel eher schlechte Publicity, als wenn die Karte etwas mehr Strom verbraucht.
 
  • Gefällt mir
Reaktionen: Herrenlos, feidl74, Drahminedum und 3 andere
Iguana Gaming schrieb:
Naja man kauft sich aber auch keine 400W 3080Ti, wenn man mit ihr nur in 60FPS in FullHD/WQHD zocken möchte um dann "Strom zu sparen".
Sie verbraucht dann ja keine 400W, das macht sie nur wenn du sie an die Leistungsgrenze treibst. Wieso sollten die Hersteller Karten auf den Markt bringen, die ab Werk in der Leistung beschnitten sind? Es steht dir doch frei einen Limiter zu setzen oder niedrigere Auflösungen zu nutzen um Strom zu sparen.

Was du verlangst wäre genau das. Karten aus denen man mit OC noch locker 10-20% mehr Leistung rausholen könnte, aber vom Hersteller auf Effizienz getrimmt sind. Hat man früher bei CPU/GPUs gemacht, heute selektiert man die Chips besser und schöpft die maximale Leistung aus.

Kauf dir eine Karte die du bezahlen kannst, reduziere den Power Target auf deinen gewünschten Wert, schon hast du eine effiziente Karte. Auch bei den CPUs kannst jederzeit 65W fest konfigurieren, statt sie mit 251W zu betreiben, aber wieso sollte der Hersteller dies von Anfang an so konfigurieren?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Chri996 und FR3DI
Aber das Polster was sie sich da gönnen ist da halt schon ziemlich dick wie ich finde. Bei 1175mv im Standard kommen viele an die 2.7-2.8GHz und das wären fast 500MHz mehr wie im Standardtakt von knapp 2.3GHz. Wäre wohl schon nen deutlicher Unterschied wie die Karten im Schnitt mit 1050mv liefen, als mit 125mv mehr.

https://www.hardwareluxx.de/community/threads/radeon-rx-6000-3dmark-time-spy-rangliste.1294520/
Ergänzung ()

xexex schrieb:
Sie verbraucht dann ja keine 400W, das macht sie nur wenn du sie an die Leistungsgrenze treibst.
eben ganz genau und deshalb käuft man sich ja dann auch eine 3080Ti, damit ich sie eben nicht beschneide sondern mit ihrer maximalen Leistung mit meinem 165Hz Monitor mit max. FPS befeuere. Dann geh ich eben nicht her und beschneide sie nach gutdünken auf 60FPS wie du es mir grad vorschlägst.

Es geht mir darum die Karten bei selbiger Leistung effizienter zu trimmen, sodass sie eben keine 400W, sondern nur 300W zieht und wieso machen die Hersteller sowas nicht, wenn es im Grunde kein Ding wäre. Out of the box ohne selbst Hand anlegen zu müssen.
Ergänzung ()

und ich hab doch meine Karte ebenso um 300MHz übertaktet und dabei noch um mehr als 150mv gesenkt. Effizientere Karten stehen ja nicht im Widerspruch, dann auch noch OC betreiben zu können.
 
Zuletzt bearbeitet:
Iguana Gaming schrieb:
Aber das Polster was sie sich da gönnen ist da halt schon ziemlich dick
UV ist kein "Polster" sondern schlichtweg notwendig um eine Serie von Chips mit gleichen Werten betreiben zu können. Deiner mag scheinbar mit weniger Spannung laufen, fragt sich nur wie stabil und wie lange. Ich musste erst kürzlich den "SVID Behavior" meiner CPU anpassen, weil sie nicht mehr stabil lief. Für einen Hersteller wäre es eine Katastrophe, wenn seine Karten nach 1-2 Jahren anfangen würden Abstürze zu produzieren.

Aber drehen wir doch die Frage einfach mal um... Wieso nutzt du keine 1,2V JEDEC Speichermodule, sondern höchstwahrscheinlich irgendwelche 1,35V-1,5V OC Dinger? Siehste! Der Kunde will Leistung und nicht Effizienz.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Chri996 und FR3DI
deshalb auch nen vernünftiger Mittelwert ausloten, denke wie gesagt das die meisten 6800XT Karten ohne Probleme die 1050mv mitmachen würden im Standardtakt von 2.3GHz und das wäre dann auch eine Ersparnis von über 100W im Schnitt, gegenüber der Standard Spannung von 1175mv mit über 300W Verbrauch

Mir geht es da wie gesagt nicht um einen Spitzen uv Wert der je nach Chipgüte sonst wo liegt, sondern nen guten Mittelwert und meine Vega64 zuletzt lief auch mehr als 4 Jahre mit nem ebenso 1050mv uv Wert von 1150mv einwandfrei und wurde ebenso knapp um die 100MHz moderat übertaktet. Denke das wird mit meiner jetzigen nicht anders laufen. Glaube das die Hersteller da schon nen entsprechend großen Spielraum haben die Karten Effizienter zu trimmen, bei selbiger Leistung.

Sind ja auch nicht die ersten Generationen die das aufzeigen. Wobei man bei Pascal und Maxwell schon gesehen hatte was möglich ist.
 
@Iguana Gaming
Ich kann Deinen Argumenten und dem Wunsch dahinter folgen, das ist kein Thema.
Aber - im Falle der 6800XT - Du DENKST jede Karte macht es mit, nur mit 1050mV betrieben zu werden, aber Du weißt das nicht sicher.
Für einen Hersteller stellt sich immer die Frage, wie stelle ich das Produkt hin dass es auf jedem PC läuft.
Wenn mit UV mehr geht (Strom sparen und ggf. sogar noch etwas Leistung rausholen) ist das schön, aber da müsste individuell jede Karte darauf hin eingestellt werden.
Der Mittelwert ist derzeit das was Du kaufen kannst, es stellt sich mir die Frage, ob man da nicht etwas zu hoch mit den Werten ist oder ob dieser Puffer notwendig ist.

Und ja, ich gebe dem Argument statt, dass ich mir meine 3080Ti nicht gekauft habe, um mit FHD/WQHD auf 60Hz "dahinzudümpeln", sondern ich fahre 4K mit 144Hz und maximalen Einstellungen (was die Kombi CPU + GPU je Game so möglich macht), denn ich will auch was sehen für mein Geld.
Das ist mein Anspruch und da ist es mir relativ egal wieviel das dann Strom zieht (logischerweise in einem vernünftigen Rahmen).
Interessanter ist es für mich, was mein Rechner so braucht, wenn ich NICHT spiele, das ist auch ein Großteil der Zeit.

Man kann das auch grob mit Autos vergleichen.
Wenn ich einen Mx von BMW oder ein RS-Modell von Audi habe und bei Vollgas auf der Autobahn die Kisten ordentlich was durchlassen, dann bin ich bereit das zu bezahlen, denn ich bekomme ja was für mein Geld.
Wenn die Kisten bei 80 auf der Landstraße oder beim Mitschwimmen im Verkehr (Stadt/Land/Autobahn) bereits saufen, DANN habe ich ein Problem.
Genauso verhält sich das für mich auch bei PCs.
Bekomme ich was geboten, muss ich dafür zahlen.
Surfen/Video glotzen sollte aber ohne viel Verbrauch vonstatten gehen.

Aber grundsätzlich sollten die neuen Karten nicht exorbitant mehr verbrauchen als die jetzt schon verbrauchen.
 
  • Gefällt mir
Reaktionen: Chri996, kaji-kun und FR3DI
Die Leistung der Karten und das man dafür entsprechend zahlt, steht auch außer Frage. Aber es geht hier halt um die Effizienz und ich weis nicht ob man das mit Autos wirklich vergleichen kann, wenn man mit 350 Sachen über die Autobahn brettern will und da halt nicht mehr drin ist als 15L Verbrauch. Während dies halt bei Grafikkarten halt doch der Fall ist und 1050mv ist jetzt kein super toller uv Wert bei einer 6800XT bei 2.3GHz Standardtakt, da geht bei vielen noch sehr viel mehr bis weit unter 950mv.

Habe den Wert halt genommen weil ich mich diesbezüglich auskenne und für die meisten 6800XT Karten kein wirkliches Problem darstellt mit 1050mv auch problemlos zu laufen. Wird euch auch jeder hier bestätigen der sich mit der Materie auskennt und selbst wenn wir nen 1075mv Wert nehmen würden, wäre das immer noch um bis zu mehr als 50-75W Effizienter als wie sie out of the box mit 1175mv daher kommen.
 
Der Gedanke leuchtet ein, aber jetzt rechne mal folgendes:
AMD geht hin und testet bei JEDEM Chip ob er auch mit 1150mv betrieben werden kann. Gehen wir mal davon aus dass das ne halbe Stunde dauert. Das multiplizieren wir mit 250000 Chips. das wird richtig teuer, da das Leute machen würden die mehr als 8€ die Stunde verdienen.
Auch das Problem das wirklich JEDER Chip im dem vom Hersteller gesteckten Rahmen über Jahre laufen muss. Der Chip wird ja mit der Zeit schlechter und braucht mehr Strom für die gleiche Leistung.
Was meinst du wie groß der Aufschrei wäre, wenn bei AMD oder auch NV ein Großteil der Kartenhaufenweise Fehler und Abstürze produzieren.
Auch unterscheidet sich ja die Güte der Chips massiv untereinander. Es gibt ja auch Karten die so gut wie garnichts an UV/ OC mitmachen.
Je niedriger die Spannung desto besser muss der Chip sein und AMD will ja auch viele 6800XT verkaufen, daher muss nach oben als auch nach unten entsprechend Luft bleiben um die Stückzahlen hoch zuhalten
 
Naja, anders herum, seit wann interessierst Nvidia oder AMD was die dinger an Strom fressen? Für die Lederjacken existiert überhaupt kein Grund dort Zeit und Geld zu investieren da es für die Firmen nunmal keinen mehrwert bringt.

Die neuen Karten werden denen aus den Händen gerissen wie geschnitten brot, völlig egal was an energie verbrannt wird. Wichtig ist das jede ausgelieferte Karte zu 100% stabil läuft.

Du schreibst dauernd immer von "vielen" oder "die meisten". Aber eben nicht alle. Und hier kommt der Punkt von Axxid ins Spiel. Das kostet zeit und geld auszuloten welche das nun sicher können.

Is ja nicht so das die hersteller die Wafer rausnehmen und dann auf dem ersten blick drauf steht was nun welcher chip brauchen wird.

So oder so wird sich das erst ändern wenn zum einen A die strompreise in jedem land explodieren und B dann die Käuferschaft explizit danach verlangt. Sprich wenn die Lager genau aus diesem Grund voll bleiben.
Solange hunderte karten im Verbund für mining gekauft werden und auch die "Gamer" (n grotteil tut das) drauf scheißt was die Kiste interm tisch verballert interessiert das keinen.

Ich verstehe deinen Punkt, aber im grunde ist die eingangsfrage schon mehrfach beantwortet worden. Es kostet zeit und geld für eine firma karten auf effizienz auszuloten. Den die müssen den Betrieb mit den settings auch Garantieren.
 
  • Gefällt mir
Reaktionen: Chri996
Iguana Gaming schrieb:
Wieso die GPU Hersteller eigentlich nicht hergehen und ihre Grafikkarten besser optimieren ?
Gaußsche Normalverteilung. Die Chips haben eine Streuung und um möglichst viele unter den selben Betriebsparametern verwenden zu können, muss man einen wirtschaftlichen Mittelweg finden, unter dem man den Chip mit möglichst wenig Ausschuss betreiben kann.
Was die Boardpartner dann daraus machen ist deren Sache. Die könnten natürlich anfangen zu selektieren und jeden Chip zu optimieren, aber das kostet halt Geld. Und 98% der Kundschaft will einfach nur eine Karte die eingebaut stabil funktionieren soll, auch wenn sie etwas mehr Watt verbrät als nötig.
 
  • Gefällt mir
Reaktionen: Dandelion, Tzk, Demon_666 und 5 andere
Optimiert sind die Dinger schon, bis zum 'geht nicht mehr'
Aber Du darfst auch die normalen Fertigungstoleranzen nicht vergessen.

Ja, einige Karten lassen sich untervolten, andere dagegen übertakten.
Und wenn Du die Fertigungstoleranzen so eng fasst, dass nur die allerbesten Karten in den Markt kommen, dann gibt es nur sehr wenige davon zu kaufen, zu horrenden Preisen.
 
  • Gefällt mir
Reaktionen: S.Kara
Wie @hamju63 schreibt liegt es an den Fertigungstoleranzen dass man idR seine Hardware noch undervolten kann. Es werden millionen von GPUs verkaut, die kann man nicht alle manuell optimieren.

Auch sind neue Generationen besser optimiert als die alten, auch wenn viel rumgeheult wird dass der Verbrauchst steigt. Das trifft nur für wenige Karten im High-End zu. Es wird trotzdem noch das Mittelfeld mit um die 200 W geben.
 
Hast du eig. mal gemessen wieviel dir dein UV tatsächlich spart?
Meine 2080ti ist UV/Untertaktet und eig. nicht so wenig aber im worst case, abhängig nach Spiel, reisse ich trotzdem das Powerlimit.

Ich erinner mich auch noch an meine 700er Karte die zu hoch geboostet hat und deswegen instabil war und in der 900er Serie war das auch noch ein nicht zu seltenes Problem. Für den normalo wäre das eine kaputte Karte gewesen.

AMD hat wiederrum bei den 6000ern auch Stromsparmechanismen vorgesehen, die die Chips teils viel zu stark runtertakten, wenn die Karte davon ausgeht dass die Leistung nicht gebraucht wird. Das endet dann in Stottern/weniger FPS und glaubst du die betroffenen sind glücklich über den niedrigeren Verbrauch?

Die Karten sollen laut Hersteller halt lieber etwas schneller laufen bei unverhältnismäßig mehr Verbrauch weil es darum geht sich Leistungsmäßig auf dem Markt einzuordnen.
 
Die Grafikkartenhersteller haben ein Ziel. Maximalen Profit zur Befriedigung der Interessen der Aktionäre.
Solange sie dies erreichen in dem Sie die schnellsten Produkte entwickeln spielt der Verbrauch überhaupt keine Rolle.

Strom/Energie wird in Zukunft immer weniger ein kritischer Faktor, da es genügend Optionen gibt. Die aktuelle "Kriese" haben wir der Politik zu verdanken.
 
Zurück
Oben