Leserartikel Warum mehr Phasen nicht immer auch effizienter sein müssen...

AssassinWarlord

Lieutenant
Registriert
Okt. 2008
Beiträge
990
Tachchen allerseits, ich möchte hier mal etwas auf das Thema VRM (Voltage Regulator Module) bzw. die Spannungswandler auf den Grafikkarten eingehen um so den willigen Käufern zu zeigen - das viel nicht immer viel hilft bzw. besser sein muss. Es geht hier um die VRM Wandler Effizienz, die eben nicht automatisch besser sein muss als wenn man nur wenig Phasen hat...wobei das meistens mehr der Spar-Politik geschuldet ist, aber reinweg fürs Marketing klingt es halt erstmal cooler wenn man hinschreiben kann - 16 Phasen.
Jedenfalls- habe jetzt mal etwas zeit gefunden, mich mal mit meiner GTX1080TI Amp Extreme von Zotac näher auseinander zu setzen, wo ich die GPU getauscht hatte, ein RAM versetzt habe (weil die spender 1080TI GPU den lasercut für den fehlenden Speicher an einer anderen stelle hat) aber auch die 48 Mosfets.
Hier das Video dazu, recht weit am ende ist das mit den Mosfets (40:45 Minute)
a-HR0c-Dov-L21l-ZGlh-Lm-Jlc3-Rv-Zm1p-Y3-Jv-Lm-Nvb-S9-VLzgv-Njcz-Nz-Ey-L29ya-Wdpbm-Fs-L1pvd-GFj...jpg

Das der tausch alleine erstmal noch nicht soviel bringt, war klar - weil ja nichts an der Antakt-Frequenz geändert wurde.

Hier wie die Hitzeentwicklung auf der Rückseite der Karte vorher war - getestet mit 100% Lüfterdrehzahl, 10 Minuten GPUTool Stresstest gerade so groß gezogen dass noch kein PowerLimit entsteht, sondern die karte wirklich nahe der 300W maximal möglichen TDP liegt

vor mosfet wechsel.jpg

und hier nach dem Tausch der Mosfets:
nach mosfet wechsel.jpg

Rund 1,5°C Temperatur unterschied - also nicht der rede wert die 48 Mosfets tauschen zu wollen ;-)



Die Zotac hat ja 16 Phasen was erstmal richtig Overkill klingt und dass die sich eigentlich langweilen und dadurch auch recht effizient sein müssten. Tja, beim "müsste" ist es aber auch geblieben.
Wie "Actually Hardcore Overclocking" Hier in dem Video schon so schön zeigt, sind die verbauten Mosfets halt eher von der günstigen Sorte, diese haben Einschaltzeiten von 39ns für den HighSide Mosfet und 44,6ns für die LowSide Mosfets. Diese Rise-On time (=bis das GATE voll geladen ist und der Mosfet voll durchschaltet) sorgt für unnötige Erhitzung der Mosfets weil in dieser Rise-On time die Mosfets in einer Art "halbleitendem" zustand sind - was Mosfets garnicht mögen und dabei mehr Wärme "erzeugen" als wenn sie dann voll durchgesteuert sind. Und dadurch bedingt ist nur eine recht niedrige Schalt-Frequenzen möglich, weil sonst der Mosfet nie richtig durchschalten würde wenn die Frequenz so hoch ist das der Mosfet schonwieder sperren soll - obwohl er noch beim Rise-On ist (also dabei durch zu schalten). Würde man denn trotzdem zuschnel schalten kanns sogar passieren dass die DeadTime zu gering wird - die zeit wo gewartet wird bis der Mosfet wirklich aus sein solte und wo erst danach der andere eingeschaltet wird - sonst würde es schön knallen weil Kurzschluss...

Klar funktioniert das zwar, und die entstehende Hitze kann großflächig verteilt werden auf die 16 Phasen und dem recht kleinen Kühler - aber so richtig gut ist die Effizienz der ganzen sache nicht, da sind Founders Edition mit ihren Dual-N-Mosfets deutlich effizienter. Klar können Founders Edition karten zwar nicht in summe so hohe ströme bereits stellen wenn man richtig krass übertakten will, weil dann da bei Zeiten die Mosfets hops gehen würden - aber wie "Actually Hardcore Overclocking" in seinem Video schon sagte - wo bei der Zotac das VRM bei 300A ca. 42W an Abwärme macht, macht das Founders Edition VRM bei 300A gerade mal 35W Abwärme.

Klingt nicht viel, aber wen man bedenkt dass diese Leistung durch die Shunts mit gemessen wird, und die Wärme durch die meistens nur sehr kleinen Kühlkörper die für die VRMs spendiert wurden, weggekühlt werden muss - da sind 10W oder gar 20W (wenn man übertaktet) schon sehr viel - für das ganze VRM betrachtet

Auch entsteht viel Hitze in den Spulen selber - die das PCB natürlich als "Kühlkörper" mitverwenden bzw. als Wärmetransfereinheit. Das liegt daran weil die Spule ja immer nur ganz kurz "angetriggert" wird, also einen Stromimpuls reingeschoben bekommt durch die Mosfets. Der HighSide Mosfet schaltet ganz kurz die 12V durch, sodass diese an der Spule anliegen, aber der Stromfluss steigt langsam an - somit auch die Spannung. Wobei langsam relativ ist, weil wenige Nanosekunden ;-) aber in dem Bereich geht es eben. Die Kondensatoren am Mosfet puffern eben auch den Strom, sodass da deutlich mehr Strom geschoben werden kann als das PC Netzteil je könnte - aber für ein paar Nanosekunden reicht das zu bis der Mosfet wieder abschaltet und der LowSide Mosfet einschaltet und die Spule dann einen geschlossenen Stromkreis mit der GPU darstellt und somit die ~1V rauskommt... naja wird schon wieder zu theoretisch hier, will hier nicht gleich die komplette Funktionsweise eines Abwärtswandlers bzw. wie hier in dem falle - eines Synchronwandlers erklären...da gibts genug Lektüre in diversen Büchern oder im Internet.
Jedenfalls diese kurzen Impulse haben eben einen recht hohen Strom - und genau dieser Strom erwärmt die Spule. Wenn man jetzt die Antakt-Frequenz erhöht, verringern sich die Ströme weil die Spule in der gleichen Zeitspanne wie vorher - mehrmals Angetaktet wird - dadurch ergeben sich geringere Ripple-Ströme - die Kondensatoren und alle anderen Komponente laufen dadurch entspannter. Zwar ergeben sich auch wieder andere Nachteile mit höherer Antaktfrquenz wie eben Induktionsverluste ins PCB (wie ein Induktionsherd sozusagen) oder eben Schaltverluste (wegen Rise-on und Fall-Time beim Mosfet) oder Um-Magnetisierungs-Verluste in der Spule. Aber vielleicht kann man ja doch noch etwas rausholen in sachen Effizienz bei so einer Karte.

Nun habe ich ja auf meiner 1080TI hier Mosfets drauf, die deutlich schneller schalten könnten, also wären die Schaltverluste schonmal deutlich minimiert - somit kann ich was das angeht eine höhere Antakt-Frequenz versuchen und schauen wo ich rauskomme ohne das die Induktionsverluste zu groß werden - die Goldene Mitte also finden.


Die Antakt- bzw. Schaltfrequenz kann man hier recht einfach ändern, der wird am uP9511 PWM Controller durch einen einfachen Widerstand gegen Masse beim Einschalten des Controllers bestimmt.
Das passiert hier über den PROG6 PIN 3
up9511-prog6.PNG

Serienmäßig lag der Widerstand bei rund 33kOhm, was lt. Tabelle hier um die 300Khz ergibt
freuqnez einstellen.PNG

Nicht vergessen - die 16 Phasen kommen nicht direkt vom Controller, da sind PhaseDoubler verbaut, also taktet jede Phase effektiv mit 150Khz.


Damit habe ich erst einmal den Eingangstest gemacht und wie oben schon geschrieben "getestet mit 100% Lüfterdrehzahl, 10 Minuten GPUTool Stresstest-Fenster gerade so groß gezogen dass noch kein PowerLimit entsteht, sondern die karte wirklich nahe der 300W maximal möglichen TDP liegt"
default 34k ohm.PNG

Dabei hat sie sich rund 292W genehmigt lt. GPU-Z über die 10 Minuten. Natürlich hatte ich da erst gewartet bis der Stresstest lief und erst dann die Messung mitlaufen lassen.
Aus der Steckdose hat mein Testsystem da rund 389W gezogen.

Hitzeentwicklung der Spule und dem Mosfet Kühler:
default 34k wärme.jpg

Die Spulen werden dabei rund 63°C Heiß - nicht vergessen bei dem Test läuft der Lüfter immer mit 100% (PWM Pin entfernt am Lüfteranschluss) um eben Messfehler durch eine Lüfterregelung auszuschließen.
mit der Regulären Lüfter Steuerung wird das ganze noch deutlich heißer, um die 90°C...



Auf geht's mit der Frequenzanpassung, dazu habe ich einfach den 33K Ohm widerstand entfernt, und dafür ein 50K Ohm 22-Gang Trim-Poti angelötet und nach außen verlegt um den so anzupassen.
IMG_20201219_225707.jpg


Dabei habe ich zum versuch den Widerstand auf 40K Ohm eingestellt - nur um zu schauen was passiert wenn man die Frequenz weiter verringert.

Das machts nur noch schlechter jedenfalls :D
40k ohm.PNG

298W und öfter mal direkt ins PowerLimit gerannt, extern hat das System dabei direkt 405W aus der Dose gezogen.


Okay, also erstmal den Optimalen wert ermitteln wo der ganze Schwingkreis am optimalsten läuft - im lastfreien zustand weil ich das am einfachsten mit meinem Labornetzteil prüfen kann. Wenn also nur Strom an der Karte anliegt, die Karte in einem Riser steckt - aber keine PCIe Lanes angeschlossen sind. Damit startet zwar die karte, die Spannungswandler werden also alle aktiviert, GPU bekommt Spannung und Strom aber "Schläft" weils sie aufgrund der fehlenden Datenverbindung weiter im Reset-State bleibt. Macht aber nix, weil es geht hier ja nur um den VRM.


bei 33K Ohm , also 300Khz in etwa (also 34K Ohm), nimmt sich die Karte im Lastfreien zustand bei 12V genau 2,186A.
default 34k.jpg


Jetzt kann ich das Poti immer etwas weiter runterdrehen um so die Frequenz zu erhöhen und kann über das Netzteil die Karte recht einfach ein und ausschalten, was auch nötig ist, weil der uP9511 PWM Controller die Antakt-Frequenz immer nur einmalig beim Starten bestimmt anhand des Widerstandes der am PROG6 Pin hängt.

Rausgekommen bin ich dann bei um die 15K Ohm wo der VRM die höchste Effizienz zeigte:

17k.jpg

nur noch 1,687A bei 12V

wenn man noch niedriger geht mit dem Poti und die Frequenz noch höher schraubt, steigt der Stromfluss wieder steiler an und zwar deutlich - weil dann die Um-Magnetisierungsverluste und Schaltverluste zunehmen


Weiter gings jetzt mit dem echten Test unter Last. Das hat eben mehrere Stunden gedauert weil die 15K Ohm zwar unter Leerlauf und ohne Hitze der optimalste wert war - nicht aber unter Last. Da hatte die karte nur etwas weniger aus der Steckdose gezogen wie im Originalen Zustand - eben wegen genannten Verlusten und Temperatur-Koeffizient Verschiebung. Ich habe Wirklich viel probiert, System abgeschaltet, um 0.5K Ohm erhöht, wieder an, wieder 10 min Stresstest um Durchschnittswerte zu ermitteln, wieder aus, wieder 0.5 kOhm höhrer gegangen, wieder getestet, dokumentiert,...

Im Endeffekt ist der optimalste punkt bei Last und im Leerlauf, bei Kalter und bei Warmer Karte bei 17K Ohm - was ca. 560Khz Schaltfrequenz ergibt, also pro Phase um die 280Khz. Deutlich mehr als die Originalen 300/150Khz.

Aber was hats gebracht?
17k ohm2.PNG

bei der selben Performance zieht die karte jetzt statt 292W nur noch 282W. Auch aus der Steckdose werden jetzt statt 389W nur noch 378W gezogen.

Also in Summe 10W weniger. Nicht viel - klar - aber das sind einfach nur Verluste die minimiert wurden durch den Schaltwandler - und das finde ich schon bemerkenswert. Dadurch könnte sie jetzt ihren Boost länger halten oder weiter ausbauen, weil diese 10W ja auch durch die Shunts mit gemessen werden.
Was ich abeer viel bessser finde: Dadurch laufen die VRMs aber auch gleich mal rund 10°C Kühler - nur durch elektrische Optimierung!
17k wärme.jpg


Das wäre mit den Werksseitigen Mosfets wie gesagt nicht möglich gewesen, da hatten wenige Khz mehr Taktfrequenz schon zu einem Effizenzverlust geführt.

Damit ist der VRM genauso hoch effizient wie der, einer Founders Edition - und die sind schon gut effizient ausgelegt.

Das hätte eigentlich auch der Hersteller so direkt verbauen können, oder? Nun, wie immer zählt da eben wie anfangs erwähnt der Preis mit rein - meine 48 Infineon OptiMos5 Mosfets hier sind natürlich einiges teurer als einfachere Mosfets, und gerade bei einer Massenproduktion kommt es ja bekanntlich auf jeden Cent an. Ich weiß nicht wieviel Cent die teurer wären wenn man die in großen Stückzahlen genommen hätte, ich kanns auch nicht pro Stück sagen weil ich keinerlei Preise über die Originalen Mosfets finden konnte - aber gut waren die jedenfalls nicht ;-)


Wie gesagt, das hier ist eher ein Versuch meinerseits was man noch so rausholen kann, eine Art Fein-Tuning. Und Fein-Tuning bringt bekanntlich nicht mehr so viel. Aber vielleicht haben sich andere auch schonmal gefragt was man noch so machen könnte um die ganze Karte zu Optimieren. Wobei ich wohl nicht unbedingt nochmal 48 Mosfets tauschen wöllte - auch wenn es in 20-30 Minuten erledigt ist, ich denke wenn man nicht bis aufs letzte Mhz übertaktet, kann man die auch Original beruight drauf lassen :D


Was ich eigentlich damit sagen will - lasst euch nicht nur von der bloßen Anzahl der Phasen blenden. Klar es gibt noch weniger effiziente Wandler wo noch mehr Energie einfach in Wärme verpufft, aber auch bessere Konzepte.
Und das nicht nur bei Grafikkarten - ist bei Mainboards genauso.

btw. Und ja, die die Mosfets für die Speicher-Spannungsversorgung habe ich unangetastet gelassen, weil die nicht soviel zutun hat, also da mit einer Verbesserung von vielleicht 1W zu rechnen wäre.



So, und jetzt noch allen ein frohes neues Jahr wünsche ich :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BlueBringer, JJJT, Geringverdiener und 34 andere
Wow ... was nen Text und ein super Einblick was die kleinen Kerlchen so leisten müssen oder sollen :-)
 
  • Gefällt mir
Reaktionen: Wynn3h
Sollte die GPU load nicht auf 99-100% stehen für ein genaueres Messergebnis, anstatt wie auf Bild 1 88% Bild 2 nur auf 81% und beim dritten 85%.

Furmark hättest du vielleicht im Vollbildmodus laufen lassen sollen, oder ist das so gewollt?

Ansonsten hut ab für die Mühe , es wäre Interessant zu wissen bis wieviel °C die VRM spezifiziert sind, deine verbesserten und die die sich schon auf der Graka befanden...
 
Zuletzt bearbeitet:
@therealcola wenn er eh ins Powerlimit läuft und bei beiden Test die gleiche Menge Energie verbraten tut nö
 
  • Gefällt mir
Reaktionen: therealcola
Da ich da aller 0.3sekunden bei GPU-Z messen lasse aber nur beim PowerDraw den Mittelwert anzeigen lasse - nicht aber beim GPU Load - daher die schwankungen. Wenn das fenster noch etwas größer werden würde, wäre vieleicht der GPU Load noch größer - aber dann direkt PowerLimit
 
Zuletzt bearbeitet:
therealcola schrieb:
Furmark hättest du vielleicht im Vollbildmodus laufen lassen sollen...
Finde ich nicht, da es hier um ein Effizienzmessystem ging und nicht 'Verbrenne die Energie'. Furmark verballert halt alles was geht und nutzt das PL auch konstant zum eingestellten Wert voll aus. Kein Vergleich zu dem was eigentlich bewerkstelligt werden soll.
 
so schauts aus, habe ich auch mit im Text erwähnt das den GPUtool Stresstest so eingestellt habe von der Fenstergröße, das es kurz vorm PowerLimit ist - um eben den Energieverbauch messen zu können ohne dass es in ein Limit rennt. weil Wäre die karte immer im Powerlimmit - würde die immer 300W TDP fahren und immer um die 400W aus der Steckdose ziehen (gesammtes system) da hätte ich nicht sehen können wo sie weniger energie verbrät. Da hätte man es maximal am Boost-takt sehen können ob der ein paar Mhz höher wäre oder niedriger. Und da das GPUtool Stresstest-Fenster seine größe beibehält, und das renderbild statisch ist - gibts die geringsten abweichungen beim Test :-)


Meine OptiMos5 Mosfets da sind bis 175°C ausgelegt - die ganzen günstigen dinger eigentlich immer bis 125°C oder maximal 150°C was ich so gesehen habe.

Klar sind die VRM Temperaturen weit weg vom Maximum - aber wenn man sich mal die Datenblätter zu den Mosfets anschaut sieht man, dass die bei z.B. 25°C deutlich mehr Strom leiten können bzw. auch einen geringeren RDSon haben (innenwiderstand wenn voll durchgeschaltet) als wie bei 100°C - da kanns gut sein bei einigen, dass die nichmal mehr die hälfte der werte erreichen. Daher kanns nie schaden die Dinger so kühl wie möglich zu halten.
 
Zuletzt bearbeitet:
Man muss ja auch einen "Startwert" festlegen von den man seine energetische Betrachtung durchführt.

Was aber vielleicht noch etwas ausmacht ist natürlich die Umgebungstemperatur ...
 
Die Schaltverluste eines Mosfets hängen nicht nur an seinen Schaltzeiten ab. Dazu gehört auch die Gatekapazität die ständig umgeladen werden muss und der RDSon. Das alles spielt zusammen und ist stark Frequenzabhängig. Man müßte erstmal die Originalen mit den neuen Mosfets vergleichen. Dann wäre noch die Frage ob diese von einem Treiber ordentlich angesteuert werden. Das alles lohnt im Nachgang nicht. Ich glaube auch nicht das die Kartenhersteller den letzten Mist verbauen.
 
Verglichen habe ich natürlich ;) und ich bin da ja schon etwas darauf eingegangen wie die Verluste so zusammen kommen, primär eben wegen der Einschalten und ausschalte Zeit die das Gates braucht eb es voll geladen oder entladen ist wobei man da auch mit booster schaltungen arbeiten kann um das gate noch schneller zu entladen, also mit Negativ Spannung... Aber macht man nicht bei grafikkarten weil zu aufwendig... Zusehr wolle ich darauf aber nicht eingehen weils schon sehre trockene theorie ist...
Die Treiber können meist deutlich mehr mitmachen als die verbauten mosfets, also was die gate Kapazität angeht und auch die schaltzeiten/frequenz.
 
Zuletzt bearbeitet:
Moin! Bin über deinen anderen Thread hier rauf gestoßen und schaue mir gerade das Video an. Wahnsinn schonmal. Aber wo bekommst du die Lotschablone und sowas her?
 
Äußerst interessanter Bericht :)

Darf man fragen, wie viel die OptiMos5 so kosten?
Ich hatte schon kurz ebay und aliexpress bemüht, kam da aber zu keinem befriedigendem Ergebnis...
 
Zurück
Oben