Ich werde jetzt aus Gründen nicht meine Seite verlinken und damit mich selbst, deshalb habe ich es mal kopiert. Es ist eine kleine Ergänzung zu dem, was Buildzoid in seinem Video ganz offensichtlich mit Loadbalancer auf den 3090er Custom-Modellen meinte, auch wenn es einen völlig anderen technischen Hintergrund hatte:
Früher hatten Karten wie die 3090 drei von den 6+2 Headern verbaut und es war eigentlich so, dass mindestens zwei, wenn nicht gar alle drei Kabel separat ans Netzteil geführt wurden. Dort wiederum waren diese Kabel auf verschiedene Lötpunkte verteilt, hingen also auch meist an anderen Sekundärkondensatoren und wenn es kein Single-Rail-Netzteil war, sogar noch an separaten Rails. Es war also anzunehmen, dass jedes Kabel anders versorgt wurde und auch nicht unerhebliche Spannungsdifferenzen zwischen den Kabeln auftraten. Da auch die Netzteile vom Prinzip her reine Schaltnetzteile sind, hatte man nicht nur den unterschiedlichen Ripple, sondern auch den Effekt partiell leergesaugter Caps, die bei älteren Netzteilen gar nicht so schnell wieder aufgefüllt werden konnten, nur um gleich wieder leergelutscht zu werden. Die Folge waren Spannungschwankungen und am Ende damit auch instabil laufende Karten. Bei den großen AMD-Karten gab es zu dieser Zeit keine echte Power-Budgetierung mittels Shunt-Messung, da wurde von der ASIC-Power aus einfach rückwärts gerechnet, weil die Verluste der aktiven und passsiven Bauelemente samt Platine ja bekannt waren. Dazu habe ich mich nicht nur einmal im Detail eingelassen. AMD konnte es somit also egal sein.
Auf der 3090 (Ti) gab es allerdings gar keinen Loadbalancer im herkömmlichen Sinne, da liegt Buildzoid im Detail leider falsch, wohl aber drei unterschiedliche Monitoring-Rails und Komparatoren, was er wohl meinte. Wenn die Karte z.B. 450 Watt saugen durfte, konnte man das Maximum der Ströme pro Stecker relativ einfach kontrollieren, aber eben auch das Minimum der Spannung überwachen. Damit ließ sich dann auch der gesamte Spannungswandler-Komplex recht praktisch steuern, denn es wurde immer der KLEINSTE gemeinsame Nenner gesucht und damit die zur Verfügung stehende Gesamtleistung nach UNTEN hin angepasst. Das war also kein Balancer, sondern ein LIMITER. Denn auch bei den 3090 (Ti) wurden danach die drei Rails hinter den Shunts logischerweise wieder zu einer einzigen zusammengeführt, was technisch auch gar nicht anders geht. Die 3090er Karten sind also auch Single Rail, nur eben dreigeteilt separat überwacht worden.
Hier mal eine 3090 Ti von MSI mit dem Microfit-Übergangsstecker, die noch die Drittelung der 3090 mit den 3x 6+2 übernommen hatte:
Auch das war einer der Gründe für ATX 3.0, was die PCI SIG in der CEM 5.0 dann als 12VHPWR mit aufgenommen hat: eine Versorgung über nur eine einzige Rail, die dann auch im Stück überwacht werden kann. Der Denkansatz ist noch nicht einmal verkehrt, denn wenn mittlerweile fast alle Netzteile als Single Rail ausgelegt werden, dann muss man auf den Karten auch nicht so einen Monitoring-Zinnober veranstalten. So weit, so gut. Aber die elektrische und mechanische Seite des Single-Rail-Steckverbinders hat man dann doch brutal unterschätzt. NVIDIA hatte auf den FE mit den ersten MicroFit damit angefangen, weil man es vom Platz her gar nicht anders lösen konnte. Und dann wurde es leider komplett so für alle durchgedrückt. Bei den Karten mit drei 6+2 Anschlüssen sank im Zweifellsfall die Leistungsaufnahme so ab, dass sich alle Buchsen immer an der "miesesten" orientierten, was aber auch keine 100%-ige Sicherheit für einzelne Pins bot. Aber es war schon deutlich entspannter als alles aus einem Topf zu sourcen. Da AMD nichts kontrollierte, gab es laut meines Bekannten in einer Werkstatt auch mehr defekte AMD XTX-Karten aus dieser Zeit als NVIDIA-Karten. Aber es waren, insgesamt betrachtet, trotzdem sehr, sehr viel weniger Schäden als heutzutage.
Das heißt im Umkehrschluss, dass es NVIDIA in der Theorie sicher wieder so wie früher implementieren könnte, indem man wenigstens drei Rails für jeweils 2 Pins überwacht. Nur ist es leider so, dass es im Grenzbereich auch nicht ausreichen würde, um einen einzelnen Pin wirklich sicher zu schützen. Deshalb hat man es gleich ganz gelassen. Asus kontrolliert alle 6 Leitungen, lässt sich das aber fürstlich bezahlen. Allerdings ist auch die Asus-Lösung kein Balancer, sondern nur ein simpler Monitor und "Step-Down"-Limiter, der die Leistung über die Telemetrie so weit drosselt, dass alles wieder im grünen Bereich liegt. Ärgerlicherweise wird die Karte dadurch im Fall schlechter Kontakte auch langsamer.
Deshalb fand ich den AMPINEL auch gut, weil es im Moment der einzige pro-aktive Lösungsansatz ist, der nicht zu Lasten der Grafikperformance geht und Sicherheit erzeugt.
