News Wochenrück- und Ausblick: Spurensuche am 12VHPWR-Anschluss der RTX 4090

Wechsler schrieb:
Also zum Kokeln reichen 70 A auf 12 V definitiv.

Anhang anzeigen 1276950

Von dem Kabel oben bräuchtest du zwei Stück mit insgesamt vier Anschlüssen. Davon würdest du dann zwei Kabel nehmen und dem jeweils mittleren Stecker an den Adapter anschließen und den anderen Stecker freilassen. Du hast davon aber genau 0 Stück, wie rechts in der Liste zu sehen ist.

Im Lieferumfang des GX-850 hast du nun 6 Stück vom den unteren Kabel. Damit kommst du zwar zusammen auf 900 W, aber mit zweien davon nur auf 300 W, nicht 600 W.
ok dann siehts bei mir mit dem beQuiet E11 1000W Platinum wohl auch nicht besser aus. Ich habe zuminest keine doppelten Kabel dabei.
 
Wechsler schrieb:
Im Lieferumfang des GX-850 hast du nun 6 Stück vom den unteren Kabel. Damit kommst du zwar zusammen auf 900 W, aber mit zweien davon nur auf 300 W, nicht 600 W.

Praktisch kommt man mit 2 Kabeln auch auf 600 Watt, weil ein 8-Pin ATX Stecker eben auch 300 Watt liefern kann.
Im Gegensatz zu 12VHPWR hat der 8-Pin ATX Stecker halt eine Sicherheits-Marge von etwa 100%.

Die Radeon R9 295x2 die ich vorher erwähnte, zieht 560 Watt aus 2x 8-Pin ATX. Und davon sind nicht wirklich viele abgefackelt. Geschweige denn Netzteile durch die GPU gestorben...

@WilliWonka ein Adapterkabel von Corsair, Seasonic oder CableMod sollte definitiv reichen.
 
WilliWonka schrieb:
ok dann siehts bei mir mit dem beQuiet E11 1000W Platinum wohl auch nicht besser aus. Ich habe zuminest keine doppelten Kabel dabei.
Es hat ja seinen Grund, warum nVidia so einen komisch gelöteten Adapter gefrickelt hat.

Natürlich könnte die Elektrofachkraft jetzt das Netzteil aufschrauben und nachsehen, ob die angeschlossenen Leiter(bahnen) dick genug sind, um die erforderlichen 9 A auf die alten PCIe-Stecker zu bringen. Bei Be quiet scheint das nicht der Fall zu sein, die haben deshalb ein 12+4-Pin auf 2x 12adriges-Adapterkabel im Angebot. Bei Corsair scheint hingegen alles zu passen und die bieten ein 12-adriges-Adapterkabel für 600W an, das mit 2x 6 Adern auf 2x 8-Pin-Stecker am Netzteil angeschlossen wird.

Wenn da also fest zwei 8-Pin-Kabel aus dem Netzteil kommen mit zusammengerechnet vier Steckern, weiß man sofort, daß es geht. Bei allen anderen Fällen kann es leider auch im Netzteil knallen.
 
Ist ja irre. Ich hatte vor wenigen Tagen ein Enermax 850W D.F. hier und das hatte ein PCIe Kabel mit 2 Steckern dran. Das kostet etwas mehr als die Hälfte von dem BeQuiet Netzteil. War da aber wohl nicht so, denn der PC ging direkt aus ohne UV mit der 4090. :D
 
Lol das immer noch über die Kabel-Verschwörungstheorie diskutiert wird und man sich überhaupt so scheiß von Jay's usw. auf youtube rein zieht xD
Wow 14 Fälle von denen wie reddit üblich die hälfte fake sind gibts gerade mal, bei wieviel verkauften GPUs? Nicht mal Gaming Nexus kann Igor zustimmen und haben es nicht hinbekommen eins ihrer kabel, selbst manipuliert zum qualmen zu bringen.
Meins ist gebogen ohne Ende und ist auch nicht abgefackelt :freak:
 
da!mon schrieb:
Praktisch kommt man mit 2 Kabeln auch auf 600 Watt, weil ein 8-Pin ATX Stecker eben auch 300 Watt liefern kann.
Im Gegensatz zu 12VHPWR hat der 8-Pin ATX Stecker halt eine Sicherheits-Marge von etwa 100%.
Der PCIe-Stecker könnte das schon schon mit 16 AWG. Aber du weißt nicht, was daran angeschlossen ist, insbesondere im Netzteil. Wenn das nur 20 AWG ist oder du dünne Leiterbahnen hast, dann kokelt es eben dort oder die Schutzschaltung dreht den Saft ab. Du weißt zudem nicht, was die Stecker am Netzteil abkönnen.

Das ist der Nachteil an modularen Netzteilen...

WilliWonka schrieb:
Ist ja irre. Ich hatte vor wenigen Tagen ein Enermax 850W D.F. hier und das hatte ein PCIe Kabel mit 2 Steckern dran.
Dann hat Enermax diese Kabel für 300 W dimensioniert. Damit hättest du dann Glück gehabt.
 
B.L. Swagger schrieb:
Wow 14 Fälle von denen wie reddit üblich die hälfte fake sind gibts gerade mal, bei wieviel verkauften GPUs?
Ich find ~10 bekannte Fälle zwei Wochen nach Release nicht wenig. Mal abgesehen davon, dass der Adapter nachweislich Murks ist.
 
  • Gefällt mir
Reaktionen: Sebbi
Wechsler schrieb:
Dann hat Enermax diese Kabel für 300 W dimensioniert. Damit hättest du dann Glück gehabt.
Kann ich mir nicht vorstellen, der PC ging unter Last direkt aus als ich den Adapter angeschlossen habe. Musste UV machen damit es geht.
 
WilliWonka schrieb:
Kann ich mir nicht vorstellen, der PC ging unter Last direkt aus als ich den Adapter angeschlossen habe. Musste UV machen damit es geht.
Sauber! Dann gibt es eine funktionierende Schutzschaltung und Enermax läßt dich nicht mehr als 150W über PCIe 8-Pin ziehen.
 
  • Gefällt mir
Reaktionen: MortyMcFly
Das kann schon sein. War nur ein Testnetzteil. Das beQuiet ist bisher auch super. Wenn der Adapter von Amazon nicht geht, geht er halt nicht. Der beigelegte funktioniert bisher ja.
 
Boimler schrieb:
Ich find ~10 bekannte Fälle zwei Wochen nach Release nicht wenig. Mal abgesehen davon, dass der Adapter nachweislich Murks ist.
Da gabs mehr Fälle von angeblich defekten 3080 Karten, wo uns youtuber auch erzählen wollte es wären schlechte Kondensatoren oder Speicher. Niemehr hat man was gehört und erste treiber haben die Karten stabil gemacht. Die 10 Fälle sind nicht mal die üblichen 3% Ausfallrate und bewiesen ist auch nicht, dassdie Adapter murks sind, wie das neue Video von GN zeigt, Igor hatte ein ganz anderes Kabel wie all ihre 5 die sie haben.
 
  • Gefällt mir
Reaktionen: RogueSix
Bei einer UVP von 2000 Euro und höher sollte es von Haus aus Gleich dass passende Netzteil Gratis dazu geben! Und jetzt braucht Nvidia nicht Sagen da Verdienen wir an den Karten nichts mehr!,oh doch Ihr Verdient da immer noch reichlich daran. Wenn ich eine Karte gekauft hätte würde ich mein Geld zurückverlangen,das Produkt und wenn es nur der Adapter ist sind Fehlerhaft!! Und Mal ganz ehrlich 2000 Euro nur für eine Grafikkarte?,da muss ich einen halben Monat für Arbeiten!,ne 2000 Euro ist mir die Grafikleistung nicht wert und dann noch der Hohe Stromverbrauch. Ich Warte was von AMD kommt,wenn die auch so Teuer sind dann nutze ich meine 2080Ti weiter.
 
Der Kloomann schrieb:
Bei einer UVP von 2000 Euro und höher sollte es von Haus aus Gleich dass passende Netzteil Gratis dazu geben!
Man könnte jetzt auch sagen:
Wer mehr als 2000€ für eine Graka ausgibt, sollte auch in der Lage sein, sich ein passendes ordentliches Netzteil zu besorgen.

"Könnte" deshalb, weil richtige ATX 3.0 Netzteile immer noch Mangelware sind.
 
Der Kloomann schrieb:
Bei einer UVP von 2000 Euro und höher sollte es von Haus aus Gleich dass passende Netzteil Gratis dazu geben! Und jetzt braucht Nvidia nicht Sagen da Verdienen wir an den Karten nichts mehr!,oh doch Ihr Verdient da immer noch reichlich daran. Wenn ich eine Karte gekauft hätte würde ich mein Geld zurückverlangen,das Produkt und wenn es nur der Adapter ist sind Fehlerhaft!! Und Mal ganz ehrlich 2000 Euro nur für eine Grafikkarte?,da muss ich einen halben Monat für Arbeiten!,ne 2000 Euro ist mir die Grafikleistung nicht wert und dann noch der Hohe Stromverbrauch. Ich Warte was von AMD kommt,wenn die auch so Teuer sind dann nutze ich meine 2080Ti weiter.
🤣
 
Wechsler schrieb:
Es hat ja seinen Grund, warum nVidia so einen komisch gelöteten Adapter gefrickelt hat.

Natürlich könnte die Elektrofachkraft jetzt das Netzteil aufschrauben und nachsehen, ob die angeschlossenen Leiter(bahnen) dick genug sind, um die erforderlichen 9 A auf die alten PCIe-Stecker zu bringen.
Nein, es hat KEINEN Grund warum Nvidia das gemacht hat. Sie wollten ein Problem lösen, das keines ist.
(Voll-)Modulare Netzteile haben den Vorteil, dass man eben genau sehen kann (ich zumindest mit meinem Seasonic Netzteil), welcher PCI-Stecker welche 12V rail bedient. RTFM ist hier das Stichwort.
Und die Radeon R9 295x2 ist 2014 auf den Markt gekommen, wenn das also damals schon kein Problem war, mit 2x 8-Pin knapp 600W zu bedienen, warum sollte es dann heute ein Problem sein? Der Leiterquerschnitt hat sich über die Jahre nicht verringert.
Und über 8-Pin EPS aus dem Serverbereich hätte man gerne 300 Watt versorgen können, warum nicht als einfach diesen Standard aus dem Serverbereich übernehmen anstatt etwas neu zu entwickeln was zwar toll klingt (ich verstehe auch den Sinn dahinter: dedizierte 12V Stromversorgung für Grafikkarten) aber effektiv noch nicht benötigt wird, weil die Ressourcen bereits vorhanden sind.
Im wesentlichen ist das nur wieder ein Versuch von Nvidia, einen Industriestandard zu pushen, der ihnen den größten Mehrgewinn verspricht.

Wechsler schrieb:
Der PCIe-Stecker könnte das schon schon mit 16 AWG. Aber du weißt nicht, was daran angeschlossen ist, insbesondere im Netzteil. Wenn das nur 20 AWG ist oder du dünne Leiterbahnen hast, dann kokelt es eben dort oder die Schutzschaltung dreht den Saft ab. Du weißt zudem nicht, was die Stecker am Netzteil abkönnen.
Wenn man heutzutage noch 20 AWG Kabel im Netzteil verbaut hat, dann ist man selbst schuld, dass man eine solche Scheiße kauft bzw verwendet. Sorry aber da gibts keine höflichere Beschreibung für.
20 AWG war schon 2014 mist und 18 AWG ist Industriestandard, 16 AWG eigentlich bei höherwertigen Netzteilen die Norm.
Und ich weiß eben sehr wohl, was ich auf den 12V Schienen angeschlossen habe, dafür ist ein gut durchdachtes und aufgebautes, modulares Netzteil ja da: dass man eben weiß, was auf welcher Schiene hängt.
Und über die 12V PCI Schiene habe ich nur meine Grafikkarte angeschlossen. Die CPU hängt an einer separaten 12V CPU Schiene. Und die SSDs hängen an der separaten HDD/SSD Schiene.

Es macht halt Sinn, sich auch beim Netzteilkauf ein bisschen genauer zu informieren und nicht den 15€ billigeren Elektro-Kernschrott aus China zu kaufen, nur weil drauf steht, dass der Kübel ebenfalls 850 Watt und X Ampere auf der 12V Schiene hat...

P.S.:
18 AWG bietet max 8,5A pro 12V+ - macht 25,5A. Mal 12V macht 306 Watt.
16 AWG kann 10A pro 12V+ liefern, sind also 360 Watt pro 8-Pin Stecker...
Siehe hier unter Punkt 4.3 - Wire to Board. Selbst mit 20 AWG sind noch 250 Watt pro 8-Pin möglich.
 
Zuletzt bearbeitet:
Boimler schrieb:
So hab ich mir das vorgestellt! :D
Bei den Servern hat man längst die 48V eingeführt, das bedeutet nur 1/4 Kabel Querschnittsfläche und bei 600W dann 12-13A verteilt auf 2-3 dünne, stromführende Leitungen + muss Masse / GND.

Der Wunsch kompatibel zu älteren Netzteilen zu sein ist auch fragwürdig, dann kaum ein Design von früher ist auf 1/2 kW Grafikkarte und das per 12V ausgerichtet.
 
  • Gefällt mir
Reaktionen: Boimler
da!mon schrieb:
Und die Radeon R9 295x2 ist 2014 auf den Markt gekommen, wenn das also damals schon kein Problem war, mit 2x 8-Pin knapp 600W zu bedienen
Das gab schon ordentlich Diskussionsstoff, zumal die offizielle Angabe von AMD "450 W" war. Trotzdem haben damals viele PSUs wie das Enermax von @WilliWonka einfach abgeschaltet. Besser als Kokeln war das auf jeden Fall.

da!mon schrieb:
Wenn man heutzutage noch 20 AWG Kabel im Netzteil verbaut hat, dann ist man selbst schuld, dass man eine solche Scheiße kauft bzw verwendet. Sorry aber da gibts keine höflichere Beschreibung für.
Wissen kann man das eben nicht, ohne das Netzteil aufzuschrauben und das wiederum sollte der Laie tunlichst unterlassen. Es spricht auch nichts dagegen, vier PCIe-Anschlüsse für je 150W mit insgesamt 24x 20 AWG auszulegen (die 8 Sense-Leitungen sind ja egal). Oder man nutzt entsprechend dickere Verteilerkabel, um dann eben 12x 16 AWG mit jeweils zwei 150W-PCIe-Anschlüssen an einem Kabel dran. Genau dazu muß der PCIe-5.0-Adapter dann eben auch passen.

Klar können wir jetzt 40x 16AWG im Netzteil als Ideal definieren, aber niemand möchte 150€ Aufpreis für 1 kg im Netzteil verschraubtes Kupfer ausgeben.
 
Wechsler schrieb:
Wissen kann man das eben nicht, ohne das Netzteil aufzuschrauben und das wiederum sollte der Laie tunlichst unterlassen.

Ich habe hier diverse Netzteile rumliegen, die ich nicht mehr brauche, ich kann bei Gelegenheit mal eins davon aufschrauben.
Wenn du mir im Vorfeld bitte beschreiben würdest, wo genau ich IM Netzteil die Kabel finde? Ich sehe da nur eine Platine mit diversen Bauteilen drauf.

Die Angabe 16/18/20 AWG bezieht sich auf das externe Kabel, welches vom Netzteil zu den Verbrauchern geführt wird.
Auch verstehe ich deine Rechnung noch nicht ganz: 4 PCIe Anschlüsse mit jeweils 3x 12V+ und 5x Ground macht zusammen 12x 12V+ - nach den Spezifikationen, welche ich in meinem letzten Post verlinkt habe, macht das bei 18 AWG 8,5A x12 = 102A x 12V = 1224 Watt.
Selbst bei 20 AWG und 7A pro 12V+ sind das noch 1008 Watt...:freak:

Also nochmal: warum sollte man jetzt einen 4x 8pin auf 1x 12VHPWR nutzen wenn 2x 8pin ausreicht?! 100% Sicherheits-Marge bei 12VHPWR Adaptern aber nicht beim nativen Stecker vom Netzteil? :freak:
Ergänzung ()

Wechsler schrieb:
Das gab schon ordentlich Diskussionsstoff, zumal die offizielle Angabe von AMD "450 W" war. Trotzdem haben damals viele PSUs wie das Enermax von @WilliWonka einfach abgeschaltet. Besser als Kokeln war das auf jeden Fall.

Im Test von PCGH lese ich nichts davon. Im Gegenteil: AMD hat auf Nachfrage von PCGH sogar bestätigt: "die PCIe-Spec empfiehlt aufgrund des Formfaktors und thermischer Gesichtspunkte zwar 150 Watt pro 8-Pin-Anschluss, aber die Anschlüsse selbst seien elektrisch nicht auf diese Wattleistung beschränkt."

Die Karte hat die damals üblichen 450-550 Watt Netzteile schlicht überfordert und nach ablaufen des NDA wurde eine Liste mit kompatiblen Netzteilen veröffentlicht.

Und selbst wenn die Angabe 450W gewesen wäre, mit 2x 8pin sind offiziell auch nur 300W möglich. Macht 375 Watt mit dem PEG Slot. Kommt also nicht hin...

@RKCPU ich hätte nichts dagegen, auch im Endkundenbereich auf 48V zu wechseln. Müsste nur Idiotensicher sein 😜
 
Zuletzt bearbeitet:
Verstehe ich das richtig, dass es keine Probleme gibt, sobald man die new gen ATX 3 Netzteile benutzt, die den Adapter gar nicht benötigen? So dass man die 4090 Konnektoren hier ausschließen kann?
 
Zuletzt bearbeitet:
Zurück
Oben