News Umstrittener Stromstecker: Erste Radeon mit durch­ge­schmortem 12VHPWR-Adapter

Wie viele Revisionen muss es noch geben damit es sicher funktioniert? Bei meiner 5070TI war ich auch überrascht, dass er keinerlei haptisches und akustisches Feedback gibt, ob der Stecker richtig drin sitzt. Man drückt einfach so gut man kann und hofft dass er jetzt richtig drin sitzt. 🤡
 
  • Gefällt mir
Reaktionen: JarlBallin und Alphanerd
DevPandi schrieb:
Wir sind da aktuell in einer Zwickmühle.

Nein, seid ihr nicht. Drüber berichten und fertig, genauso ist es richtig.

Sind doch ohnehin immer die gleichen 4, 5 Leute, die sich hier daran hochziehen, dass Kritik am wahrscheinlich schlechtesten Stecker aller Zeiten geübt wird. Für diese Leute gibt es eine handliche Liste und dann ist das gut.

xpad.c
 
  • Gefällt mir
Reaktionen: JarlBallin und Alphanerd
derLordselbst schrieb:
Weil es auch bei anderen Steckern mit viel mehr Sicherheitsmarge zu Ausfällen und mangelhafter Fertigung kommen kann, verteidigen sie mit Vehemenz und anekdotischer Evidenz (...)
"Anektdotische Evidenzen" gibt es bei Karten in dem Wattbereich mit dem 8Pin seit Jahren wesentlich mehr. Sogar aktuell bei der 9070XT 8Pin sind zwei betroffen und davor RDNA3 GPUs. "Sicherheitsmarge" ist genügend bei solchen 300W Karten da.
derLordselbst schrieb:
ein Konzept, dass alle Grundregeln für Betriebssicherheit mit großen, dummen Füßen tritt.
Seit dem 12V2x6 und nativen Kabeln ist das nicht mehr so. Nur die 5090 ist ohne Überwachung grenzwertig.
Auch dort bleiben Fälle wie man sich noch anfangs bei der 4090 gesehen hat aus.
Wenn überhaupt muss man in dem Bereich etwas tun, alles andere ist irrelevant.
xpad.c schrieb:
Für diese Leute gibt es eine handliche Liste und dann ist das gut.
Kann man solche Listen auch für 300-400 User verwenden? Wäre mal interessant rauszufinden.
 
DevPandi schrieb:
Das Umwandeln der 48 V auf die 1 V und hohen Ströme, die im Chip fließen, erfordert eine deutlich komplexere Topologie und wiederum ganz andere Spannungswandler und ebenso dann eine ganz andere Kühlung.

Die Schaltungen auf den Karten wird damit komplexer und es entstehen wieder höhere Wandlerverluste und so weiter.
Da muss ich widersprechen. Die Komplexität, der Platz und der Materialbedarf sinkt, weil (nach wie vor) nur ab Spannungswandler zum Chip hin diese hohen Ströme fließen. Außerhalb der Spannungswandler wird hingegen deutlich weniger Fläche benötigt. Zudem sind solche Buck-Converter bei 48V nicht weniger effizient als bei 12V, eher umgekehrt. Und verfügbar sind sie auch. Clearance zwischen V+, Steuerleitungen und GND muss im 48V Bereich etwas höher sein und natürlich müssen die Kondensatoren auf diese Spannungsfestigkeit ausgelegt sein, aber abgesehen davon sehe ich keine Probleme, die die Vorteile überwiegen.

Quidproquo77 schrieb:
Stimmt, auch bei den 9070XT PCIe 8 Pin Fällen waren es wahrscheinlich primär die Nutzer.^^
Ist dort tatsächlich wahrscheinlicher. Aufgrund des höheren Sicherheitsfaktors ist es deutlich schwerer, diesen Stecker zu überlasten.
Aber hey, du auch hier? Willst du immer noch deinen Unsinn zu diesem Thema beitragen?
 
  • Gefällt mir
Reaktionen: derLordselbst, SirKhan und Piktogramm
Wenn es ne ASRock war... auf deren Mainboards fackeln auch reihenweise CPUs ab, vielleicht liegt's auch an ASRock selbst? :D

Eine einzige ist natürlich nichts im Vergleich zu den ganzen abgerauchten nVidias, aber ob da am Ende 600W oder 300W drüber gejagt werden, wies aussieht braucht es für den Stecker noch eine dritte Version, diesmal dann hoffentlich nicht so extrem auf Kante genäht... gerade in Zeiten in denen GPUs 3000€ kosten ist sowas völlig absurd.
 
Weyoun schrieb:
Generell oder nur im Enterprise-Segment (also lediglich optional)?
Naja, es gibt keine generelle Verwendungspflicht, sondern es ist lediglich eine der spezifiszierten Stecker im PCIe-Standard. Halt für den Fall, dass statt 12V eben 48V für sie Stromversorgung einer PCIe-Karte genutzt werden. Es gibt aber keinen Zwang, weder im Enterprise-, noch im Consumer-Segment, 48V zu verwenden. Man kann auch einfach weiter auf 12V setzen und dort dann entsprechend entweder den 6-/8-PIn PCIe-Stecker oder den 12VHPWR/12V-2x6-Stecker verbauen.
 
  • Gefällt mir
Reaktionen: Weyoun
  • Gefällt mir
Reaktionen: dersuperpro1337 und Ja_Ge
-MK schrieb:
Ich weiß ja nicht, ob das wirklich annähernd so im Verhältnis steht, wie hier wieder die Verteufelung stattfindet 😅
Du lachst solange bis du selbst von betroffen bist...
Und interessant an der Stelle wäre eher die Frage: Wie viele solcher Probleme gab es vorher mit den alten Steckern und wie hoch ist der Anstieg dieser Problematiken seit dem 12V Stecker und wie viel Prozent tritt dieses Problem auf?

Wenn es vorher 0% war und nun 3%, liegen die 3% noch relativ im Benchmark sämtlicher "Fehleranfälligkeiten bei IT Gegenständen". Bei den meisten Sachen hat man im Schnitt eine Ausfallquote von ca. 1,5-3% an der Gesamtverkaufsmenge.
Wenn es aber mal 0% waren und nVidia jetzt 3% hat, aufgrund des Steckerwechsels, dann sind das meiner Meinung nach auch einfach unnötige 3%, weil die kommen ja dann noch auf die anderen Fehler, die es eh gibt, nochmal oben drauf.
 
ElliotAlderson schrieb:
Was ist die Alternative?
Es gibt da ein paar Alternativen, die alle nicht so "schlecht" sind. Zum Beispiel könnte man auf der Seite der Karte die 6 Pins "gesondert" betrachten und eine Lastverteilung implemetieren. Das ist durchaus möglich. Nachteil ist halt, das die Kosten etwas steigen und das Boardlayout komplizierter wird.

Genauso hätte man statt den Molex-Micro-Fit, nochmal den Molex-Mini-Fit auswählen können. Dann könnte da teilweise pro Ader deutlich mehr "sicher" laufen.
ElliotAlderson schrieb:
Warum wurde nicht schon beim 6/8 PIN eine Alternative gefordert?
Weil, als beide Stecker eingeführt wurden, das Internet noch nicht so verbreitet war. Dazu kommt glaub ich auch der Punkt, dass wir früher hier teilweise auch noch von ganz anderen Preisen gesprochen haben.

Dazu gibt es halt auch einen "dezenten" Unterschied, der für mich selbst zum Beispiel auch da relevant wäre: Es ist der Preis! Wenn ich für eine Grafikkarte 800 € - 900 € zahle - wie jetzt bei der RX 9070 XT hier - oder die 1500 - 3000 € für die RTX 4090 und RTX 5090, dann habe ich schon einen anderen Anspruch an die gesamte Karte und ebenso auch der Sicherheit, die damit verbunden ist. Ich "persönlich" würde mich hier - egal welcher Stecker - über so ein Problem allgemein ärgern, weil hier Bauteile für wenige Cent die Probleme gelöst werden könnte.

Das ist das gleiche wie mit Lego aktuell. Bei Lego habe ich zum Teil auch ganz andere Ansprüche, weil sie selbst sich als Premium-Marke verkaufen und ebenso Premiumpreise aufrufen. Dann erwarte ich persönlich allerdings auch Premium.
ElliotAlderson schrieb:
Warum wird erst jetzt großflächig rumgeheult?
Weil die Leute sich aufregen wollen. Weil das Internet dafür den Platz bietet. Und weil wir aktuell auch von Preisdimensionen sprechen, die gut über dem liegt, was vor Jahren nocht "Highend" war.

Da kommt halt sehr viel zusammen.
 
  • Gefällt mir
Reaktionen: Alphanerd
Wenn die Hardware weiter leistungshungriger wird, wird man sich wohl von 12V verabschieden müssen, um der Stromstärken (und damit den Temperaturen) Herr zu werden. 24V wäre dann der logische Schritt, aber dafür bräuchte es wohl auch einen neuen ATX-Standard.
 
ghecko schrieb:
Ist dort tatsächlich wahrscheinlicher.
Natürlich, es wäre ja auch ketzerisch in irgendeine andere Richttung zu denken und vielleicht sogar das ganze derzeitige ATX Konzept zu hinterfragen.
ghecko schrieb:
Aufgrund des höheren Sicherheitsfaktors ist es deutlich schwerer, diesen Stecker zu überlasten.
Genau, deswegen gibt es auch keine Häufung von Fällen beim 12V2x6 mit 300-400 Watt, richtig.
ghecko schrieb:
Aber hey, du auch hier? Willst du immer noch deinen Unsinn zu diesem Thema beitragen?
Hey, es ist mir immernoch nicht zu blöd geworden, aber die Schwelle ist nahe, denn soviel Unsinn verträgt sich auf Dauer nicht mit meinem Blutdruck, insofern entlastest du @DevPandi. ;)
DevPandi schrieb:
Weil, als beide Stecker eingeführt wurden, das Internet noch nicht so verbreitet war.
Das ist dann auch eine Erklärung mit der ich mich zufrieden geben kann.
 
echt erstaunlich zu was man alles eine parasoziale Bindung aufbauen kann . Nun also auch zu einem Steckverbinder. Nun ja, jeder wie er mag.

Ehrlich gesagt war ich dann doch überrascht als die ersten AMD-Customs mit diesem 12-poligen Dingens aufgetaucht sind. Warum?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JarlBallin
ghecko schrieb:
Da muss ich widersprechen. Die Komplexität, der Platz und der Materialbedarf sinkt, weil (nach wie vor) nur ab Spannungswandler zum Chip hin diese hohen Ströme fließen.
Du kannst da gerne widersprechen. Ich hatte - ich such das Ding auch gerade raus - da letzes jedoch ein Paper zu 48 V-Technik in Servern und deren Auswirkung auf die Hardware und was da alles angepasst werden muss und was das auch für Kosten mit sich bringt.

Ich hoffe ich finde das noch mal, nur war der Text eben zu 48 V weitaus differenzierter und da wurde eben auch darauf eingegangen, das die Schaltungstopologie komplexer wird, dass man mit höheren Wandlerverlusten zu kämpfen hat, dass auch gute Bauteile teurer werden und das diese Bauteile ebenso auch eine bessere Kühlung benötigen.

Im Serverbereich geht man diesen Schritt, weil die Kosten da quasi keine Rolle mehr spielen bei den Preisen, die da aufgerufen werden. In einem Segment wie den "Heim-PC" als auch "Workstation", sieht das halt anders aus.
 
  • Gefällt mir
Reaktionen: andi_sco
xpad.c schrieb:
Sind doch ohnehin immer die gleichen 4, 5 Leute, die sich hier daran hochziehen
"Seltsamerweise" sind 3 davon auf der ignore bei mir.

Aber natürlich nicht (nur) deswegen.
 
  • Gefällt mir
Reaktionen: JarlBallin und Ja_Ge
  • Gefällt mir
Reaktionen: iWebi
BlaBlam schrieb:
Wenn die Hardware weiter leistungshungriger wird, wird man sich wohl von 12V verabschieden müssen, um der Stromstärken (und damit den Temperaturen) Herr zu werden. 24V wäre dann der logische Schritt, aber dafür bräuchte es wohl auch einen neuen ATX-Standard.
Es gibt ja längst 48V für Server und bei 480 Watt sind nur 10 Ampere zu transportieren.
Da reichen dann 2 Kontakte plus 3* GND locker aus.

Auch für die CPU sind 48V vor Bordregler sinnvoll, eine 240 Watt CPU müsste nur 5-6A für die Regler erhalten.
 
DevPandi schrieb:
Im Serverbereich geht man diesen Schritt, weil die Kosten da quasi keine Rolle mehr spielen bei den Preisen, die da aufgerufen werden. In einem Segment wie den "Heim-PC" als auch "Workstation", sieht das halt anders aus.
Na ja, bei den Preisen die für Grafikkarten aktuell aufgerufen werden wäre ich da nicht mehr so sicher. Vor allem geht man diesen Schritt beim Server, weil man immer mehr Leistung auf sehr kleinem Raum übertragen muss und der Weg zu höherer Spannung eben viele Probleme damit löst.

Klar, 48V Technik ist vom Produktionsvolumen her nicht mit dem vergleichbar was für 12V verfügbar ist. Demnach auch höhere Preise. Die würden aber alleine dadurch schon sinken, wenn man diesen Schritt eben geht und großflächig darauf umsteigt. Den letztendlich sehe ich nicht den Sinn darin, den immer größer werdenden Verbrauch von Grafikkarten mit immer mehr Ampere zu begegnen. Irgendwann kommt man an einen Punkt wo man über höhere Spannungen nachdenken muss und der ist meiner Meinung nach erreicht.
 
MDM schrieb:
Du willst einen dicken Kupferstrang haben?
Einfach Litzenbündel mit ausreichend Querschnitt.

Axxid schrieb:
Einfach eine Fehlkonstruktion. Keine Ahnung was die geritten hat, den Stecker so klein zu machen.
Die Größte ist nicht das Problem, die Art und Weise wie das das Ganze auf zig Pins verteilt wird hingegen ist ohne größeren Aufwand für ne Absicherung nicht so toll.

DevPandi schrieb:
Ich hoffe ich finde das noch mal, nur war der Text eben zu 48 V weitaus differenzierter und da wurde eben auch darauf eingegangen, das die Schaltungstopologie komplexer wird, dass man mit höheren Wandlerverlusten zu kämpfen hat, dass auch gute Bauteile teurer werden und das diese Bauteile ebenso auch eine bessere Kühlung benötigen.
Mit 48V müsste man alles an Komponenten darauf umstellen, sonst braucht es Wandler für jedes bisschen Peripherie und das eskaliert den Aufwand. Wenn das Mainboard für den PCIe-Slot dann immernoch 3,3V und 12V bereitstellen muss, brauchte es sonst zwei zusätzliche Wandler auf dem Board.

#######################
https://www.molex.com/en-us/products/part-detail/428202213
Molex Mini-Fit Sr.
Der kleinste Stecker für zwei Adern bis 600V, 50A bei 12V also 600W. Grob 2cm breit, 1,3cm hoch (ab Platine), kostet halt Geld.
Edit: Stecker mit vier Adern, müsste man je wieder einen Strang einzeln absichern bzw. mit Shunts etwas für Lastangleich sorgen. Das wären dann aber mit Spielraum für Sicherheit immernoch 800..1.000W.

Ergänzung ()

RKCPU schrieb:
Auch für die CPU sind 48V vor Bordregler sinnvoll, eine 240 Watt CPU müsste nur 5-6A für die Regler erhalten.
Die Regler bemisst man nach dem Ausgangsstrom. Bei den ~1V die moderne CPUs heute unter Last haben, sind die Ströme dann schon ordentlich. Vorteile bringt es jedoch meist bei den Leistungshalbleitern, die sehen beim Schalten die Eingangsspannung[1].

[1]Muss ich jetzt "meistens" dazu schreiben, weil es da bestimmt irgend eine Topologie gibt, bei der das nicht der Fall ist und hier gleich Nochwer klugscheißen mag?!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ja_Ge
Als ich vor der Wahl stand welche RX 9070 XT es sein soll war eines der wichtigsten Kriterien dass die Karte keinen Hochschmelzfaktor-Stecker verbaut hat. Zwar ist der Verbrauch einer 9070 Xt wesentlich geringer als die einer 4090/5090 aber das Problem liegt ja daran, dass ausgehend vom Widerstand an den Kontakten zu viel Strom über ein einzelnes Kabel fließen kann. 8-Pin FTW. Die Industrie sollte sich schnellstens auf einen besseren Stecker einigen!
 
  • Gefällt mir
Reaktionen: Hatsune_Miku und JarlBallin
Zurück
Oben