News Umstrittener Stromstecker: Erste Radeon mit durch­ge­schmortem 12VHPWR-Adapter

Also ich habe mit meiner Sapphire noch keine Probleme gehabt, so wie 99,9% der Kunden.
Irgendwas läuft da doch falsch? War der Kontakt nicht richtig gut ?
Mutmaßungen.. Aber ja, ich verstehe die Kritik an dem Stecker.. denke aber auch dass das Thema schon lange viel zu aufgebläht wird. Die meisten User haben damit nämlich keine Probleme.
Wär halt trotzdem schön, wenn einem nicht wegen der GPU die Bude abfackelt.
 
  • Gefällt mir
Reaktionen: MalWiederIch
SavageSkull schrieb:
Im Vergleich dazu hat der alte 6+2 Pin PCIe Stecker "nur" 3 Adern die Plus führen, also wenn zwei der drei Plus Kontakte schlechteren Übergang haben, kann der letzte Pin "nur" um das dreifache Überlastet werden.
Und selbst das hält der Stecker prinzipiell noch aus. Denn die PCIe-Spezifikation ist mit den maximal erlaubten 150W schon fast übertrieben konservativ, weil der Stecker deutlich mehr verträgt. Bei Molex Mini-Fit sind die Pins für bis zu 13A ausgelegt und selbst wenn bei einem 8-Pin PCIe-Stecker die 150W über einen Pin gehen, liegt man mit 12,5A noch knapp unter der Grenze.

Bei > 150W wird der Stecker dann ohnehin als Ganzes als überlastet gewertet, egal wie sich der Strom dabei auf die Pins verteilt. Bei einem 6+2 Pin PCIe-Stecker interessiert es im Endeffekt nicht, ob und welche Schieflast an dem Stecker vorherrscht, so lange die Vorgaben der PCIe-Spezifikation eingehalten werden.
 
  • Gefällt mir
Reaktionen: HageBen
Blackfirehawk schrieb:
Nur bei wenigen brät er durch.. und zwar bei Lasten auch innerhalb der Norm
Hier zb bei ner 360watt Karte..
Hat auch schon Berichte von ner 3060ti gegeben mit ich glaub 250watt wo der Stecker geschmort ist..

Und bei Millionen anderen läuft das ganze problemlos.. bis hin zu 600+watt und das schon teils Jahrelang ohne Probleme.
Wenn tausend Stecker gefertigt werden, ist qualitativ auch mal ein schwarzes Schaf dabei. Das war auch bei allen vorhergehenden Steckern so und wird auch bei den nachfolgenden Steckern der Fall sein.
Das Problem ist, dass bei einem solchen Fehlerfall die beschissene Beschaltung auf der Grafikkarte eine deutlich höhere Überlast ermöglicht und es keine Erkennung oder Fehlerabschaltung gibt, auch weil die beschissene Beschaltung (anders kann man das nicht nennen) das gar nicht zulässt.

Normalerweise sollte so ein Fehler zum Abschalten führen und einen Schaden verhindern. Dann reklamiert man das als Kunde und alles ist in Ordnung. Da die Parallelschaltung aller Adern das aber nicht ermöglicht sondern stattdessen ermöglicht, dass eine einzelne Ader nachher die volle Leistung alleine tragen kann, passiert genau das, es schmorrt.

Mit dieser Beschaltung hätte man auch einen Stecker aus der alten Serie geschmolzen. Hier ist ganz klar der Grafikkartenhersteller Schuld und ggfls der Chip Hersteller, der diese Beschaltung als Vorgabe an den Grafikkartenhersteller empfohlen hat.
Der Stecker(-hersteller) hat keine Schuld, das Drittanbieter Kabel hat keine Schuld, das Netzteil hat keine Schuld und auch der Kunde hat keine Schuld.

mibbio schrieb:
Bei Molex Mini-Fit sind die Pins für bis zu 13A ausgelegt und selbst wenn bei einem 8-Pin PCIe-Stecker die 150W über einen Pin gehen, liegt man mit 12,5A noch knapp unter der Grenze.
Hätte man für den neuen 12V 6x2, oder wie der heißt, statt dem neuen Micro-Fit die bekannten Mini-Fit genommen, wäre der dann genauso durchgebrannt, wenn man mal einen schlechten Stecker erwischt hat. Solange die Parallelschaltung es ermöglicht, dass im Fehlerfall 600W an einem Pin sind, kann die Reserve gar nicht hoch genug sein und wäre auch bei Mini-Fit nicht hoch genug gewesen,
 
  • Gefällt mir
Reaktionen: Quidproquo77
Ich hatte seit dem Release der 40er Serie eine 2 stellige Anzahl an PC´s mit geschmolzenen Steckern. Einige Kunden wollten einen neuen Stecker auf der GPU und ein neues Kabel. Leider ist dieses Problem nicht ganz so selten. Viele dieser User sind ja nicht mal in irgendwelchen Foren unterwegs da sie überhaupt keinerlei Ahnung haben und sowas dann einfach bei mir abgegeben wird.
 
  • Gefällt mir
Reaktionen: derLordselbst, derkleinedieb, ghecko und eine weitere Person
SavageSkull schrieb:
Mit dieser Beschaltung hätte man auch einen Stecker aus der alten Serie geschmolzen. Hier ist ganz klar der Grafikkartenhersteller Schuld und ggfls der Chip Hersteller, der diese Beschaltung als Vorgabe an den Grafikkartenhersteller empfohlen hat.
Oder man hätte schlicht in der PCIe-Spezifikation entsprechende Vorgaben gemacht. Also dass die Pins/Leitungen nicht parallelgeschaltet werden dürfen und es entweder auf der Karte oder im Netzteil eine entsprechende Überwachung der Last pro Pin geben muss. Netzteilseitig wäre da im Grunde besser, weil das dann immer funktioniert, unabhängig von der angeschlossenen Karte.
 
  • Gefällt mir
Reaktionen: HageBen
-MK schrieb:
Ich weiß ja nicht, ob das wirklich annähernd so im Verhältnis steht, wie hier wieder die Verteufelung stattfindet 😅
Es ist ganz einfach ein Szenario wie ein Flugzeugabsturz: Kommt kaum vor aber alle haben Angst davor. Niemand hat Bock das sein PC anfängt zu brennen, weil die Hersteller ein paar Cent für Bauteile sparen wollen.
 
  • Gefällt mir
Reaktionen: derLordselbst, SirKhan, Bullgard und eine weitere Person
Genau aus diesem Grund habe ich mich zu Release von RDNA 4 für die Red Devil und gegen die Taichi entschieden, dieser (Voll)St(r)ecker ist einfach Rotze!
 
  • Gefällt mir
Reaktionen: JarlBallin
d3nso schrieb:
Nö, es zeigt sich dass dieser Steckertyp murks ist. Den Stecker 20-50% größer ausführen und man hätte diese Probleme nicht.

Richtig - einfach mal vernünftige Leiter in einem ordentlichen Querschnitt verwenden und dann gibt es auch keine bedenken! ..
 
Ich hoffe sehr, daß es zumindest einen Boardpartner mit gesundem Menschenverstand gibt, der sich gegen den Stecker stemmt und einfach meinetwegen 3x 8-Pin oder gar 4x 8-Pin an die Karten bastelt. Die Karten werden doch eh immer länger, breiter und dicker. Dann haste auch noch Platz für solche Anschlüsse.

nVidia und ggf. auch AMD können bei ihren Referenzdesigns ja machen was sie wollen.

Komm mir bitte keiner mit "das sind Einzelfälle" und so 'nem Murks. Von abgefackelten 6-Pin oder 8-Pin Steckern in Verbindung mit Grafikkarten habe ich in den letzten 10 Jahren weniger gehört, als in den letzten Jahren mit dem "tollen" 12VHPWR.
 
  • Gefällt mir
Reaktionen: JarlBallin
Sehr viel medialer Aufriß um das Thema. Wie bereits mehrfach erwähnt hat der User selbst gesagt, dass es sich um einen Anwenderfehler handelt. Was wirklich hilft, sind Sicherheitsmechanismen seitens der Boardhersteller. Und was den Stecker betrifft einfach keine Adapter auf 8 Pin nutzen.
 
  • Gefällt mir
Reaktionen: Quidproquo77
-MK schrieb:
Wie viele Fälle gab es jetzt insgesamt weltweit? Sicherlich keine dreistellige Zahl, oder?

Wie viele Karten wurden im Vergleich mit dem Stecker ausgeliefert in den letzten Jahren?

Ich weiß ja nicht, ob das wirklich annähernd so im Verhältnis steht, wie hier wieder die Verteufelung stattfindet 😅
Also nimmst du in Kauf das Menschen zu Schaden kommen, sehr gute Einstellung Respekt.:)
 
  • Gefällt mir
Reaktionen: JMP $FCE2
Ich hoffe auf einen anderen Anschluss bei der nächsten GPU Generation! Bei meiner 4070ti super hat ich keine Probleme. Und bei mehr als 600Watt GPU Leistung, wirds kritisch z.b. 6090 GPU.
Interessant wird es wo die Reise hingeht; irgendwann ist die 1000W Grenze erreicht inkl. Split System Klimaanlage um die Leistung wegkühlen zu können😂😂
 
Bei wieviel verkauften Einheiten? Wieviele 5080,5070, 5070 Ti, 9070 (XT) etc. sind nochmal betroffen?
Stimmt - Kindergarten, aber bringt eben Klicks :rolleyes:
Ergänzung ()

Wolfgang.R-357: schrieb:
Wie viele "Einzelfälle" (Hust) muss es noch geben, dass sie das Problem endlich ernst nehmen 😒
Ist doch die einzige betroffene 9070 XT überhaupt - hast du noch mehr Quellen zu den betroffenen 5080, 5070, 5070 Ti etc.? Von der 5090 gab es bisher auch nur einen Fall und hier war ein altes Drittanbieter-Kabel die Ursache des Problems …
Wolfgang.R-357: schrieb:
Genau das macht mir angst, keiner weiß wie man sich wirklich davor schützen kann.
Garantie, bei Paranoia am besten einer der jenigek die 5 Jahre Garantie bieten? Das Kabel ist lediglich durchgeschmort und aus brandsicherem Material - kein Grund zur Atemnot :p
Ergänzung ()

gamecard schrieb:
Also nimmst du in Kauf das Menschen zu Schaden kommen, sehr gute Einstellung Respekt.:)
Wie kommt man durch einen durchgeschmorten Stecker aus brandsicherem Material „zu Schaden“? Zu viel Clickbait-News gelesen? :confused_alt:
Ergänzung ()

-MK schrieb:
Wie viele Fälle gab es jetzt insgesamt weltweit? Sicherlich keine dreistellige Zahl, oder?

Wie viele Karten wurden im Vergleich mit dem Stecker ausgeliefert in den letzten Jahren?

Ich weiß ja nicht, ob das wirklich annähernd so im Verhältnis steht, wie hier wieder die Verteufelung stattfindet 😅
Natürlich nicht, eine rein monetäre Entscheidung - man weiß ja wie die Leute hier auf solche News abfahren auch wenn bestenfalls gerade mal eine Handvoll weltweit betroffen ist :p
Ergänzung ()

futzi schrieb:
Es ist ganz einfach ein Szenario wie ein Flugzeugabsturz: Kommt kaum vor aber alle haben Angst davor. Niemand hat Bock das sein PC anfängt zu brennen, weil die Hersteller ein paar Cent für Bauteile sparen wollen.
Wie brennt ein Stecker aus brandsicherem Material? :confused_alt:
Vielleicht lieber nochmal informieren bevor man Stuss verbreitet :rolleyes:
Und nein - die 50 überparanoiden Leute auf CB sind nicht „alle“ …
Ergänzung ()

OR4LIFE schrieb:
Ich hatte seit dem Release der 40er Serie eine 2 stellige Anzahl an PC´s mit geschmolzenen Steckern.
Nur 4090er? Da scheinst du ja die Hauptanlaufstelle in DE zu sein :p

Passt nur nicht zu der News - der 12VHPWR-Stecker hatte wirklich Probleme - mit dem neuen, hier und in der RTX5000er genutzten 12V2x6-Stecker wirst du garantiert nicht solch eine Anzahl an Betroffenen finden, da gibt es keine Handvoll Fälle weltweit …
Ergänzung ()

eQui schrieb:
Wär halt trotzdem schön, wenn einem nicht wegen der GPU die Bude abfackelt.
Unmöglich auch wenn Clickbait-News einen etwas anderes glauben lassen wollen - der Stecker ist aus brandsicherem Material …
 
Zuletzt bearbeitet:
Einen Stecker einstecken ist jetzt wirklich nicht so schwer... wenn man das nicht hinbekommt, sollte man sich den PC einfach zusammenbauen lassen~
 
raigey schrieb:
einfach ein 32 PIN Kabel entwickeln ähnlich dem 24PIN ATX Stecker, Thema erledigt (zumindest für 600W
Nun, sobald einzelne Verbinder auch nur 0,01 Ohm erhöht Widerstand haben verlagert sich der Strom auf Kabel.

Via 0,05 Ohm (noch Standardwert) Zusatzwiderstand und insgesamt 12 Volt * 60 Ampere auf 16x 2 Stecker hätten wir 2 Ampere je Verbindung oder 0,25 Volt Abfall und 0,5 Watt Leistungsabfall. Bei 12,5V Input sind 12,2 - 12,3V netto schon deutlich.

Bei 48 V würden etwa 18 Ampere für 850 Watt reichen, bei 3x 2 Kabeln und 0,05 Ohm zum Ausgleich Kontaktwiderstand wäre der Aufwand viel geringer.

12 Volt wird heute beim PC nur noch als Zwischenspannung für CPU und GPU benötigt.
Dazu aus Kompatibilität für echte Harddisks.
 
Zum Stecker, es kommt auch auf die Implementierung an!

Es gab auch andere Youtuber aus dem Tech Bereich, die NICHT, wie Roman/der8auer, ein Interesse an einem 'Steckerkühler' Verkauf haben.

Die erste Implementierung bei Nvidia's 3090 hatte damals das Problem mit den Pins, das die Stecker potentiell nicht richtig sitzen und somit die Widerstände hochgehen.
Aber auf Seite der Platine war der Stecker noch am besten implementiert, zumindest bei den 12V+ Leitungen. Jeweils 2 12V+ Leitungen zusammengefasst und über einen Baustein geführt, der die Energieaufnahme zwischen den 3x 2er Bündeln aufteilt. Hinter diesen 3 Bausteinen wurde dann auf eine Leitung zusammengefasst und zu den VRMs geführt.
Der Stecker wurde umdesignt, die Pins sitzen jetzt besser - und in der 4000er Serie hat Nvidia dann den Vorläufer der aktuellen 'Bauweise' auf der Platine durchgezogen - Direkt nach dem Verbinder, auf der Platine, alle 6 12V+ Leitungen gebrückt, dann aufgeteilt um durch 2 der obigen Bausteine geführt, hinter den beiden dann die beiden resultierenden Leitungen WIEDER verbunden, von dort aus dann zu den VRMs.
Jetzt, bei der 5000er Implementierung, immer noch die revidierte Version aus der 4000er Serie (und diese Version ist auch bei ASUS und dem Sapphire Flagschiff Modell der 9070 XT in Verwendung), aber Nvidia hat noch mehr gespart. Stecker, alle Pins auf die Platine, dort jeweils alle 12V+ und Masseleitungen zu 1 Leitung zusammengeführt, die 6x 12V+ gehen dann alle über EINE Leitung in EINEN Baustein, und von dort zu den VRMs.
Genau deswegen kann ja ein Problem bei EINEM Pin schon dazu führen, das durch grundlegende Physik der Strom eher über die anderen Pins läuft. Im Extremfall dann halt wie Roman es 'demonstriert' hat, bei Problemen mit 5 von 6 Pins, geht alles über einen dünnen Klingeldraht. Das ist natürlich der Extremfall.

Und wenn jetzt 'Warum macht nicht das Netzteil das Load Balancing' - In den Netzteilen sind schon ohne Ende Schutzschaltungen drin, sowohl auf der Netzspannung-Seite, als auch auf der 12V (bzw. 5V/3.3V, die Leitungen sind noch im ATX Stecker drin). Sollen die Netzteil-Firmen, selbst die, die wirklich gute Modelle entwickeln, jetzt auch noch für milliardenschwere Firmen den Kopf hinhalten, nur weil die deutlich größeren Firmen ein paar Cent (wenn überhaupt) sparen wollen?


Und zum Thema 'Waah, Nvidia-Bashing' - Verdient ist verdient, soviel dazu. Genauso wie Sapphire und ASUS Kritik verdienen. Ich weiß gerade nicht auswendig, wie ASUS den Stecker implementiert, aber es heißt ja, man soll die Biegeradien der Kabel nicht zu eng fassen. Bei der Sapphire NITRO befindet sich der Anschluß nicht am Rand der Platine, sondern in einer Aussparung im Inneren des Kühlkörpers. Er zeigt dabei zum Ende der Karte, der Stecker muss also in Richtung des Slotblechs eingesteckt werden. Dann zieht man mit einer relativ scharfen 90 Grad Biegung innerhalb einer begrenzten Aussparung das Kabel Richtung Kante (also in die Richtung, wo normalerweise die Stromversorgung sitzt), und von dort aus muss man dann so oder so mit einer weiteren Biegung dann in Richtung Netzteil (bzw. Durchbrüche im Gehäuse die zur Netzteilkammer führen) weiterziehen.
Also statt einer Biegung direkt 2, und die erste dazu noch zwischen den Kühlfinnen, wodurch man unter Umständen mit den Kabeln auch noch an den Rippen scheuert.
Angeblich wird auf der Platine der Stecker dann auch nicht mit der '3x2' Bauweise aus der 3090 Art implementiert, sondern in der 'alle 6 Pins einer Art gebrückt' Variante. Einziger Trost ist, das die 9070 XT 'nur' im 400-450W Bereich Leistung zieht, nicht 600 wenn sie auf Vollgas ist.

Die Karte mag absolut Klasse sein, die Grundidee hinter dem Stecker ist auch nicht verkehrt - aber die Umsetzung der Stromversorgung ist Käse.
Ich habe einmal bei MOLEX selbst durch den Produktkatalog geschaut, das Material bei sowohl der Platinenseite als auch dem Stecker ist ABS Kunststoff. Bei Schutzhelmen (siehe Bauhelme) ist ABS nicht zulässig, wenn die Temperatur schwankt oder man hohen Temperaturen ausgesetzt ist (Beispiel, Zementwerke im Ofenbereich, Stahlwerke), dort verwendet man Polyamid, umgangssprachlich 'Nylon' genannt. Stabiler, höhere Hitzebeständigkeit - und es gibt Varianten, mit denen man so manche Hitzeschutz - Abschirmungen im KFZ Bereich, die früher mit Blechen umgesetzt wurden, auch mit Kunststoff ersetzen kann.
Harting Stecker, in den Bereichen, die die Pins halten, sind übrigens aus Polycarbonat, und es gibt bei Harting nicht nur die stark aufbauenden Verbinder mit wuchtigen Schutzkappen, sondern auch kleinere Versionen.
 
Damit ist bewiesen das die Norm völliger murks ist da diese eine rail zu den Stecker vorgibt.
ich würde pcie5 12v6xx2 komplett begraben.
 
  • Gefällt mir
Reaktionen: JarlBallin
Was mich ja bei dem Thema mittlerweile sehr nervt ist die Ignoranz einiger die das ganze Thema in irgendeiner Weise kleinreden wollen.

!Da gibt es nichts klein zu reden!

Die Steckverbindung ohne Lastmanagement auf der Graka ist faktisch zum abfackeln verdammt. Wer hier in irgendeiner Weise ins gleiche Horn wie die Hersteller bläst, der braucht hier im Forum eigentlich nicht mehr mitreden, weil es dann an grundsätzlichem technischen Verständnis mangelt. Es gibt mittlerweile dutzende Videos zu dem Thema, die das Ganze auch für Laien verständlich erklären. Der Stecker ist technisch absoluter Mist! Basta! Da gibt es nichts mehr zu bereden. Der Stecker müsste laut Spezifikation zwingend mit Lastmanagement verbaut werden, und selbst dann wäre es noch ein miserabler Stecker.

Jeder der den Stecker irgendwie schön redet, sollte dringend Mal ein Video zu den Thema anschauen, das ist nämlich nur noch mit Ignoranz zu erklären. Es gibt nirgendwo sonst einen standardisierten Stecker, bei dem so etwas möglich wäre!!!
 
  • Gefällt mir
Reaktionen: derLordselbst, JMP $FCE2 und Ja_Ge
Mxhp361 schrieb:
Richtig - einfach mal vernünftige Leiter in einem ordentlichen Querschnitt verwenden und dann gibt es auch keine bedenken! ..

Der Leiterquerschnitt kann das - eventuell wäre hier flexiblere Leitung sinnvoll.
Die Steckverbinderchen sind das, was Probleme macht.

Ltcrusher schrieb:
Ich hoffe sehr, daß es zumindest einen Boardpartner mit gesundem Menschenverstand gibt, der sich gegen den Stecker stemmt und einfach meinetwegen 3x 8-Pin oder gar 4x 8-Pin an die Karten bastelt.

Nvidia schreibt ihren Boardpartnern die Verwendung dieser Verbindung vor.

AMD macht keine Vorgaben; hier darf der BP auswählen - und anscheinend sind ArRock und Sappphire der Meinung, 12V-2x6 wirke wertiger und/oder passe besser zur Optik.

Ltcrusher schrieb:
nVidia und ggf. auch AMD können bei ihren Referenzdesigns ja machen was sie wollen.

AMD und Referenzdesigns bei RDNA4?
Hab ich was verpaßt?

Ltcrusher schrieb:
...als in den letzten Jahren mit dem "tollen" 12VHPWR.
12V-2xX6. 12VHPWR ist zurückgezogen. :mussweg:
 
  • Gefällt mir
Reaktionen: JarlBallin
Ich musste meinen Benchmark abbrechen und habe bisher nie einen zuende gebracht. Weil meine Gehäusescheibe in der nähe zum Kabel, ich nicht mehr anfassen konnte. Man kann diese Geräte nicht alleine lassen.
 
  • Gefällt mir
Reaktionen: JarlBallin
Zurück
Oben