News Wochenrück- und Ausblick: Spurensuche am 12VHPWR-Anschluss der RTX 4090

Laphonso schrieb:
sobald man die new gen ATX 3 Netzteile benutzt, die den Adapter gar nicht benötigen? So dass man die 4090 Konnektoren hier ausschließen kann?

richtig, Nvidia wollte hier nur einfach ein paar cent am Adapter sparen und hat so eine technische Krankheit beigelegt, welche wohl nun bei nicht gerade wenigen mindestens schön warm wird und schon mal die Buchse vorschädigt.
 
B.L. Swagger schrieb:
Da gabs mehr Fälle von angeblich defekten 3080 Karten, wo uns youtuber auch erzählen wollte es wären schlechte Kondensatoren oder Speicher. Niemehr hat man was gehört und erste treiber haben die Karten stabil gemacht. Die 10 Fälle sind nicht mal die üblichen 3% Ausfallrate und bewiesen ist auch nicht, dassdie Adapter murks sind, wie das neue Video von GN zeigt, Igor hatte ein ganz anderes Kabel wie all ihre 5 die sie haben.

Alles richtig. Für die (nicht mal betroffenen) AMD Fanboys und YouTuber ist das jetzt natürlich ein Schützenfest. Wer hat noch nicht, wer will noch mal? :D

Tatsache ist, dass nVidia sicherlich nicht absichtlich einen mangelhaften Adapter hat fabrizieren lassen. Tatsache ist weiterhin, dass der Adapter u.a. bei den Boardpartnern ausgiebig durch die Testung und Validierung gegangen ist und es offenbar keinerlei Bedenken gegeben hat. Der Adapter müsste hierzulande doch auch durch den TÜV oder eine ähnliche Institution freigegeben worden sein oder nicht?
In jedem Fall ist das Teil nicht nur von nVidia offenbar für marktreif befunden worden und die Probleme sind nun erst in der "freien Wildbahn" aufgetreten.

Als jemand, der bei seiner MSI RTX 4090 gemäß Aufdruck den originalen nVidia Adapter beiliegen hat und keinen 3rd party Adapter, kann ich aus erster Hand übrigens zumindest mal vom äußeren Eindruck her sagen, dass der Adapter einen hochwertigen Eindruck macht.
Wenn da "jeder Cent" gespart worden wäre, dann wären die Kabel sicherlich nicht gesleevt, sondern wir hätten das nackte Plastikkabel bekommen.
Ob der Adapter unter der optisch/haptisch hoch qualitativ anmutenden Hülle ebenso gut verarbeitet ist, vermag ich nicht zu beurteilen.

Nur weil irgendein YouTube-Igor behauptet, es läge alles am Adapter muss das noch lange nicht stimmen. Der behauptet ja auch wahrheitswidrig immer noch, dass die RTX 2080Ti "space invaders" Probleme am Micron GDDR-RAM lagen, was schlicht und ergreifend falsch ist, denn ich habe höchstpersönlich Karten mit Micron und Samsung GDDR gehabt, die mit dem exakt selben "space invaders" Defekt ausgestiegen sind.

Tatsache ist doch nix Genaues weiß man nicht. Es kann am Adapter bzw. an bestimmten Adapter-Chargen oder an Adapter-Varianten liegen oder es kann eventuell auch am 12VHPWR Anschluss an sich liegen.

Im Grunde wäre es "schön", wenn es letztlich wirklich "nur" am Adapter läge, denn das lässt sich ja dann ganz easy durch Austausch beheben.
Aber man liest/hört ja auch von angeblichen Fällen, wo Leuten der Anschluss an einem nativen 12VHPWR Kabel vom Netzteil angekokelt ist. Da kann es dann der Adapter logischerweise nicht gewesen sein, weil der ja gar nicht zum Einsatz gekommen ist.

Es wird uns also nichts übrig bleiben als abzuwarten, was nVidia mit den Boardpartnern plus ggf. PCI SIG zusammen ermittelt und dann wird es hoffentlich eine offizielle Aussage und Lösung geben.
 
  • Gefällt mir
Reaktionen: B.L. Swagger
Laphonso schrieb:
Noch unklarer wird es dahingehend, dass die tech Youtuber akute Probleme haben, den "Durchschmoren" Fall nachzustellen und Igor zum Teil widersprechen
Steve sagt am Ende: "I don't have a firm conclusion."
Es ist immer noch nicht eindeutig identifiziert, "was" da und "warum" da etwas passiert und durchbrennt.
Gamer Nexus hat offensichtlich einen robusten Adapter, der anders gefertigt wurde, sowohl was die Materialauswahl (Kabel mit 300V Aufdruck) als auch die Lötweise und Konstruktion angeht.

Kurz gesagt hatte Igors Lab einen fragilen Adapter mit Kabeln, die nur ein 150V Rating (statt 300V) hatten und es war eine furchtbare, mechanisch schwache und damit fehleranfällige Konstruktion.

Ich muß daher Gamer Nexus Aussage zu Igors Labs Erkenntnissen als nicht nachvollziehbar werten, denn während er einerseits auf die Unterschiede eingeht, läßt er sei bei der Bewertung dann auch wieder weg, während es genau der Grund sein kann, warum die Defekte auftreten.

Abgesehn davon das Steve mal wieder Gigabyte unterschwellig ins Gemächt tritt und er wieder mal die Diva raushängen läßt.

Man muß immer alle Quellen nutzen und trotzdem noch einen Kontext daraus bilden und dann selbst bewerten.

Jays2Cent hats dahingehend auch nicht gerafft, aber immerhin sensibilisieren diese Kanäle die Leute mit ihrer Reichweite!
Ergänzung ()

Igors Lab follow up:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MortyMcFly
Laphonso schrieb:
Verstehe ich das richtig, dass es keine Probleme gibt, sobald man die new gen ATX 3 Netzteile benutzt, die den Adapter gar nicht benötigen? So dass man die 4090 Konnektoren hier ausschließen kann?
Nein, zum jetzigen Zeitpunkt kann man das nicht sagen, denn wie Gamersnexus richtigerweise anmerkt ist nicht auszuschließen, dass auch native Kabel unter einer ähnlichen konstruktiven Schwäche des Steckers leiden können - worin auch immer die am Ende genau bestehen mag - wie Adapter.
Ergänzung ()

B.L. Swagger schrieb:
Lol das immer noch über die Kabel-Verschwörungstheorie diskutiert wird und man sich überhaupt so scheiß von Jay's usw. auf youtube rein zieht xD
Wow 14 Fälle von denen wie reddit üblich die hälfte fake sind gibts gerade mal, bei wieviel verkauften GPUs? Nicht mal Gaming Nexus kann Igor zustimmen und haben es nicht hinbekommen eins ihrer kabel, selbst manipuliert zum qualmen zu bringen.
Meins ist gebogen ohne Ende und ist auch nicht abgefackelt :freak:
Wir reden hier von Brandgefahr, da hört der Spaß auf. Wenn kurz nach dem Launch 14 Fälle auf Reddit stehen, dann kommen dazu potentiell weitere x, die bemerkt aber ohne Internetveröffentlichung reklamiert wurden, weitere y, wo Kabel bislang unbemerkt vor sich hinkokeln und weitere z, die mit diesem Problem in Lagerhäusern auf Auslieferung warten.
 
Zuletzt bearbeitet:
Sebbi schrieb:
richtig, Nvidia wollte hier nur einfach ein paar cent am Adapter sparen und hat so eine technische Krankheit beigelegt, welche wohl nun bei nicht gerade wenigen mindestens schön warm wird und schon mal die Buchse vorschädigt.
Du bist also tatsächlich der Überzeugung, dass NVIDIA den Auftragsfertiger damit beauftragt lebensgefährliche Kabel zu bauen, die dann die Karten schrotten und Brände auslösen?
So läuft das nicht. Da hat eher der Auftragsfertiger gedacht, die Kabel nicht so zu bauen, dass diese den Vorgaben entsprechen.

Technische Vorgabe ist, dass das Konstrukt einen NENNstrom von 660Watt dauerhaft und zuverlässig zubringen können muss.
Ich weiss nicht, ob ich es noch finde, aber es gibt einen Test, wo diese Kabel/Adapterkombi wenn alles passt erst ab ca. 1400Watt in nennenswerte Schwierigkeiten kommt. Somit wäre also auch noch der in elektrischen Schaltungen Headroom voll gegeben.

Nochmal: Die Verkabelung, der Stecker und der Adapter haben überhaupt kein Problem, wenn richtig gefertigt und von den Netzteilherstellern sauber an die Rail(s) durchgeführt.

Wenn NVIDIA im Vorfeld davon gewusst hätte, hätten die einen Teufel getan und Kabel mit Brandgefahr ausgeliefert. Zudem haben sie keine Ersparnis durch die Konstruktion der Kabel. Ob ich die Folie, das Lot die Lötplättchen oder wie auch immer robuster ausführe, oder sogar noch einmal mit einem draht querverbinde hat in der tatsächlichen Fertigung 0!! preislich relevante Auswirkung.
 
Zuletzt bearbeitet:
.Sentinel. schrieb:
Wenn NVIDIA im Vorfeld davon gewusst hätte, hätten die einen Teufel getan und Kabel mit Brandgefahr ausgeliefert.
Wie hier ja schon erwähnt wurde, sind die Kabel alle von sehr unterschiedlicher Qualität. Nvidia hat also mindestens in Kauf genommen, dass die Spezifikationen der Anschlüsse und Kabel, gemeinsam mit der Notwendigkeit die Kabel zu biegen, die Grenzen der Belastbarkeit solcher Leitungen ausreizen. Es spielt am Ende auch keine Rolle, ob Nvidia das wusste oder nicht: Wer sowas seinem Produkt beilegt, trägt die Verantwortung für Schäden.
 
  • Gefällt mir
Reaktionen: da!mon und Sebbi
Laut Igors drittem Video von gerade eben wurden inzwischen vier verschieden konstruierte Varianten des Nvidia-Adapters gefunden:

Ich vermute mal, dass da mehrere Hersteller mit der Produktion dieser Kabel beauftragt wurden.
 
  • Gefällt mir
Reaktionen: MortyMcFly
.Sentinel. schrieb:
Wenn NVIDIA im Vorfeld davon gewusst hätte, hätten die einen Teufel getan und Kabel mit Brandgefahr ausgeliefert. Zudem haben sie keine Ersparnis durch die Konstruktion der Kabel. Ob ich die Folie, das Lot die Lötplättchen oder wie auch immer robuster ausführe, oder sogar noch einmal mit einem draht querverbinde hat in der tatsächlichen Fertigung 0!! preislich relevante Auswirkung.
Es wurde also noch nie gefährlich konstruierter Schrott von Unternehmen auf den Markt geworfen?
 
  • Gefällt mir
Reaktionen: Sebbi
Boimler schrieb:
Wie hier ja schon erwähnt wurde, sind die Kabel alle von sehr unterschiedlicher Qualität. Nvidia hat also mindestens in Kauf genommen, dass die Spezifikationen der Anschlüsse und Kabel, gemeinsam mit der Notwendigkeit die Kabel zu biegen, die Grenzen der Belastbarkeit solcher Leitungen ausreizen.
Genau das gilt es doch zu klären.
Boimler schrieb:
Es spielt am Ende auch keine Rolle, ob Nvidia das wusste oder nicht: Wer sowas seinem Produkt beilegt, trägt die Verantwortung für Schäden.
Auf jeden Fall- Es wird aber hier so dargestellt, dass NVIDIA aus Gier und Profitsucht mit Absicht und unter Duldung solche Kabel im den Umlauf gebracht hätte.
Das ergibt wirtschaftlich und imagetechnisch überhaupt keinen Sinn.
Rückruf-/Austauschaktionen sind extrem teuer für so ein Unternehmen. Von den möglichen Klagen mal ganz abgesehen. Nebst dem Imageschaden für das neue Flaggschiff, welches ja sonst in keinem Bereich irgendwo auf Kante genäht wurde. Da wurde geklotzt und nicht gekleckert
Ergänzung ()

foofoobar schrieb:
Es wurde also noch nie gefährlich konstruierter Schrott von Unternehmen auf den Markt geworfen?
Doch- Genauso wie vorher schon in schöner Regelmäßigkeit wie auch immer geartete Netzteile und Stecker selbst hoher Qualität abgefackelt sind....

Mir widerstrebt diese Schwarz/Weiss- Denke. Im Nachhinein ist jeder schlau. Das Wesen dieser Vorkommnisse ist doch gerade seine Unberechenbarkeit, wenn mehrere Faktoren zusammentreffen.
Hier wird so getan, als ob man sich diesbezüglich zu 100% absichern könnte.
 
  • Gefällt mir
Reaktionen: Laphonso
.Sentinel. schrieb:
Mir widerstrebt diese Schwarz/Weiss- Denke. Im Nachhinein ist jeder schlau. Das Wesen dieser Vorkommnisse ist doch gerade seine Unberechenbarkeit, wenn mehrere Faktoren zusammentreffen.
Hier wird so getan, als ob man sich diesbezüglich zu 100% absichern könnte.
Stecker und Kontakte für hohe Ströme gibt es schon länger als es die Firma Nvidia gibt, die damit auftretenden Probleme sind vollständig verstanden und es gibt auch jahrzehntelange Erfahrungen damit.

Es gibt keinen Grund so zu tun als wäre das Neuland.
Ergänzung ()

.Sentinel. schrieb:
Doch- Genauso wie vorher schon in schöner Regelmäßigkeit wie auch immer geartete Netzteile und Stecker selbst hoher Qualität abgefackelt sind....
Wenn schon vorher solidere Konstruktion abgefackelt sind ist es komplett hirntot und fahrlässig fragilere Konstruktionen für noch mehr Strom unter die Leute zu bringen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: da!mon, Fighter1993, Boimler und eine weitere Person
foofoobar schrieb:
Stecker und Kontakte für hohe Ströme gibt es schon länger als es die Firma Nvidia gibt, die damit auftretenden Probleme sind vollständig verstanden und es gibt auch jahrzehntelange Erfahrungen damit.
Und was ergibt es für einen Sinn, dass NVIDIA wissentlich solche Kabel ausliefert?
Haben die alle gelacht bei der Entscheidung und sich gefreut, dass endlich das Image wieder angekratzt wird und man Defekte damit provoziert, die einem im Nachhinein extrem teuer zustehen kommen und die Marge in den Boden drücken?
Das ist doch völlig realitätsfern, dass eine Firma solch eine Politik betreibt.

foofoobar schrieb:
Wenn schon vorher solidere Konstruktion abgefackelt sind ist es komplett hirntot und fahrlässig fragilere Konstruktionen für noch mehr Strom unter die Leute zu bringen.
In der soliden Konstruktion fackelt garnichts ab. Die solide Konstruktion ist mit 660Watt Nennstrom (Schwierig wirds ab dem Doppelten) und allerlei widrigen Umständen getestet.
 
SavageSkull schrieb:
Wenn AMD tatsächlich Karten mit 3 oder gar 4 8 PIN PCIe Steckern bringt wäre lächerlich und rückständig.
AMD bringt, 3x8 PIN.
Der neue Stecker ist bei dieser Gen glaube noch nicht dabei, was sehr gut ist. Dann könnte ich zb eine Karte einfach mit 3x8 PIN betreiben mehr hat das NT eh nicht.

Ich finde das alles andere als Rückständig und peinlich.

Sondern viel besser, wie es siehe hier Nvidia macht.
Neuen Stecker auf den Markt werfen wo es noch keine passenden NT gibt....
 
  • Gefällt mir
Reaktionen: Sebbi
.Sentinel. schrieb:
Das ist doch völlig realitätsfern, dass eine Firma solch eine Politik betreibt.
Der Imageschaden ist doch schon da, egal ob beabsichtigt oder nicht. Wenn Nvidia so arbeiten würde, wie du sagst, wäre es doch nie zu den Problemen gekommen, die es nun gibt. Im Übrigen könnte man eine ganze Reihe Unternehmen aufzählen, die ohne Rücksicht auf ihr Image ihr Monopol ausnutzen.
 
Fighter1993 schrieb:
Ich finde das alles andere als Rückständig und peinlich.

Sondern viel besser, wie es siehe hier Nvidia macht.
Neuen Stecker auf den Markt werfen wo es noch keine passenden NT gibt....
und wann soll der Wandel kommen, wenn die Grafikkarten den neuen Stecker nicht nutzen? Das ist doch das Henne-Ei Problem.
Abseits davon bieten die Netzteil Hersteller mittlerweile neue Kabel an.
 
SavageSkull schrieb:
und wann soll der Wandel kommen, wenn die Grafikkarten den neuen Stecker nicht nutzen?

welcher Wandel? Das Grakas dann 1 kW fressen, weil ein Hersteller nicht weiter entwickelt und nur noch Verbesserungen über erhöhte TDP bringt?

Der Stecker hat ansich nur eine ~15 % Sicherheitsmarge, die normalen dagegen glaube ich so um die 75 %.
Da gibts so nen schönen Spruch "better safe than sorry" - das hat Nvidia hier nicht berücksichtigt und die Qualität aller Zulieferer immer wieder stichprobenartig per Zufallsprinzip geprüft.
 
Boimler schrieb:
Der Imageschaden ist doch schon da, egal ob beabsichtigt oder nicht.
Darum geht es doch garnicht. Meine Ausführungen stehen der These entgegen, dass NVIDIA trotz besseren Wissens und mit Vorsatz unter Inkaufnahme von Brandfällen diese Kabel in Umlauf bringt um sich durch minderwertige Qualität Geld zu sparen und den User über den Tisch ziehen zu können.

Genau das wird hier immer wieder angebracht.
 
Sebbi schrieb:
welcher Wandel? Das Grakas dann 1 kW fressen, weil ein Hersteller nicht weiter entwickelt und nur noch Verbesserungen über erhöhte TDP bringt?
Du meinst 50% Mehrleistung bei gleicher TDP bei 3090Ti vs 4090, während alle Tests bestätigen das die 450W der 4090 eigentlich unnötig sind und die Karte, bei weniger Energieaufnahme fast keinen Leistungsverlust hat? Was ist denn für dich sonst eine Verbesserung?

Der Stecker bietet die Verbesserung, dass man eben nicht 3! Leitungen zur Grafikkarte bringen muß und nicht die halbe Seite aus Stecker besteht, aber Hauptsache mal rumjammern.

Nur weil ein Adapter Chinaböller Qualität hat, wird über den Stecker hergezogen, der als solcher technisch völlig in Ordnung ist.
 
SavageSkull schrieb:
Der Stecker bietet die Verbesserung, dass man eben nicht 3! Leitungen zur Grafikkarte bringen muß und nicht die halbe Seite aus Stecker besteht, aber Hauptsache mal rumjammern.
Aber drei Mini-Fit-Stecker mit sechs bis acht Pins lassen sich unfallfrei anstecken, der 12+4 Micro-Fit offenbar nicht:
Raider_MXD schrieb:
Laut Igors drittem Video von gerade eben wurden inzwischen vier verschieden konstruierte Varianten des Nvidia-Adapters gefunden:
Und wir alle kennen doch das Gewürge mit dem ATX-24-Pin-Stecker. Da passiert am Ende auch nichts, weil Mini-Fit einfach widerstandsfähiger ist.
 
SavageSkull schrieb:
und wann soll der Wandel kommen, wenn die Grafikkarten den neuen Stecker nicht nutzen? Das ist doch das Henne-Ei Problem.
Abseits davon bieten die Netzteil Hersteller mittlerweile neue Kabel an.
Der Wandel kann gerne dann kommen wenn man zum start der neuen Serien sich ca 2 Wochen vorher solch ein neues Netzteil mit entsprechendem Stecker kaufen kann. Und zwar in breiter Masse verfügbar.
 
Wechsler schrieb:
Aber drei Mini-Fit-Stecker mit sechs bis acht Pins lassen sich unfallfrei anstecken, der 12+4 Micro-Fit offenbar nicht
Das Video schaue ich mir heute Abend nochmal an, aber weder die Microfit Stecker bei den Robotern an der Arbeit, noch bei meiner 3090 und der 3080 daheim hatte ich jemals Schwierigkeiten beim Stecken.
 
  • Gefällt mir
Reaktionen: MortyMcFly
Zurück
Oben