News Wochenrück- und Ausblick: Spurensuche am 12VHPWR-Anschluss der RTX 4090

SavageSkull schrieb:
Der Stecker bietet die Verbesserung, dass man eben nicht 3! Leitungen zur Grafikkarte bringen muß und nicht die halbe Seite aus Stecker besteht, aber Hauptsache mal rumjammern.

ist dir das Ohmsche Gesetz bekannt? Mehr Leitungen verteilen die Leistung besser -> Weniger A pro Leitung -> weniger Widerstand -> weniger Verlustleistung -> weniger Erwärmung der Kabel / Verbindungstellen

SavageSkull schrieb:
Du meinst 50% Mehrleistung bei gleicher TDP bei 3090Ti vs 4090, während alle Tests bestätigen das die 450W der 4090 eigentlich unnötig sind und die Karte, bei weniger Energieaufnahme fast keinen Leistungsverlust hat? Was ist denn für dich sonst eine Verbesserung?

Nun, scheinbar nicht für Nvidia ... ansonsten würden man nicht auf diesen Stecker so hart pushen trotz schon vorangegangenen Warnungen des Konsotiums, das es damit Probleme geben könnte.

SavageSkull schrieb:
Nur weil ein Adapter Chinaböller Qualität hat, wird über den Stecker hergezogen, der als solcher technisch völlig in Ordnung ist.

nein es wird über Nvidia hergezogen, die diese Qualität zugelassen haben. Das andere Adapter besser aufgebaut, wurde ja auch gesagt. Vorallem die Stecker der NT Hersteller haben da eine deutlich bessere Qualität
 
SavageSkull schrieb:
Das Video schaue ich mir heute Abend nochmal an, aber weder die Microfit Stecker bei den Robotern an der Arbeit, noch bei meiner 3090 und der 3080 daheim hatte ich jemals Schwierigkeiten beim Stecken.
Sagt der Igor auch eigentlich nicht. Sondern eine Vermutung (!) ist, dass manche Stecker nicht richtig entgratet wurden an den Adaptern. Aber er sagt auch, alles purer Spekulatius und er macht keine weiteren Videos bevor Nvidia jetzt was dazu sagt.
 
SavageSkull schrieb:
Das Video schaue ich mir heute Abend nochmal an, aber weder die Microfit Stecker bei den Robotern an der Arbeit, noch bei meiner 3090 und der 3080 daheim hatte ich jemals Schwierigkeiten beim Stecken.
Denkst du die Micro-Fit-Stecker, die man an Industrie-Robotern verwendet, sind die gleiche Qualität wie bei Spielzeug-Adaptern von nVidia? Der Preisunterschied beim Einkauf dürfte da locker Faktor 10 sein.
 
  • Gefällt mir
Reaktionen: Sebbi
Wechsler schrieb:
Denkst du die Micro-Fit-Stecker, die man an Industrie-Robotern verwendet, sind die gleiche Qualität wie bei Spielzeug-Adaptern von nVidia? Der Preisunterschied beim Einkauf dürfte da locker Faktor 10 sein.

Und die werden auch bestimmt nicht derart auf Kante belastet wie NV das mit diesem Stecker tut.
 
  • Gefällt mir
Reaktionen: Sebbi
Fighter1993 schrieb:
Der Wandel kann gerne dann kommen wenn man zum start der neuen Serien sich ca 2 Wochen vorher solch ein neues Netzteil mit entsprechendem Stecker kaufen kann. Und zwar in breiter Masse verfügbar.
Wie Gamersnexus völlig korrekt angemerkt hat, welche Konstruktionsschwäche auch immer die Stecker an den Nvidia-Kabeln verkokeln lässt, die kann in ähnlicher Form auch bei Steckern an nativen Kabeln von Netzteilherstellern vorhanden sein.
 
.Sentinel. schrieb:
In der soliden Konstruktion fackelt garnichts ab. Die solide Konstruktion ist mit 660Watt Nennstrom (Schwierig wirds ab dem Doppelten) und allerlei widrigen Umständen getestet.
660W ware noch völlig okay, das ist 10% über dem, was der Stecker maximal als Dauerlast pro Sekunde liefern darf. Problematisch wird es mit der Tatsache: 4x 8pin ATX = 150W +150W "Sicherheit = 1200W - es braucht schon sehr solide und qualitativ hochwertige Kabel, dass der Adapter bei 1200W möglicher Leistung nicht schmilzt.

Fighter1993 schrieb:
Sondern viel besser, wie es siehe hier Nvidia macht.
Neuen Stecker auf den Markt werfen wo es noch keine passenden NT gibt....
Ich erinnere mich noch sehr gut daran, als Grafikkarten die 12V 4pin Molex Stecker hatten und der 6pin und später dann der 6+2(8)pin Stecker eingeführt wurde. Damals wurde genauso gemeckert.
In spätestens 2-3 Jahren wird sich kein Schwein mehr darüber aufregen, einige werden sich evtl an die Startprobleme erinnern, aber alles in allem wird sich wohl 12VHPWR durchsetzen.

Sebbi schrieb:
welcher Wandel? Das Grakas dann 1 kW fressen, weil ein Hersteller nicht weiter entwickelt und nur noch Verbesserungen über erhöhte TDP bringt?

Der Stecker hat ansich nur eine ~15 % Sicherheitsmarge, die normalen dagegen glaube ich so um die 75 %.
Da gibts so nen schönen Spruch "better safe than sorry" - das hat Nvidia hier nicht berücksichtigt und die Qualität aller Zulieferer immer wieder stichprobenartig per Zufallsprinzip geprüft.
12VHPWR hat eine Sicherheitsmarge von 10% - siehe hier.
Wenn allerdings ein Adapter genutzt wird, der nur über die 4 Sensoren sieht: alles klar ich kann saugen - dann kann der Verbraucher bis zu 1228W über ein Adapterkabel ziehen.
Das wäre inkl. Sicherheitsmarge der 8pin das theoretische Maximum.

SavageSkull schrieb:
Du meinst 50% Mehrleistung bei gleicher TDP bei 3090Ti vs 4090, während alle Tests bestätigen das die 450W der 4090 eigentlich unnötig sind und die Karte, bei weniger Energieaufnahme fast keinen Leistungsverlust hat? Was ist denn für dich sonst eine Verbesserung?

Der Stecker bietet die Verbesserung, dass man eben nicht 3! Leitungen zur Grafikkarte bringen muß und nicht die halbe Seite aus Stecker besteht, aber Hauptsache mal rumjammern.

Nur weil ein Adapter Chinaböller Qualität hat, wird über den Stecker hergezogen, der als solcher technisch völlig in Ordnung ist.
Sehe ich ähnlich: wenn man die 4090 auf Energieeffizienz trimmt und mit einer 3090 Ti vergleicht, wobei beide auf 300W TBP begrenzt sind, dann ist der Leistungszuwachs bei gleichem Verbrauch einfach Brutal.
Ich begrüße auch definitiv aus dem von dir genannten Grund einen dedizierten Stromversorger für Grafikkarten und irgendwer muss da einfach mal den Fuß in die Tür stellen.

Was ich halt nicht begrüße: wenn NVIDIA mehrere OEMs mit der Herstellung der Adapter beauftragt hat, oder auch bei nur einem OEM für die Adapter, hätte man definitiv eine Sichtprüfung machen sollen (Stichprobe mindestens) und wenn der OEM nicht vertraglich verpflichtet war, ein bestimmtes Design zu fertigen, dann hätte man Auskunft verlangen und bei Abweichungen vom ursprünglichen Design auch nachträgliche Tests durchführen können.
Der schwarze Peter geht also definitiv an NVIDIA.
 
Zuletzt bearbeitet: (fette Kadse.)
  • Gefällt mir
Reaktionen: Sebbi
Eigentlich muss der Stecker die Nennleistung des Netzteils plus eine ordentliche (*2) Sicherheitsmarge dauerhaft ab können.

Nicht der Verbraucher bestimmt was die Komponenten vertragen müssen sondern der Erzeuger!
 
  • Gefällt mir
Reaktionen: Sebbi
Und eben genau deswegen macht 12VHPWR in seiner jetzigen Form keinen Sinn.
Als dedizierter Stromversorger würde er Sinn machen, genauso oder ähnlich wie der PEG Slot der dedizierte Grafikkarten Slot ist. Da aber bei der PCI-SIG anscheinend nicht nachgedacht wurde, haben wir nun diesen Murks, den Intel, als Mitbegründer des Standards, nicht benutzt; den AMD nicht nutzt und den Nvidia quasi als Feldtest einführt.

Und wie schonmal erwähnt: die 4 Sensor-Pins haben bei dem Adapter nur den Sinn, der Grafikkarte zu melden: jop, da ist was angeschlossen.
Das Netzteil begrenzt dann die Ausgangsleistung pro 8pin auf 150W...
 
foofoobar schrieb:
Eigentlich muss der Stecker die Nennleistung des Netzteils plus eine ordentliche (*2) Sicherheitsmarge dauerhaft ab können.
Das ist noch ein Problem bei den heute üblichen Netzteilen ab 0,8 kW. 40 bis 70 A werden da auf einer 12V-Schiene bereitgestellt. Eigentlich bräuchtest du da einen Sicherungskasten im PC.
 
da!mon schrieb:
660W ware noch völlig okay, das ist 10% über dem, was der Stecker maximal als Dauerlast pro Sekunde liefern darf.
Der Stecker ist bei 12V spezifiziert auf 9,2A pro stromführenden Pin.
Ergibt 110,4 Watt pro Pin nennstrom x6 = 662,4 Watt.
Ich gebe zu, dass ich die 2,4 Watt zu Gunsten des Steckers unterschlagen habe.
660 Watt ist also genau die Kennlinie und nicht 10% über dem, was der Stecker maximal als Dauerlast liefern darf.
Der Stecker steckt im Burst kurzzeitige Spitzen vom Doppelten klaglos weg.
 
Zuletzt bearbeitet:
Die Sicherheitsmarge ist extrem niedrig, und der Strom verteilt sich nicht perfekt auf die Pins.

-> Broken by Design!
 
  • Gefällt mir
Reaktionen: Sebbi
foofoobar schrieb:
-> Broken by Design!
Das ist eine Behauptung und stimmt nach dem aktuellen Informationsstand so nicht- Man hat sich doch inzwischen schon drauf geeinigt, dass es eben nicht der Stecker per se ist, sondern die Fertigung bzw. Ausführung (wenn überhaupt).
Das Schmelzen hat meines Wissens bis jetzt niemand auch mit absichtlicher Beschädigung nachstellen können, außer diesem Verrückten, der eben 1400 Watt+ über längere Zeit durch das Ding gejagt hat. (Ich hoffe ich finde den Link noch, so dass ich das hier reinstellen kann).
Das Design passt- Die Fertigung hat unter Umständen versagt. Oder es liegt an der Karte bzw. dessen Konnektor.
 
Zuletzt bearbeitet:
.Sentinel. schrieb:
Man hat sich doch inzwischen schon drauf geeinigt, dass es eben nicht der Stecker per se ist
Die Physik interessiert nicht, worauf sich jemand geeinigt hat. Das mag in der Twitterblase so funktionieren, aber die Naturgesetze gelten unverändert weiter.
 
Stimmt- Die Naturgesetze beugen sich aber eben auch nicht einer Blase von Spekulationen und Beschuldigungen in Computerforen.
 
Welches Naturgesetz veranlasst dich zu der Behauptung das dieses Ding vernünftig funktioniert?
 
.Sentinel. schrieb:
Das Schmelzen hat meines Wissens bis jetzt niemand auch mit absichtlicher Beschädigung nachstellen können, außer diesem Verrückten, der eben 1400 Watt+ über längere Zeit durch das Ding gejagt hat. (Ich hoffe ich finde den Link noch, so dass ich das hier reinstellen kann).
Das Design passt- Die Fertigung hat unter Umständen versagt. Oder es liegt an der Karte bzw. dessen Konnektor.

Der "Verrückte" von dem du sprichst, ist ein Netzteil Hersteller, der an einer Teststation 1400W durchgejagt hat.
Mit praktisch nachvollziehbaren Ergebnissen hat das nichts zu tun.
Und ja: nativ passt das Design. Aber eben auch nur nativ. Als Adapter sind da zu viele Variablen an denen gepfuscht werden kann.
Die plausibelste Theorie kam halt bisher von Buildzoid, der es anhand von Bildern der betroffenen erklärt hat: diese Halb-Schalen Konstruktion ist das wahrscheinlichste, wie auch am Ende des Videos von GN erwähnt.

Ansonsten sind die 662,4 Watt das theoretische Limit des Steckers, die von mir erwähnten 10% werden aber vermutlich als Reserve oder Sicherheitsmarge zurückgehalten. Zumindest die Dokumentation auf THG spricht von 600 Watt und das ist afaik auch das, was die Presse mitgeteilt hat...
 
  • Gefällt mir
Reaktionen: .Sentinel.
Zurück
Oben