Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
16pin Stromanschluß RTX 4090 Frage?
- Ersteller Benni1990
- Erstellt am
Welche Behörde?Benni1990 schrieb:Gut davon habe ich leider null Plan aber wenn das zuviel wäre dann hätte ja die Behörde kein Grünes licht gegeben für den neuen Standart
Da hat keine Behörde ihre Finger drin 😉
markusgo1967
Lt. Commander
- Registriert
- März 2009
- Beiträge
- 1.352
Recht hast du, nur das EVGA demnächst keine Grakas mehr baut, und wie gesagt ungelegte Eier können bunt sein, die neue Generation ist noch nicht draußenpolyphase schrieb:Er hat in seinem Video auch aufgezeigt, das das Biegen des Kabels (was bei ordentlichem Kabelmanagement immer wieder vorkommt) zu den gleichen Problemen wie 30mal stecken führt.
Wie schon gesagt, der Firma EVGA sind einige Stecker/Kabel bei Tests abgebrannt!
Im Video zeigt er auch Bilder davon, soweit ich mich erinnere.
Der Stecker hat 12 Pins für die Spannungsversorgung:
- 6 Pins für GND
- 6 Pins für 12V
600W/12V = 50A
50A/6pins = 8,34A pro Pin
Das ist für diese winzigen Pins meiner Meinung nach zu viel.
Ich würde max. 2A über so einen kleinen Pin jagen, aus Erfahrung 😉
Man sollte sich halt Jayz Video mal komplett ansehen. Nvidia selbst hat wohl die Probleme an die Kommission
gemeldet die die Standards erarbeitet hat.
Das Umbauen auf Wakü ändert nichts an der Höhe der Karte und wenn der Stecker auf der Oberseite der Platine sitzt, wird das mit dem Biegen halt eng. Die von Jay gezeigte 3090ti FTW hatte den Stecker an der Rückseite der Karte, wenn das Gehäuse lang genug ist klappt das problemlos.
gemeldet die die Standards erarbeitet hat.
Das Umbauen auf Wakü ändert nichts an der Höhe der Karte und wenn der Stecker auf der Oberseite der Platine sitzt, wird das mit dem Biegen halt eng. Die von Jay gezeigte 3090ti FTW hatte den Stecker an der Rückseite der Karte, wenn das Gehäuse lang genug ist klappt das problemlos.
markusgo1967
Lt. Commander
- Registriert
- März 2009
- Beiträge
- 1.352
Wartet doch erstmal den Massentest durch den Verbraucher ab. Das ist doch alles noch Spekulation. Es bleibt doch noch abzuwarten was die einzelnen Hersteller mit ihren Designs da an Möglichkeit rein bringen.
Balu_
Ensign
- Registriert
- Sep. 2014
- Beiträge
- 253
wieviele Probleme die neuen Adapter für die 16+4 Pin machen werden, werden die ersten Tests zeigen.
Als ich mir das Jay2Cents Video angesehen habe, kamen schon Zweifel, ob die Adapterlösung gut geht.
Die ersten durchgeschmorten Adapter oder Netzteile werden zeigen, wie schlimm es ist.
Als ich mir das Jay2Cents Video angesehen habe, kamen schon Zweifel, ob die Adapterlösung gut geht.
Die ersten durchgeschmorten Adapter oder Netzteile werden zeigen, wie schlimm es ist.
Motorrad
Admiral
- Registriert
- Feb. 2015
- Beiträge
- 9.773
Benni1990 schrieb:die Behörde
Welche Behörde meinst du da?
PCI-SIG heisst der Verein.
https://wccftech.com/atx-3-0-12vhpw...r-safety-risk-using-adapter-confirms-pci-sig/
https://wccftech.com/atx-3-0-12vhpw...r-safety-risk-using-adapter-confirms-pci-sig/
Einfach mal die endlose Mitgliedsliste von PCI-SIG ansehen:
https://pcisig.com/membership/member-companies
https://pcisig.com/membership/member-companies
rg88
Fleet Admiral
- Registriert
- Feb. 2015
- Beiträge
- 35.560
Benni1990 schrieb:Na diese PCI behörde weiß garnicht wie die richtig heißt
Sry, aber das ist so weltfremd und vorbei an der Realität, das ist nur noch Zucker
Retrocloud
Lt. Commander
- Registriert
- März 2009
- Beiträge
- 1.271
Also bei einer 2k+ GPU an einem NT zu sparen was man um die ~200 euronen kaufen kann geht mir nicht ein.
Bei mir wirds definitiv ein neues NT.
Bei mir wirds definitiv ein neues NT.
Das kann ja jeder für sich entscheidenRetrocloud schrieb:Bei mir wirds definitiv ein neues NT.
Ergänzung ()
Wie gesagt ich habe von solchen sachen was NT etc angeht so null ahnung und interesse mich damit zu beschäftigenrg88 schrieb:YMMD
Sry, aber das ist so weltfremd und vorbei an der Realität, das ist nur noch Zucker
Ich schaue immer auf die watt zahl und Gold oder Platin mehr juckt mich da nicht bei NT
Zuletzt bearbeitet:
Stecker
Für runde massive pins würde AWG 18 reichen
https://forums.evga.com/EVGA-ATX-30-PSU-m3572014.aspx
Übrigens kennst du den alten Spruch - der Esel nennt sich immer zuerst?
Dazu müsste es doch specs geben.polyphase schrieb:Meiner und seiner Meinung nach hat der neue Stecker viel zu kleine Pins, welche nicht genug Stromtragfähigkeit besitzen.
Für runde massive pins würde AWG 18 reichen
Aber die paar Tage bis zum Release werden wir noch abwarten könnenBut Jay's video made a mistake and left out a critical fact.
He said that melting happened after only 2.5 hours. That is incorrect. Hot spots developed at 2.5 hours. Melting didn't occur until 10 hours.
https://forums.evga.com/EVGA-ATX-30-PSU-m3572014.aspx
Übrigens kennst du den alten Spruch - der Esel nennt sich immer zuerst?
Motorrad
Admiral
- Registriert
- Feb. 2015
- Beiträge
- 9.773
cloudman schrieb:Für runde massive pins würde AWG 18 reichen
Es ist halt schon seltsam, daß die alten, größeren Steckverbindungen für nur 50 Watt pro pin ausgelegt sind und die neuen kleineren Steckverbindungen für 100 Watt pro pin!?
Ich glaube nicht, daß das Kabel weiß, daß es eine High Power Ausführung ist, eher daß die Sensor- Pins dafür sorgen, daß der Strom doch nicht so üppig fließt.
Warum überhaupt die Miniaturisierung!? Ist doch unnötig!
Zuletzt bearbeitet:
MADman_One
Captain
- Registriert
- Sep. 2004
- Beiträge
- 3.789
Hast Du mal ein Energiekostenmessgerät drangehängt und geschaut wieviel wirklich unter Last aus der Dose gezogen wird? Dein simulierter Test ist sonst überhaupt nichts wert, weil Du keine Garantie hast, das Dein Benchmark wirklich die entsprechende Last gezogen hat. Nur weil Du ein 1000W BIOS flasht und auf 600W limitierst heißt es nicht, daß auch wirklich 600W abgerufen werden. Wenn das Szenario weniger Strom brauchst als Du vermutest, dann kannst Du immer noch ein Problem bekommen von dem Du noch nichts weißt. Hol Dir für 20-30€ ein EInergiekostenmessgerät aus dem Baumarkt oder von Amazon, steck Deinen Rechner daran und schau was es anzeigt, wenn Du Last erzeugst. Sonst ziehst Du unter Umständen falsche Schlüsse.Benni1990 schrieb:Also 850watt reichen zumindest wenn die GPU nicht mehr wie 600watt zieht habe das mit meiner 3090 Simuliert in dem ich das 1000watt bios mal geflashed habe und es auf 600watt begrenzt habe (habe spiele und Benchmarks damit gemacht ohne einen absturz oder Bluescreen)
nVidia hat bereits gesagt, daß die FE auch 600W kann, stand im CB-Artikel weiter unten bei Kühlung und Stromversorgung.Benni1990 schrieb:Da problem ist ich würde sofort eine FE kaufen weil Nvidia "Endlich" mal verstanden hat das man eine 4090 nicht kastrieren muss sondern ihr ein 600watt Bios spendiert
Und ich wette das nVidia sich selbst auch die besten Chips binnt. Wenn das was EVGA und andere über die Margen ujnd nVidias Verhalten sagen stimmt, dann habe ich meine Zweifel ob die Partner sich gleiches leisten können. Die Kühler der Customs werden sicher besser sein und die Stromversorgung möglicherweise üppiger, aber ob das am Ende wirklich immer mehr OC Potential bedeutet wird spannend werden.
Ja, genau das macht mir Sorgen. Du sagt Du hast keine Ahnung von Netzteilen, ziehst aber voller Überzeugung Schlüsse was dessen Leistungsfähigkeit angeht. Du unterschätzt komplett die Bedeutung des Netzteils auf den stabilen Betrieb eines PCs. Die Gesamtwattzahl ist nicht der allein ausschlaggebende Wert für ein Netzteil. Und auch wenn es auf dem Papier reicht bedeutet es immer noch, daß Dein Netzteil öfter an der Lastgrenze laufen muss, es wird dauerhaft wärmer, lauter und altert schneller und Du hast keine Reserven was Spikes angeht (auch wenn die 4000er da wohl besser sein sollen). Jetzt planst Du dann Deine neue Karte umzuflashen (obwohl weder klar ist ob es geht oder überhaupt nötig ist) und an ein Netzteil zu hängen das unterhalb der Empfehlung liegt.Benni1990 schrieb:Wie gesagt ich habe von solchen sachen was NT etc angeht so null ahnung und interesse mich damit zu beschäftigen
Ich schaue immer auf die watt zahl und Gold oder Platin mehr juckt mich da nicht bei NT
Aus meiner Sicht brichst Du hier also im Übertragenen mit Deiner neuen, schicken Ausrüstung zu einer Bergtour auf, bestehst aber darauf, den alten rostigen Karabinerhaken weiter zu verwenden, einfach weil der auch bisher schon so gut funktioniert hat. Für mich ist das ein Rezept für ein Desaster. Oder zumindest für jede Menge Ärger. Du erhöhst die Wahrscheinlichkeit das was schief geht und daß Du dann ohne Garantie mit defekter Hadrware da sitzt.
Ich flashe ja auch gerne meine Karten um und lote Leistungsgrenzen jenseits der Garantie aus, aber ich spare dann wenigstens nicht an meinem Sicherheitsnetz.
Daher kann ich es nicht guten Gewissens verantworten, Dir jetzt Tipps zu geben wie Du Dich optimal ins Verderben stürzt. Zumal Dir aktuell eh keiner eine sichere Antwort darauf geben kann, weil wir es schlicht noch nicht wissen.
Wenn ich das richtig verstanden habe kommt es darauf an wie und wo das Kabel genau gebogen wird. Seitliches (horizontales) biegen sehr nahe am Stecker, welches zu ungleichen Aderlängen bzw Biegeradien der einzelnen Adern führt scheint sehr problematisch zu sein. Ein Biegen mehr als 3cm vom Stecker entfernt dagegen und dann vertikal, was alle Adern gleich lang läßt, scheint deutlich weniger bis gar nicht problematisch zu sein. Ist aber auch nur meine Interpretation des verfügbaren Materials.polyphase schrieb:Er hat in seinem Video auch aufgezeigt, das das Biegen des Kabels (was bei ordentlichem Kabelmanagement immer wieder vorkommt) zu den gleichen Problemen wie 30mal stecken führt.
sowas habe ich natürlich nicht xD hab mir aber den verbrauch ingame anzeigen lassen und 3dmark Timespy extreme ist schon sehr konstat über einen gewissen zeitraum und dort waren es sehr nahe an den 600 konstant und man muss auch sagen 600 sind wortcase denke der normale spielebetrieb wird zwischen 350-550watt liegenMADman_One schrieb:Hast Du mal ein Energiekostenmessgerät drangehängt und geschaut wieviel wirklich unter Last aus der Dose gezogen wird?
Selbst beim neuen Spider-Max hatte ich konstant 460-490watt verbrauch und mein 12900k hat sich auch gute 170-180watt gegönnt ohne probleme für mein NT
Und selbst wenn dann Schaltet NT eben ab solltes es doch zuviel werden dann kommt ein neuen ATX 3.0 und es sit ruhe und es ist ja nicht so das ich hier mit Shunt mods oder etc arbeite wo wirklich ein Hardware Defekt auftreten kann
Ergänzung ()
Das denke ich mir auch das Nvidia sich diemals die Goldensample für ihre FE binnt aber man kommt so schlecht an die FE kartenMADman_One schrieb:Und ich wette das nVidia sich selbst auch die besten Chips binnt.
Ergänzung ()
Was aber auch eine mögliche Theorie wäre das jeder Adapter die 600watt "kann" und sie es einfach über die BIOS´e regeln welche Karte wieviel verbrauchen darf das wäre auch in der Herstellung etc viel einfacher und vermutlich auch günstiger als wirklich seperate adapter bei zulegen für 450 oder 600watt
Zuletzt bearbeitet: