16pin Stromanschluß RTX 4090 Frage?

Richtig platz wird nicht das Problem sein und sie wird eh auf wakü direkt umgebaut daher wird sie wieder winzig sein xD
 
Benni1990 schrieb:
Gut davon habe ich leider null Plan aber wenn das zuviel wäre dann hätte ja die Behörde kein Grünes licht gegeben für den neuen Standart
Welche Behörde?
Da hat keine Behörde ihre Finger drin 😉
 
  • Gefällt mir
Reaktionen: SpamBot und rg88
polyphase schrieb:
Er hat in seinem Video auch aufgezeigt, das das Biegen des Kabels (was bei ordentlichem Kabelmanagement immer wieder vorkommt) zu den gleichen Problemen wie 30mal stecken führt.

Wie schon gesagt, der Firma EVGA sind einige Stecker/Kabel bei Tests abgebrannt!
Im Video zeigt er auch Bilder davon, soweit ich mich erinnere.


Der Stecker hat 12 Pins für die Spannungsversorgung:
  • 6 Pins für GND
  • 6 Pins für 12V

600W/12V = 50A
50A/6pins = 8,34A pro Pin

Das ist für diese winzigen Pins meiner Meinung nach zu viel.
Ich würde max. 2A über so einen kleinen Pin jagen, aus Erfahrung 😉
Recht hast du, nur das EVGA demnächst keine Grakas mehr baut, und wie gesagt ungelegte Eier können bunt sein, die neue Generation ist noch nicht draußen
 
Ich sag ja auch das es meine Meinung ist.

Ich persönlich möchte mir so eine Brandgefahr nicht ins Haus holen.

Wie gesagt max. 2A für so einen kleinen Pin halte ich für realistisch, aus eigener Erfahrung 😉
 
Man sollte sich halt Jayz Video mal komplett ansehen. Nvidia selbst hat wohl die Probleme an die Kommission
gemeldet die die Standards erarbeitet hat.
Das Umbauen auf Wakü ändert nichts an der Höhe der Karte und wenn der Stecker auf der Oberseite der Platine sitzt, wird das mit dem Biegen halt eng. Die von Jay gezeigte 3090ti FTW hatte den Stecker an der Rückseite der Karte, wenn das Gehäuse lang genug ist klappt das problemlos.
 
Wartet doch erstmal den Massentest durch den Verbraucher ab. Das ist doch alles noch Spekulation. Es bleibt doch noch abzuwarten was die einzelnen Hersteller mit ihren Designs da an Möglichkeit rein bringen.
 
wieviele Probleme die neuen Adapter für die 16+4 Pin machen werden, werden die ersten Tests zeigen.
Als ich mir das Jay2Cents Video angesehen habe, kamen schon Zweifel, ob die Adapterlösung gut geht.
Die ersten durchgeschmorten Adapter oder Netzteile werden zeigen, wie schlimm es ist.
 
Also bei einer 2k+ GPU an einem NT zu sparen was man um die ~200 euronen kaufen kann geht mir nicht ein.

Bei mir wirds definitiv ein neues NT.
 
Retrocloud schrieb:
Bei mir wirds definitiv ein neues NT.
Das kann ja jeder für sich entscheiden :) mir ging es ja nur hauptsächlich um die frage bezüglich der Adapter und den 450 bzw 600watt
Ergänzung ()

rg88 schrieb:
:D YMMD
Sry, aber das ist so weltfremd und vorbei an der Realität, das ist nur noch Zucker
Wie gesagt ich habe von solchen sachen was NT etc angeht so null ahnung und interesse mich damit zu beschäftigen

Ich schaue immer auf die watt zahl und Gold oder Platin mehr juckt mich da nicht bei NT
 
Zuletzt bearbeitet:
Stecker
polyphase schrieb:
Meiner und seiner Meinung nach hat der neue Stecker viel zu kleine Pins, welche nicht genug Stromtragfähigkeit besitzen.
Dazu müsste es doch specs geben.
Für runde massive pins würde AWG 18 reichen

But Jay's video made a mistake and left out a critical fact.

He said that melting happened after only 2.5 hours. That is incorrect. Hot spots developed at 2.5 hours. Melting didn't occur until 10 hours.
Aber die paar Tage bis zum Release werden wir noch abwarten können

https://forums.evga.com/EVGA-ATX-30-PSU-m3572014.aspx


Übrigens kennst du den alten Spruch - der Esel nennt sich immer zuerst?
 
cloudman schrieb:
Für runde massive pins würde AWG 18 reichen

Es ist halt schon seltsam, daß die alten, größeren Steckverbindungen für nur 50 Watt pro pin ausgelegt sind und die neuen kleineren Steckverbindungen für 100 Watt pro pin!?

Ich glaube nicht, daß das Kabel weiß, daß es eine High Power Ausführung ist, eher daß die Sensor- Pins dafür sorgen, daß der Strom doch nicht so üppig fließt.

Warum überhaupt die Miniaturisierung!? Ist doch unnötig!
 
Zuletzt bearbeitet:
Benni1990 schrieb:
Also 850watt reichen zumindest wenn die GPU nicht mehr wie 600watt zieht habe das mit meiner 3090 Simuliert in dem ich das 1000watt bios mal geflashed habe und es auf 600watt begrenzt habe (habe spiele und Benchmarks damit gemacht ohne einen absturz oder Bluescreen)
Hast Du mal ein Energiekostenmessgerät drangehängt und geschaut wieviel wirklich unter Last aus der Dose gezogen wird? Dein simulierter Test ist sonst überhaupt nichts wert, weil Du keine Garantie hast, das Dein Benchmark wirklich die entsprechende Last gezogen hat. Nur weil Du ein 1000W BIOS flasht und auf 600W limitierst heißt es nicht, daß auch wirklich 600W abgerufen werden. Wenn das Szenario weniger Strom brauchst als Du vermutest, dann kannst Du immer noch ein Problem bekommen von dem Du noch nichts weißt. Hol Dir für 20-30€ ein EInergiekostenmessgerät aus dem Baumarkt oder von Amazon, steck Deinen Rechner daran und schau was es anzeigt, wenn Du Last erzeugst. Sonst ziehst Du unter Umständen falsche Schlüsse.

Benni1990 schrieb:
Da problem ist ich würde sofort eine FE kaufen weil Nvidia "Endlich" mal verstanden hat das man eine 4090 nicht kastrieren muss sondern ihr ein 600watt Bios spendiert
nVidia hat bereits gesagt, daß die FE auch 600W kann, stand im CB-Artikel weiter unten bei Kühlung und Stromversorgung.
Und ich wette das nVidia sich selbst auch die besten Chips binnt. Wenn das was EVGA und andere über die Margen ujnd nVidias Verhalten sagen stimmt, dann habe ich meine Zweifel ob die Partner sich gleiches leisten können. Die Kühler der Customs werden sicher besser sein und die Stromversorgung möglicherweise üppiger, aber ob das am Ende wirklich immer mehr OC Potential bedeutet wird spannend werden.

Benni1990 schrieb:
Wie gesagt ich habe von solchen sachen was NT etc angeht so null ahnung und interesse mich damit zu beschäftigen

Ich schaue immer auf die watt zahl und Gold oder Platin mehr juckt mich da nicht bei NT
Ja, genau das macht mir Sorgen. Du sagt Du hast keine Ahnung von Netzteilen, ziehst aber voller Überzeugung Schlüsse was dessen Leistungsfähigkeit angeht. Du unterschätzt komplett die Bedeutung des Netzteils auf den stabilen Betrieb eines PCs. Die Gesamtwattzahl ist nicht der allein ausschlaggebende Wert für ein Netzteil. Und auch wenn es auf dem Papier reicht bedeutet es immer noch, daß Dein Netzteil öfter an der Lastgrenze laufen muss, es wird dauerhaft wärmer, lauter und altert schneller und Du hast keine Reserven was Spikes angeht (auch wenn die 4000er da wohl besser sein sollen). Jetzt planst Du dann Deine neue Karte umzuflashen (obwohl weder klar ist ob es geht oder überhaupt nötig ist) und an ein Netzteil zu hängen das unterhalb der Empfehlung liegt.
Aus meiner Sicht brichst Du hier also im Übertragenen mit Deiner neuen, schicken Ausrüstung zu einer Bergtour auf, bestehst aber darauf, den alten rostigen Karabinerhaken weiter zu verwenden, einfach weil der auch bisher schon so gut funktioniert hat. Für mich ist das ein Rezept für ein Desaster. Oder zumindest für jede Menge Ärger. Du erhöhst die Wahrscheinlichkeit das was schief geht und daß Du dann ohne Garantie mit defekter Hadrware da sitzt.
Ich flashe ja auch gerne meine Karten um und lote Leistungsgrenzen jenseits der Garantie aus, aber ich spare dann wenigstens nicht an meinem Sicherheitsnetz.
Daher kann ich es nicht guten Gewissens verantworten, Dir jetzt Tipps zu geben wie Du Dich optimal ins Verderben stürzt. Zumal Dir aktuell eh keiner eine sichere Antwort darauf geben kann, weil wir es schlicht noch nicht wissen.

polyphase schrieb:
Er hat in seinem Video auch aufgezeigt, das das Biegen des Kabels (was bei ordentlichem Kabelmanagement immer wieder vorkommt) zu den gleichen Problemen wie 30mal stecken führt.
Wenn ich das richtig verstanden habe kommt es darauf an wie und wo das Kabel genau gebogen wird. Seitliches (horizontales) biegen sehr nahe am Stecker, welches zu ungleichen Aderlängen bzw Biegeradien der einzelnen Adern führt scheint sehr problematisch zu sein. Ein Biegen mehr als 3cm vom Stecker entfernt dagegen und dann vertikal, was alle Adern gleich lang läßt, scheint deutlich weniger bis gar nicht problematisch zu sein. Ist aber auch nur meine Interpretation des verfügbaren Materials.
 
  • Gefällt mir
Reaktionen: wolve666
MADman_One schrieb:
Hast Du mal ein Energiekostenmessgerät drangehängt und geschaut wieviel wirklich unter Last aus der Dose gezogen wird?
sowas habe ich natürlich nicht xD hab mir aber den verbrauch ingame anzeigen lassen und 3dmark Timespy extreme ist schon sehr konstat über einen gewissen zeitraum und dort waren es sehr nahe an den 600 konstant und man muss auch sagen 600 sind wortcase denke der normale spielebetrieb wird zwischen 350-550watt liegen

Selbst beim neuen Spider-Max hatte ich konstant 460-490watt verbrauch und mein 12900k hat sich auch gute 170-180watt gegönnt ohne probleme für mein NT

Und selbst wenn dann Schaltet NT eben ab solltes es doch zuviel werden dann kommt ein neuen ATX 3.0 und es sit ruhe und es ist ja nicht so das ich hier mit Shunt mods oder etc arbeite wo wirklich ein Hardware Defekt auftreten kann
Ergänzung ()

MADman_One schrieb:
Und ich wette das nVidia sich selbst auch die besten Chips binnt.
Das denke ich mir auch das Nvidia sich diemals die Goldensample für ihre FE binnt aber man kommt so schlecht an die FE karten
Ergänzung ()

Was aber auch eine mögliche Theorie wäre das jeder Adapter die 600watt "kann" und sie es einfach über die BIOS´e regeln welche Karte wieviel verbrauchen darf das wäre auch in der Herstellung etc viel einfacher und vermutlich auch günstiger als wirklich seperate adapter bei zulegen für 450 oder 600watt
 
Zuletzt bearbeitet:
Zurück
Oben