News GeForce RTX 4090 anschließen: Die drei Anschlussoptionen der Grafikkarte am Netzteil

thenebu schrieb:
Ich muss (will) meine ca. 8 Jahre alte Hardware aufrüsten. Da ich wieder lange Ruhe habe möchte, sollte es zukunftssicher ATX 3.0 sein.
Geizhals listet derzeit nur 8 Netzteile. Hat jemand ne Glaskugel und kann mir sagen, ob es zeitnah mehr werden. Lohnt es sich 4 Wochen zu warten?

Klar - evtl. hast du glück und bekommst am schwarzen Freitag noch ein kleines Angebot rein! :)
AMD steht bereits vor der Tür.
 
Aus reinem Interesse gerade mal recherchiert:

Das Be Quiet 12VHPWR Adapterkabel (CPH-6610) erfordert auf der Netzteilseite nur zwei Anschlüsse.
Mein Be Quiet Pure Power 11 FM mit 550W (BN317) hat eben zwei dieser Anschlüsse.
Könnte ich damit wirklich eine RTX 4090 -wie ich rauslese sogar im 600W Modus- betreiben ohne, dass diese "Sense Pins" oder irgendein anderer Schutzmechanismus (außerhalb des Netzteiles) eingreift?



Ach, bei der Umfrage "Wie nimmst du die RTX 4090 in Betrieb?" fehlt übrigens die passende Antwort für vermutlich 99% der Leser hier - die wäre nämlich "Gar nicht!" :rolleyes:
 
rg88 schrieb:
oh, da wurde wohl wer getriggert :p
Würde es dich denn so stören, wenn deine GPU nur 150 Watt aufnehmen würde?

Joa weil es größere und deutlich einfachere Punkte geben würde mit denen man viel viel viel viel viel mehr energie spart und es juckt einfach keine sau.
Und auch gegen Cryptominer hat niemand etwas getan die High-Tech Produkte zu Spekulationsobjekten machen die den kompletten tag meistens im verbund mit paar Dutzend anderen karten Strom in wärme umwandeln die dann oft über ne Klimaanlage abgeführt wurden.

Aber Zocken ist Böse :D

Wenn wir ALLE sparen und jeder Klare regeln für ein Limit hat ok, kein thema, Limitiere mich, aber nicht so :D

Lieber Kündiger ich, was unser Betrieb für Porsche, Daimler, Ricaroh und co raus ballert ist nen Vielfaches von dem was ich überhaupt Privat verbrauchen kann. Dann ist auch Energie gespart. Leider muss ich ja auch von irgendwas leben und mit meiner Bildung bekomme ich kein Arbeitslosengeld weil ich immer Arbeit hab :/
Ich hätte Bänker werden sollen :D

Und nein mich würde es nicht Stören, wenn ich aber meine 5120x1440 nicht anständig befeuern kann hab ich nix davon dass die GPU nur max 150W saugt. Sonst hätte ich noch meine 970 drinne statt ne 6900XT. Und die saugt in manchen Games auch nicht mehr als 150W^^ in WoW 3.3.5 sogar nur 50W. xP

Aber ich bin der letzte der Jammert wenn wir einfach ALLE in der gleichen Armut leben.
 
Coeckchen schrieb:
Joa weil es größere und deutlich einfachere Punkte geben würde mit denen man viel viel viel viel viel mehr energie spart und es juckt einfach keine sau.
Ja, aber man darf nicht ein Thema gut reden indem man andere Sache auch aufzählt. Das nennt man Whataboutism und ist nicht ohne Grund die schlechteste aller Argumenationsgrundlagen ;)
Coeckchen schrieb:
Und auch gegen Cryptominer
Bin ich genauso dagegen.
Coeckchen schrieb:
Aber Zocken ist Böse :D
Nope, da liest einfach gerade in Empörung und denkst nicht rational.
Schau dir an, was ich geschrieben habe, dann merkst vielleicht, worauf ich hinaus will.
Tipp: es geht nicht gegen GPUs, Zocken, Freizeitgestaltung oder Spaß. Es geht rein um die Entwicklung der zugehörigen Hardware die außer Kontrolle geraten ist und keine sinnvollen Produkte mehr hervorbringt, die ausgewogen und effizient sind.

Coeckchen schrieb:
Ab hier und dem Rest des Posts will ich nicht antworten, weil das wie gesagt total in Whataboutism geht und vollkommen am Thema vorbei.
Es ist keine brauchbare Diskussionsgrundlage gegeben, wenn die Argumente Scheinargumente sind und nur vom eigentlich Thema ablenken. Das musst du bitte noch reflektieren und daraus lernen :)
Dann können wir gerne ernsthaft diskutieren. Nicht böse gemeint und nicht falsch verstehen bitte
 
  • Gefällt mir
Reaktionen: dideldei
rg88 schrieb:
Ja, aber man darf nicht ein Thema gut reden indem man andere Sache auch aufzählt. Das nennt man Whataboutism und ist nicht ohne Grund die schlechteste aller Argumenationsgrundlagen ;)

Bin ich genauso dagegen.

Nope, da liest einfach gerade in Empörung und denkst nicht rational.
Schau dir an, was ich geschrieben habe, dann merkst vielleicht, worauf ich hinaus will.
Tipp: es geht nicht gegen GPUs, Zocken, Freizeitgestaltung oder Spaß. Es geht rein um die Entwicklung der zugehörigen Hardware die außer Kontrolle geraten ist und keine sinnvollen Produkte mehr hervorbringt, die ausgewogen und effizient sind.


Ab hier und dem Rest des Posts will ich nicht antworten, weil das wie gesagt total in Whataboutism geht und vollkommen am Thema vorbei.
Es ist keine brauchbare Diskussionsgrundlage gegeben, wenn die Argumente Scheinargumente sind und nur vom eigentlich Thema ablenken. Das musst du bitte noch reflektieren und daraus lernen :)
Dann können wir gerne ernsthaft diskutieren. Nicht böse gemeint und nicht falsch verstehen bitte

Um ernsthaft zu diskutieren müsstest du die Faktenlage kennen und akzeptieren - und die ist nunmal: (auch) die aktuelle Generation an Nvidia Grafikkarten ist (wieder) deutlich effizienter als die vorherige.
Somit sind Aussagen wie "die Entwicklung der zugehörigen Hardware die außer Kontrolle geraten ist und keine sinnvollen Produkte mehr hervorbringt, die ausgewogen und effizient sind." -mit Verlaub- einfach nur polemischer Unsinn...


Energieeffizienz im Werkszustand


AMD Ryzen 7000 verbraucht ab Werk mehr als Ryzen 5000 und ist, weil die Leistung unterproportional steigt, sogar ineffizienter als der Vorgänger unterwegs. Bei der GeForce RTX 4090 ist das nicht der Fall. Das liegt einerseits daran, dass die Leistung signifikant höher liegt, und andererseits, dass das sehr hohe Niveau von 450 Watt schon vom Vorgänger erreicht wurde. Doch auch gegenüber kleineren Vorgängern mit geringerer TDP kann sich die GeForce RTX 4090 behaupten. Selbst im Vergleich zur effizientesten Ampere-Grafikkarte, der GeForce RTX 3070, gibt es in UHD 43 Prozent mehr Bilder pro Watt. Das effizienteste Modell im Testparcours, die Radeon RX 6800, wird um 40 Prozent geschlagen.


Und dabei darf man auch gerne noch bedenken, dass es sich um das (zumindest vorläufige) Spitzenmodell des Lineups handelt, was idR nicht das effizienteste ist (weil die potentielle Kundschaft eher gesteigerten wert auf Leistung legt)... man kann also durchaus davon ausgehen, dass eine 4080 oder 4070 eine bessere Effizienz liefern (so wie es bei der vorherigen Generation auch bei 3070 bzw 6800 non-XT war)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: RogueSix
highwind01 schrieb:
Um ernsthaft zu diskutieren müsstest du die Faktenlage kennen und akzeptieren - und die ist nunmal: (auch) die aktuelle Generation an Nvidia Grafikkarten ist (wieder) deutlich effizienter als die vorherige.
Somit sind Aussagen wie "die Entwicklung der zugehörigen Hardware die außer Kontrolle geraten ist und keine sinnvollen Produkte mehr hervorbringt, die ausgewogen und effizient sind." -mit Verlaub- einfach nur polemischer Unsinn...
Es ist bezeichnend, wenn man die hohe Leistungsaufnahme der Vorgängergeneration als Maßstab nimmt.
Lies bitte mal meinen ursprünglichen Beitrag, dann versteht du vielleicht worauf ich hinaus will und woltle.
Und das ist - mit Verlaub - kein polemischer Unsinn.
 
  • Gefällt mir
Reaktionen: Rockstar85 und LukS
rg88 schrieb:
Ja, aber man darf nicht ein Thema gut reden indem man andere Sache auch aufzählt. Das nennt man Whataboutism und ist nicht ohne Grund die schlechteste aller Argumenationsgrundlagen ;)
Ok dann bleiben wir Fachlich.

Die Entwicklung geht hin zu mehr Effizienz. Trotz höherem potentiellen Stromverbrauch.
Und diese entwicklung haben wir schon seit immer weil es eben Machbar ist. Und der Stromverbrauch selbst ist auch nur ein Faktor im Lebenszyclus der Hardware.
Aber spielen wirs mal durch: RTX 4090 kommt mit 200W TDP, sehr Effizient, bischen schneller als ne 390ti bei nur 60% des Verbrauchs.
Ich brauch aber mehr leistung....hmm was mach ich da, genau ich kauf einfach 2 Stück. Und wenn ich eine Serverfarm damit betreiben will kauf ich statt 500 einfach 1000 Stück :D. Nur das der verbrauch der Produktion nahezu Identisch ist und du musst mehr GPU`s transportieren damit die leute rechner mit der gleichen Leistungsfähigkeit bauen können und damit hast du effektiv im Lebenszyclus der Hardware wohl wenig bis nichts an energie gespart, aber dafür mehr Aufwand betrieben und Material rausgehauen.
Dazu kommt dass man Leistungsfähigere Hardware potentiell länger leben lassen kann.
Was man z.b. daran erkennt dass heutzutage auf Steam mehr GTX 970er unterwegs sind als 950er obwohl letztere wohl ne breitere Zielgruppe hat, die sind aber halt auch schon eher ersetzt worden.

Und auf der anderen seite haben wir schon gesehen wo uns Effizienzschritte ohne nennenswerte Leistungssteigerungen hinbringen, und zwar von Intel. 2011 kam Sandybridge, Intel war konkurrenzlos und Intel hat 3 Plattformen nur Refreshes und Miniupdates gebracht mit 5% Schritten in der Steigerung. Oder anderst ausgedrückt: Ein Halbes jahrzehnt war Stillstand im CPU bereich was (Spiele)leistung betrifft bis AMD intel gezwungen hat Hexacores auf die Mainstreamplattform zu bringen.

Der Hardwaresektor ist der einzige Markt wo ich behaupten würde dass er besser mit weniger als mit zu vielen Regeln funktioniert, in allen anderen bereichen kann man gern das Messer ansetzen.
 
rg88 schrieb:
Es ist bezeichnend, wenn man die hohe Leistungsaufnahme der Vorgängergeneration als Maßstab nimmt.
Lies bitte mal meinen ursprünglichen Beitrag, dann versteht du vielleicht worauf ich hinaus will und woltle.
Und das ist - mit Verlaub - kein polemischer Unsinn.
Es ging um Effizienz... :rolleyes:


Dein ursprünglicher Beitrag ist dieser hier?
rg88 schrieb:
Ein Artikel der im Jahr 2022 zeigt, wie man eine Grafikkarte an den Strom anschließen muss, zeigt eigentlich ziemlich krass zu welch absurden Stromfressern sich diese Bauteile entwickelt haben.

Ich fand die 250Watt Modelle vor 10 Jahren schon absurd und eine Fehlentwicklung die zeigt, dass hier ein falscher Weg eingeschlagen wird. Massiver technischer Aufwand um die heiße Abluft vom Chip weg und aus dem Gehäuse zu bringen, anstatt die Effizienz für so ein vergleichsweise unwichtiges Bauteil* im Fokus zu haben bei der Entwicklung.

*unwichtig im Sinne von nicht notwendig im Alltag, sondern ein Unterhaltungsprodukt, wenn man von CAD und anderen Grafikarbeiten absieht
Das ist der gleiche polemische Unsinn...
Auch hier sprichst du davon, dass bei der Entwicklung der Effizienz angeblich keinerlei Bedeutung begemessen wurde, obwohl nachweislich jede Generation (mitunter deutlich) effizienter wurde!

Ich zitiere mal beispielhaft aus den Tests von Computerbase der letzten Generationen

Aus dem Test der 3080:
Mit 270 Watt arbeitet die GeForce RTX 3080 konsequenterweise noch deutlich effizienter als mit den normalen 320 Watt. Die Grafikkarte liefert 14 Prozent mehr Performance pro Watt, sodass der Effizienzvorsprung gegenüber der GeForce RTX 2080 Ti von 10 Prozent auf 25 Prozent wächst.

Aus dem Test der 2080 TI
Mit der Pascal-Generation hat Nvidia einen riesen Schritt bezüglich der Energieeffizienz gemacht. Die Turing-Generation ist noch einmal effizienter, wobei der Abstand zur Vorgängergeneration nicht allzu groß ausfällt. So liefert die GeForce RTX 2080 FE pro Watt neun Prozent mehr Bilder in der Sekunde als die GeForce GTX 1080 FE. Bei den Flaggschiffen wächst der Unterschied an. Die GeForce RTX 2080 Ti FE ist 24 Prozent effizienter als die GeForce GTX 1080 Ti FE. Interessanterweise ist die GeForce RTX 2080 Ti effizienter als die GeForce RTX 2080. Bei der Vorgängergeneration war dies noch anders herum. Die GeForce RTX 2080 Ti liefert fast doppelt so viele FPS pro Watt wie AMDs Radeon RX Vega 64.

Aus dem Test der 1080 TI
Nvidias Pascal-Architektur ist sehr energieeffizient, was sich auch mit der GeForce GTX 1080 Ti Founders Edition nicht ändert. Unter Windows zieht das Testsystem mit der Grafikkarte 53 Watt aus der Steckdose. Das ist zwar mehr als bei einem mit der GP104-GPU ausgestatteten Modell, aber immer noch ein gutes Ergebnis. Im Multi-Monitor-Betrieb sowie bei einem 144-Hz-Monitor verhält sich die GeForce GTX 1080 Ti im Rahmen der Erwartungen wie eine GeForce GTX 1080.


Und der Grund, warum hier im Jahr 2022 ein Artikel erscheint, wie man Grafikkarten (künftig) an den Strom anschliest, ist schlicht und ergreifend ein neuer Stecker-Standard!
Eine 4060 wird mutmaßlich auch über diesen Stecker-Standard verfügen und wenn Nvidia eine andere Vorstellungsreihenfolge gewählt hätte, wäre diese dann Teil dieses Artikels - nach deiner Argumentation wäre die dann auch ein "absurder Stromfresser" :freak:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: RogueSix und Coeckchen
am Netzteil - Einzahl. ;)

Screenshot_20221022_000045.png
 
Hat eigentlich jemand versucht ein 16pin auf 4x 8 PIN in dem cablemod store zu bestellen? Man kann das über den Konfigurator machen. Leider verstehe ich da den Preis nicht. Zuerst sind es 39,90€ (Pro), wenn man auf next geht, wird es, wie durch ein Wunder, 48,60€. Geht man weiter, kommen noch 15€ auf Shipping & Import, es ist also von außerhalb der EU. Kommt da noch Zoll drauf? Dafür, dass sich dieser Store EU Store nennt folgt er nicht der EU Gesetzgebung, es fehlt ein Impressum, Namen, Adresse, Steuer ID etc, im Grunde weiß man nicht wo und bei wem man da bestellt .).
 
Ich hab so ein Kabel für mein Corsair Netzteil bestellt. Preis ist natürlich ein bisschen heftig aber die Kabel die ich dort bisher bestellt habe, hatten eine ausgezeichnete Qualität.

Das kein Impressum auf der Seite zu finden ist, ist natürlich nicht so berauschend. Hier was ich raus finden konnte:
https://trademarks.justia.com/864/92/cablemod-86492122.html
 
  • Gefällt mir
Reaktionen: c9hris
..::Borni::.. schrieb:
Ich hab so ein Kabel für mein Corsair Netzteil bestellt. Preis ist natürlich ein bisschen heftig aber die Kabel die ich dort bisher bestellt habe, hatten eine ausgezeichnete Qualität.

Das kein Impressum auf der Seite zu finden ist, ist natürlich nicht so berauschend. Hier was ich raus finden konnte:
https://trademarks.justia.com/864/92/cablemod-86492122.html

Kannst du noch sehen woher das Paket kam? ich glaub dir, die machen sehr warscheinlich sehr gute kabel aber betreiben einen schlechten Shop..
 
TeXer schrieb:
Haste nen Link wo das Kabel verfügbar ist?
Hab ich mir konfiguriert auf CableMod.
Ergänzung ()

BetaHydri schrieb:
Kannst du noch sehen woher das Paket kam? ich glaub dir, die machen sehr warscheinlich sehr gute kabel und schlechte Shops :)
Das Paket ist noch nicht da. Das letzte Mal das ich dort bestellt habe ist zwei Jahre her. Den Karton hab ich nicht mehr. Kann es aktuell nicht nachvollziehen, erst wenn das neue Kabel eintrifft.
 
Trotzdem danke, ich will eigentlich nur ein Kabel haben, da sind die 15€ "Versand und Importgebühren" ziemlich happig. Wäre interessant zu wissen ob der Zoll da auch nochmal zuschlägt oder ob das der Absender bereits begleicht.
 
Also ich bin mir ziemlich sicher das ich letztes Mal nicht zum Zoll musste. Ich kann es aber erst 100 % sagen wenn mein Kabel da ist.
 
  • Gefällt mir
Reaktionen: BetaHydri
Artikel-Update: Der Artikel wurde um einen Hinweis, dass 12+0-Kabel- (bestimmte Netzteile) und Adapter (RTX 3090 Ti) nicht mit der RTX 4090 kompatibel sind, ergänzt. Die verwirrende Abbildung des Asus Thor Platinum II mit 12+0-Adapter an der RTX 3090 Ti wurde entfernt.
 
  • Gefällt mir
Reaktionen: untot, BrollyLSSJ und PC_Bayer0815
highwind01 schrieb:
Um ernsthaft zu diskutieren müsstest du die Faktenlage kennen und akzeptieren - und die ist nunmal: (auch) die aktuelle Generation an Nvidia Grafikkarten ist (wieder) deutlich effizienter als die vorherige.
Somit sind Aussagen wie "die Entwicklung der zugehörigen Hardware die außer Kontrolle geraten ist und keine sinnvollen Produkte mehr hervorbringt, die ausgewogen und effizient sind." -mit Verlaub- einfach nur polemischer Unsinn...
Witzigerweise Nein... Die IPC ist Gesunken und NUR durch einen doppelten Nodesprung ist dem So.. Schau ins 3DC in den Thread und du findest die Rechnung.. Seit Ampere stagniert die IPC... Damit ist die Karte eben Mitnichten Effizienter und AMD dürfte mit seinem N7 Prozess verdammt dicht drankommen.
Faktenlage und so ;)
 
Zuletzt bearbeitet:
Frage : Vielleicht hab ich es nicht bekommen, aber wieso benötigen einige Boards aufeinmal ein Bios Update für die 4090 ? :confused_alt:
 
  • Gefällt mir
Reaktionen: Qyxes
Zurück
Oben