News iGame GeForce RTX 4090 Neptune: Colorful erhöht die TDP unter Wasser auf bis zu 630 Watt

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Ich kann mir nicht vorstellen, dass die Neptune dadurch soviel mehr Leistung bringt, da ein hohes PT der 4090 kaum etwas bringt.

Ansonsten muss man die Karte eigentlich eher begrenzen, da man kaum FPS Verluste hat. Ich lasse die 4090 auf 70 % PT laufen und spare damit einiges an Strom gegenüber der 3080 und das bei höheren FPS. Uncharted und A Plague Tale habe ich mit etwa 200-300 Watt für den kompletten Rechner gespielt. Wenn die 4090 zu 100% ausgelastet wird, verbraucht sie in etwa 300 Watt wie die 3080.
 
Ich glaube die "Maximal"-Werte aus eurer Tabelle stimmen nicht. Meine Suprim X kann ich "nur" auf 520 Watt drehen. Vergleicht hierzu auch mal die Tabelle von Techpowerup -> Link
 
  • Gefällt mir
Reaktionen: ThirdLife
lazsniper schrieb:
ist eine 4090 auf 300 watt dann wesentlich schneller UND stromsparender als eine normal laufende 3090 ?
Ja
 
  • Gefällt mir
Reaktionen: lazsniper und ruthi91
Leider wird aktuell nur noch Hardware für große Balken gemacht und nicht für die Nutzer und schon gar nicht in Richtung Nachhaltigkeit.
Mit Balken meine ich Benchmarks.

Anstatt die Effizienz auf möglichst hohe Leistung bei hohem Verbrauch zu trimmen wäre möglichst viel Leistung bei geringerem Verbrauch wünschenswert. Eine 2070 Super verbraucht bei mir durch UV/OC ca. 50W weniger, liefert aber exakt die gleiche Leistung in Spielen wie mit Stock Einstellungen. Rechnet man jetzt mal die Stückzahlen solcher Karten x 50W oder wie bei der 4090 sogar x 100-150W, dann macht das schon einen Unterschied. Neben den reinen Energiekosten kommen ja auch noch weitere Kosten für Rohstoffe dazu, Kupfer und Alu können für Kühler gespart werden, ggf. andere Stoffe für Komponenten auf der Karte und am Ende ist vielleicht auch die Verpackung kleiner und das Produkt wiegt weniger und von Lagerkosten bis Transportkosten wird es billiger und alles wäre für die Umwelt besser. Man muss ja nur Apple anschauen wie klein die Verpackungen sind, gerade durch das Weglassen des Ladegeräts passen ein paar iPhones mehr auf die Palette. Einfach mehr Profit, aber tatsächlich auch besser für die Umwelt wenn weniger transportiert werden muss.
Bei den Prozessoren ähnlich, die Ryzen 3000/5000 mit 65W TDP lieferten richtig ordentlich Leistung. Die 7000er dann aber höher angesetzt mit bis zu 230W PPT. Lässt man sie aber im Eco Mode auf 65W TDP / 88W PPT laufen, kaum Leistungsverlust.
Da kann ich mich nur anschließen nach Tests mit gleicher Wattzahl. 25, 50, 75, 100, 125 Watt Package Power… könnte man alles mal durchtesten mit den Prozessoren.
 
  • Gefällt mir
Reaktionen: Midnight-CB, olligo und je87
lamda schrieb:
Ich würde die schuld mehr den zu durstig eingestellten spielen geben.
Wen die Karte nicht Gefordert wird an läuft sie doch recht effizient.

Das Problem sind die Software entwichener die sich einfach keine mühe mehr geben das ihr kram effizient läuft.
Früher wurde alles bis ins kleinste de teil optimiert damit es es überhaupt läuft. zb.
https://en.wikipedia.org/wiki/Fast_inverse_square_root

Heute haben wir (Voralmen entwichener) eben so was wie eine 600W 4090 da wird nicht mehr optimiert. weil läuft ja und wen nicht läuft es bestimmt mit der nächsten Generation.
Im Kern der Aussage hast Du natürlich Recht, nur fehlt in der Rechnung der Faktor "Mensch". Wenn ein Spiel besser läuft, weil es besser programmiert wurde, spielen die Leute einfach mit mehr AvgFPS. Kaum jemand, wird auf die Idee kommen, die Karten deswegen zu begrenzen - und wenn sie begrenzt sind vom Hersteller, würden viele (zumindest Enthusiasten) einfach OC betreiben.

Heute muss ja alles mit mind. 120 FPS laufen. Und wenn das mal Standard ist, kommt sicher jemand um die Ecke und definiert ein neues Ziel 250 FPS....
 
HorstSan schrieb:
Von Minderheiten in irgendwelchen Foren vielleicht. Klingt für mich nicht nach einem sinnvollen Geschäftsmodell. Zumal Leute die 200W mehr oder weniger für max. 4h pro Tag interessieren sowieso kaum in die Käufergruppe für eine 4090 fallen.

Die Karte mit 630W für eine Minderheit zu bewerben findest du also sinnvoller. Sieht man ja an den Reaktionen hier
 
CadillacFan77 schrieb:
nur fehlt in der Rechnung der Faktor "Mensch". Wenn ein Spiel besser läuft, weil es besser programmiert wurde, spielen die Leute einfach mit mehr AvgFPS. Kaum jemand, wird auf die Idee kommen, die Karten deswegen zu begrenzen
Ja aber kaum jemand würde sich eine 2000€ GPU kaufen wen alles was er spielen will wunderbar auf eine APU oder einer 300€ GPU läuft.
Was habe den so moderne Gaming Monitore 144-240Hz? Mehr FPS muss zumindest die GPU nicht berechnen.
 
Ich würde mir eine Übersicht wünschen welche Karte bei 200/250/300/359/400W welche Leistung bringt.

Dürfte aber wahrscheinlich zu viel Arbeit sein sowas in die Tests mit aufzunehmen.
Würde ich mir aber für die nächsten Tests wünschen, skaliert in FPS/W.
Dann hätten die ganzen OC-Prollkarten endlich Mal nicht mehr den längsten ;)

Ich bin von der 4090 echt positiv überrascht, aber erst bei tbp<80%.
 
  • Gefällt mir
Reaktionen: Midnight-CB, clarkathome und Nscale
BTICronox schrieb:
Also laut HWLuxx ist eine 4090 auf 250W immer noch ~45-50% schneller als eine 3090ti auf 450W (also maximaler) TDP. Kannst von da aus runterskalieren. Eine 1080 ti ist grob vergleichbar mit einer RTX 3060 (nicht ti), die 4090 ist mit 250W TDP also ca. 200% schneller / 3x so schnell wie eine 1080 ti.

Edit: Im Graphen von der8auer sieht man ganz gut die Skalierung zwischen Leistung und Leistungsaufnahme, Zeitstempel habe ich hinzugefügt. Also nur draufklicken, dann kommt's :)

Danke dir für die Info!
Eine generell gepflegte Übersichtstabelle wäre dennoch echt cool. Auch für CPU. Das würde zumindest mal mir einiges Erleichtern wenn es um die Frage geht, lohnt sich aufrüsten oder nicht. Höhere Leistung, die hauptsächlich durch höhere Leistungsaufnahme generiert wird gehört für mich zur Kategorie "lohnt nicht". Weshalb ich die 4090 echt interessant finde als potentiellen Nachfolger zur 1080 Ti. Aber nicht für den ausgerufenen Preis. Da wird auch die 4080 durch fallen denke ich - auch die Energiekosten können diese Preise nicht rechtfertigen. Mal sehen was AMD liefert, zum Glück aber lege ich nicht viel Wert auf die modernsten Titel...
 
  • Gefällt mir
Reaktionen: BVZTIII
lamda schrieb:
Ja aber kaum jemand würde sich eine 2000€ GPU kaufen wen alles was er spielen will wunderbar auf eine APU oder einer 300€ GPU läuft.
Das ist doch schon der Fall. Die meisten Spiele laufen absolut problemlos auf einer 300€ Karte. Oder auf ner 550€ Konsole.

Nur genügt das anscheinend nicht, darum braucht man mindestens 4k @ 120 Hz, Raytracing and jegliches Pipapo.

Hat man genug Leistung, findet irgendjemand noch irgendwas Neues, was man "unbedingt" haben muss.

99% der Spiele laufen mit 30 FPS absolut problemlos, aber mittlerweile sagt ja das Gross, dasss dies unspielbar wäre. Wie auch ein Auto unter 250PS "unfahrbar" ist und ein TV unter 80" "lächerlich" ist ;)

Grösser, weiter, schneller ist noch immer das Credo, egal was die Effizienz am Schluss sagt.

Wieviel stürzen sich auf den 13900K, der jehnseits aller Effizienz agiert, obwohl es auch einen 13600K gibt, der defacto in Spielen (in realistischen Szenarios) absolut gleichwertige Ergebnisse abliefert? Oder gar ein 5800X3D, der super effizient ist? Jeder, weil es bei 720p ja fast 20% mehr FPS sind (bei eh schon 300+) und das obwohl ALLE AAA Spiele mit entsprechender Graka locker mit 60 FPS laufen, selbst wenn du nen 1800X oder 7700K hast.....
 
  • Gefällt mir
Reaktionen: Knaecketoast, olligo und Nscale
Bright0001 schrieb:
Und vor allem: wofür? 10% mehr Leistung, wenns hoch kommt?
Wahrscheinlich nicht einmal. Von 300W auf 350W gibt's noch ca 7% mehr FPS, von 350W auf 450W nur noch 3%. Dass ist nur noch Messbar aber nicht mehr Fühlbar. Die 600W sind dann nur als Heizung fühlbar und in der Stromrechnung.
 
bad_sign schrieb:
ok, dann fliegt meine 3090 raus und die 4090 auf 300 w gecappt kommt rein ;)
Ergänzung ()

CadillacFan77 schrieb:
Nur genügt das anscheinend nicht, darum braucht man mindestens 4k @ 120 Hz, Raytracing and jegliches Pipapo.
wer will sich zurück entwickeln, oder auf dem stand von vor 15 jahren rangieren?

es geht halt vorwärts, nennt man entwicklung. ist in allen bereichen der gesellschaft so.
 
lazsniper schrieb:
ist eine 4090 auf 300 watt dann wesentlich schneller UND stromsparender als eine normal laufende 3090 ?

Du solltest den RTX 4090-Test hier auf CB mal genauer unter die Lupe nehmen...
1666623729840.png
 
  • Gefällt mir
Reaktionen: lazsniper und Bright0001
CadillacFan77 schrieb:
Grösser, weiter, schneller ist noch immer das Credo, egal was die Effizienz am Schluss sagt.
Ja... so Leute wird es immer geben.
Ich würde die einfach mal als Marketing/Konsum opfer bezeichnen.
Eben dieses werde auch kein Problem damit haben 12cent mehr die Stunde zu zahlen.

Aber die subventionieren ja eben die neu Entwicklungen mit wen sie bereit sind 2k€ GPUs zu kaufen
Und natürlich gibt es Leute die auf sehr hohem Nivau E-sports spielen und für die ist eben ein unterschied ob man 240 oder nur 144FPS hat.

Es gibt auch Leute die ein 250PS Pickup Truck brauchen weil sie damit Baumachsen oder Landwirtschaftliches gerät ziehen.
Aber (wild geraten) 90% der Fahrer kaufen den weil sie meine 1 mal im Jahr was bei IKEA kaufen zu wollen das ja sonst nicht in den Kofferraum passen würde...

Aber am ende bin ich doch noch froh das wir ein freien Markt haben und jede wen jeden quatsch kaufen kann wen er ihn sich leisten kann.
 
  • Gefällt mir
Reaktionen: romeon
@lamda
Ich gebe zu bedenken, dass starke Verbraucher auch die Preise für Energieträger hochjagen.
 
Was ist denn der reale Verbrauch beim Zocken? (Sorry, falls ichs überlesen habe)
 
CadillacFan77 schrieb:
Das ist doch schon der Fall. Die meisten Spiele laufen absolut problemlos auf einer 300€ Karte. Oder auf ner 550€ Konsole.

Nur genügt das anscheinend nicht, darum braucht man mindestens 4k @ 120 Hz, Raytracing and jegliches Pipapo.

Hat man genug Leistung, findet irgendjemand noch irgendwas Neues, was man "unbedingt" haben muss.
Andersherum wird ein Schuh draus. Ich würde behaupten, dass Spieleentwickler schon gerne 1990 ein Spiel programmiert hätten, was zu 100 % realistisch aussieht. 2022 sind wir näher dran, aber immer noch sehr weit weg davon. Also, was muss der Entwickler machen? Seine Spiele auf die vorhandene und ggf. in kurzer Zukunft verfügbarer Hardware so anpassen, dass diese sinnvoll nutzbar sind.

Ich würde sagen, wenn wir die Leistung einer 4090 um Faktor 20-50 mehr haben, sind wir am Punkt Realismus so weit heran, dass nur noch Nuancen zur echten Welt zu sehen sind. Das wird aber noch einige Jahre dauern. Bis dahin wird immer eine merklich bessere Hardware Einzug halten und auch nötig sein.
 
Nur 630W?
Die Stromversorgung kann sicher mehr, daher ist da noch "Reserve" drin die auch jemand unbedingt wird nutzen wollen.
.Snoopy. schrieb:
Ich würde sagen, wenn wir die Leistung einer 4090 um Faktor 20-50 mehr haben, sind wir am Punkt Realismus so weit heran, dass nur noch Nuancen zur echten Welt zu sehen sind.
Theoretisch möglich.
Praktisch wird wohl nie jemand so viel Zeit in ein Spiel investieren da das keiner bezahlen könnte bzw. auch wollen würde.
Bei den derzeitigen Preisen wird die Entwicklung in Richtung "Realismus" auch eher eine Vollbremsung machen.
 
und ich hab meine 6800XT extra von 270 W auf 180W gedrosselt, weil mir das zu laut, warm und teuer wurde. gut, die 4090 ist doppelt so schnell. aber auch leider doppelt so stromhungrig. wesentliche effizienzsteigerungen sehe ich da nicht.
 
  • Gefällt mir
Reaktionen: CloudConnected
Die rtx 4090 Subprime x hat ein powertarget von maximal 520 und die Liquid 530 Watt. Außer es gab ein biosupdate, welches eine Anhebung auf 600 Watt erlaubt.
 
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben