News GeForce RTX 4090: 450 Watt allein für Nvidias AD102-GPU sind realistisch

BxBender schrieb:
Check24.de: 44 Cent /kwh!

1000 Watt PC + Monitor + Beleuchtung etc.

3 Stunden/365 Tage

ca. 500 Euro Stromkosten / Jahr
(monatlich 40 Euro)

viel Spaß dann auch, ich versuche meinen PC möglichst bei 300, mit Monitor dann maximal 400 Watt zu halten
die AMD RX 6600(XT) hat derzeit ja die beste Effizienz
hoffentlich hat die nächste Generation dort auch einen P/L und Effizienz-Schlager zu bieten, wäre super, besser wäre natürlich noch die 7er variante :-)
Sagmal checkt ihr das endlich mal das eure Rechnung nie aufgeht....

1. Der Strompreis ist von Region zu Region vollkommen unterschiedlich....
(bei uns in Franken is die N-Ergie immer noch bei 27ct/kwh
2. selbst wenn man eine gpu mit einer tdp hat von 600w liegt diese nicht die ganze zeit an....
meine 3090 kann bis zu 550w ziehen und diese wird nur sehr selten erreicht....
der durchschnitt liegt hier bei 330 bis 350
die tdp liegt nur an wenn die gpu vollkommen ausgelastet wird was in den meisten fällen nur ganz kurz der fall ist....
die rgb beleuchtung trägt nur einen ganz kleinen bruchteil zur gesamtleistung bei.....
moderne tvs oder monitore verbrauchen nur noch sehr wenig.....
ich hab seit oktober 20 eine 3090 die läuft auf 2,1ghz und das hat sich auf den stromverbrauch nicht so wirklich bemerkbar gemacht....
ich zahl ca. 50-80 euro mehr im jahr als davor..
 
  • Gefällt mir
Reaktionen: calippo
Laphonso schrieb:
Das Dauergeheule und Gejammer, was den Verbrauch angeht, suggeriert, dass außer mir nur maximal 4 oder 5 weitere Computerbase User eine 4090(Ti) kaufen.
Mal angenommen AMD wäre vor Nvidia und der 4090 (Ti) , würdest du die dann auch kaufen?
 
Thepunisher2403 schrieb:
Sagmal checkt ihr das endlich mal das eure Rechnung nie aufgeht....

Die Rechnung muss jeder selbst aufstellen, am besten mal ein paar Monate oder ein ganzes Jahr die Energiekosten mitloggen.
Wenn ich mir meine Spieletitel der vergangenen 5 Jahre ansehe, komme ich auf 2-3 AAA Titel pro Jahr mit jeweils 50-100h Spielzeit, also ca. 200h Volllast pro Jahr. Dazu kommen noch kleinere Sachen, bei denen bestimmt keine Volllast anliegt. 400h Spielzeit insgesamt pro Jahr sind realistisch für mich.
1000h pro Jahr bzw. 3h pro Tag im Schnitt, das wäre für mich vollkommen unmöglich zu erreichen.

Manchmal hab ich den Eindruck, dass sich Leute das extra schlecht reden, um sich vom Kauf abzuhalten. Ich sehe das deutlich entspannter, weil ich mit meiner GTX 1080 wunderbar auskomme und ich Ende diesen, Anfang nächsten Jahres nach einer ca. 200 Watt Karte Ausschau halten werde.
Die 200h Volllast pro Jahr, in der eine 4090 400 Watt mehr ziehen würde, also zu 80kWh Mehrverbrauch führen würde, die 35€ mehr an Strom pro Jahr kosten würden, die fallen nicht wirklich ins Gewicht.
 
Allein der Energiehunger der Karte kombiniert mit den Kosten, macht die Karte zu einem totalen Kapitalschaden. Da ist GeForce Now oder andere Game Streaming Anbieter einfach günstiger als die Energiekosten die diese Karte hier in Deutschland verursachen würde.
 
DiamondDog schrieb:
Da ist GeForce Now oder andere Game Streaming Anbieter einfach günstiger
Geforce Now oder andere Anbieter mögen für einige Anwendungsszenarien interessant sein, aber die Restriktionen sind doch bekannt: Höhere Latenz, eingeschränkte Spielebibliothek bzw. Pflicht zum Kauf der Spiele auf der Plattform, Mods nur eingeschränkt oder gar nicht nutzbar.
 
  • Gefällt mir
Reaktionen: DiamondDog
calippo schrieb:
Wer wirklich eine 600W 4090 für 2000€ "braucht", der findet eine Lösung für dieses Problem.
Konsumverzicht in der Dekadenz-Oberliga etwa? ;)

Ich schätze Deine Beiträge übrigens sehr!
 
Wenn ich mir die Gerüchte aus Moores Law anschaue, dann wird das eine ganz vermurkste nächste Generation.


Nvidia nur konkurrenzfähig über wesentlich höheren Energieverbrauch (und Speicher?).

1649235979220.png


Wobei wir hier über Gerüchte reden. Auch erscheint mir der Speicher bei AMD unrealistisch klein. Nvidia hat wohl das bessere Speichermanagement, aber die sollen jetzt mehr Speicher als AMD raushauen? Auf der 7800 und 7700 jeweils weniger Speicher und Speicherbandbreite? Wenn dann müsste es eine andere Lösung wie 3D Cache oder so geben, der dass kompensiert.

Der Anstieg bei AMD wäre ja insgesamt noch gering. Bei AMD ist die Spanne mit 100w teilweise auch sehr groß. Ich bin echt mal gespannt, wie die Generation wird. Anscheinend steigt die Leistung ja schön.
 
janos69 schrieb:
Wenn die Gerüchte stimmen, liegt AMD mit RDNA3 15-20% vor NVIDIA und benötigt dafür 100W weniger.
Wird interessant, alles verändert
Wo steht das?
 
DevPandi schrieb:
Man muss sich an der Stelle die Frage stellen, ob NVIDIA mit Pascal vielleicht einen Zenit erreicht hat, was die Ausgewogenheit aus Rohleistung und Auslastung und damit auch verbunden Effizienz anging.

Ist in meinen Augen nur eine sehr persönliche Wahrnehmung. Pascal war effizient, keine Frage. Nvidia hatte aber auch keine Konkurrenz, die Ihnen so wirklich gefährlich werden konnte. Man hatte die bessere Architektur und die bessere Fertigung.

Pascal wurde mit reichlich OC Spielraum ausgeliefert, da man auch mit niedrigem Takt AMD spielend in Schach halten konnte.

Da muss man sich nur mal einer Founders 1080Ti angucken. 250 Watt und schneller als alles was AMD in den nächsten 2 Jahren rausbringen wird. Diesen relativ kleinen 250 Watt Chip konnte man mit Übertaktung ohne Probleme deutlich auf über 300 Watt bringen. Bei Custom Karten mit andere Bios sind auch 350+ kein Thema gewesen.

Wenn man sich anschaut, wie effizient Ampere mit minimal weniger Takt werden kann, hat sich wenig geändert. AMD ist aber heute eine deutliche Konkurrenz und Nvidia quetscht die Chips schon in der Serie extrem aus. Ein längerer Benchmarkbalken verkauft sich am Ende des Tages besser als Effizienz. Also trimmt Nvidia die Karten genau darauf. Maximale Leistung bei untergeordneter Effizient. Sie möchten Ihre Marktstellung nicht gegen AMD verlieren.

Pascal selbst war deutlich weniger beeindruckend als Turing, wenn man sich mal die Features anschaut, die alleine damit gekommen sind. Pascal wirkt retrospektiv aber als super toller Schritt, weil Pascal über so eine lange Zeit mit abstand die schnellste Architektur war und sich bei der Konkurrenz erlauben konnte die Chips mit wenig Takt zu verkaufen, während AMD die eigene GPUs sehr prügeln musste, damit sie nicht zu sehr den Anschluss verlieren.
 
netbuster21 schrieb:
Wenn ich mir die Gerüchte aus Moores Law anschaue, dann wird das eine ganz vermurkste nächste Generation.


Nvidia nur konkurrenzfähig über wesentlich höheren Energieverbrauch (und Speicher?).

Anhang anzeigen 1205156

Wobei wir hier über Gerüchte reden. Auch erscheint mir der Speicher bei AMD unrealistisch klein. Nvidia hat wohl das bessere Speichermanagement, aber die sollen jetzt mehr Speicher als AMD raushauen? Auf der 7800 und 7700 jeweils weniger Speicher und Speicherbandbreite? Wenn dann müsste es eine andere Lösung wie 3D Cache oder so geben, der dass kompensiert.

Der Anstieg bei AMD wäre ja insgesamt noch gering. Bei AMD ist die Spanne mit 100w teilweise auch sehr groß. Ich bin echt mal gespannt, wie die Generation wird. Anscheinend steigt die Leistung ja schön.
Bei dieser Tabelle wäre die RTX 4070 ja noch attraktiv.

Es soll aber bereits eine EVGA-Tabelle geben, da sehen die PLs ganz anders und viel höher aus:

**90 PG139-SKU310, AD102-300, 24G 24Gbps, 600W;
**80 PG139-SKU330, AD102-200, 20G 24Gbps, 500W;
**70 PG141-SKU310, AD104-400, 12G 24Gbps, 400W
 
So lange ist es noch gar nicht her, da wurden die einzelnen Lager für einen stark höheren Verbrauch (oder einfach einem schlechten Produkt) regelrecht zurecht gewiesen.......jetzt auf einmal ist das alles völlig egal, genauso egal wie drei- bis vierfache Hardwarepreise. Und wer diese tolle Entwicklung an Hardware und am Markt nicht gut heißt, dem wird über den Mund gefahren, in einer Art daß man einfach nur noch im Strahl kotzen möchte.

Dabei kann ich mir nicht einmal ansatzweise erklären wo diese regelrechte Hirnlosigkeit so plötzlich an Fahrt aufgenommen hat. Natürlich hat man im Enthusiasten-Bereich schon immer gern versucht elitär rüber zu kommen, aber diese mittlerweile erreichte Lächerlichkeit hat man dann doch nie angenommen.......es war immer ein großer Unterschied zwischen kaufe ich mir ein Top-Produkt X zu ausgeschriebenem Preis Y und einem kaufe ich mir ein Pseudo-Top-Produkt X zu einem völlig überteuerten Preis Y, diese Grenzen existieren nicht mehr.

Wer nicht sofort den Geldbeuten auf den Tisch knallt für eine 600W 2000€ Grafikkarte, der wird mit sofortiger Wirkung zu einem mittellosen Weltbildverdreher einer ominösen fremden Zielgruppe degradiert........es spielt überhaupt keine Rolle ob man finanziell absolute Freiheiten genießt und man solche Dinge einfach hinterfragt.
Man kann zwar nicht absehen wohin diese Entwicklung in der Technik weiter führt, aber man kann definitiv jetzt schon traurig erkennen wie widerwärtig gewisse Verhaltensmuster sich entwickeln.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nick.Bo und Qualla
Zwirbelkatz schrieb:
Konsumverzicht in der Dekadenz-Oberliga etwa?

Ja, Konsumverzicht z.B. Entweder sich so eine Karte komplett verkneifen oder mal schauen, wo man Geld für "nichts" zum Fenster raus wirft. Als ehemaliger Raucher kann ich ein Lied davon singen, an einem Partywochenende gingen locker zwei Schachtel drauf, unter der Woche noch eine. 15€ pro Woche nur für Kippen, 780€ im Jahr. Davon kann man easy eine 4090 und den notwendigen Strom dafür finanzieren.

Das ist es halt, was mich irritiert, warum ich hier mitschreibe, obwohl ich mir niemals eine Karte in dieser Region kaufen würde. Während das von vielen als pure Verschwendung und Dekadenz angesehen wird, sehe ich im Real-Life ganz normale Leute, die deutlich mehr Geld und Energie für (aus meiner Sicht) viel nebensächlichere Dinge verschwenden.

netbuster21 schrieb:
Wenn ich mir die Gerüchte aus Moores Law anschaue, dann wird das eine ganz vermurkste nächste Generation.
Also eine 4070 mit 16GB und 250Watt oder eine RX7800 mit 250Watt (12GB ggf. etwas zu wenig) würde ich als Ersatz für meine 1080 nehmen, wenn der Preis nicht zu absurd wird und akzeptable Mehrleistung erreicht wird.
Eine 4060 sieht auch interessant aus. Eine 4050 gibt es ggf. auch noch.

Was man vermutlich beobachten kann, ist das zusammenschrumpfen des untersten Segments. Da lohnt sich eine dedizierte Karte immer weniger, da ist eine APU wohl die bessere Lösung.
 
Naicon schrieb:
Investition für die kalten Wintermonate.
Bei den Gas/Öl-kosten vielleicht keine schlachte Idee. Mit einer Custom-Wakü die durch den Warmwasserboiler geht hat man auch gleich warmes Wasser. Abolutes Win/Win lol :D
 
Für mich klingt das nach doppelter Leistung bei doppeltem Stromverbrauch. Eventuell bisschen schneller pro Watt im Durcvhschnitt als Ampere.

Also ich seh da keinen Kaufgrund für die 4x Generation. Wer gerne unter 200 Watt bleiben würde kann wohl aucvh bedenkenlos bei der aktuellen Generation bleiben.
 
Wenn Geld keine Rolle spielt kann man vieles bauen und verkaufen.
Und sei es noch so verschwenderisch oder überdimensioniert.
Es gibt scheinbar auch genügend Abnehmer dafür.

Was mich aber etwas stört ist dass scheinbar jegliche Leistungssteigerung durch irgendetwas sofort wieder aufgefressen wird.
Meist duch miese Software oder höhere Auflösungen usw.

Und bei den APUs tut sich so gut wie gar nichts, sofern man überhaupt noch etwas (einigermaßen bezahlbares) kaufen kann.
 
Thepunisher2403 schrieb:
1. Der Strompreis ist von Region zu Region vollkommen unterschiedlich....
(bei uns in Franken is die N-Ergie immer noch bei 27ct/kwh
28 ct ist in Westfalen auch normal. Hätte nicht gedacht, dass die Preise regional so unterschiedlich sind. 44 Cent als Minimum kann ich kaum glauben.

Aber man muss auch bedenken, dass Deutschland definitiv nicht der Nabel der Welt ist.
Ich zahle momentan ca. 14 ct/kwh und es gibt noch viele Länder, wo es noch viel weniger ist.
Da beschwert sich die Kundschaft höchstens weil sie ein neues Netzteil braucht. Strompreis ist aber kein Thema und die Klimaanlage läuft eh.

Deswegen muss man den Trend nicht gutheißen, aber der Aufschrei ist global weit weniger groß.

Desweiteren muss sich ja sowas niemand kaufen. Es ist ja nicht so, dass die neueren Architekturen ineffizienter werden. Sind die Karten weit vom Sweetspot getaktet und sind deshalb ineffizient, kann man ja selber die TDP begrenzen. Ja, suboptimal aber irgendwo auch kein Problem. Generell kann man ja auch eine Etage tiefer ins Regal greifen. Muss ja nicht zwingend das schnellste sein. Würden die Hersteller den größten Chip weglassen, wäre doch auch nichts gewonnen.
Wichtig ist die Effizienz. Und da werden die neuen Karten besser dastehen. Erst recht, wenn man diese dann auf vernünftige Taktfrequenzen setzt
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Roy Schwarz und calippo
cbtestarossa schrieb:
Was mich aber etwas stört ist dass scheinbar jegliche Leistungssteigerung durch irgendetwas sofort wieder aufgefressen wird.
Meist duch miese Software oder höhere Auflösungen usw.

Ist für mich der Hauptgrund, warum ich noch mit der 1000er Generation unterwegs bin. Richtigen grafischen Mehrwert sehe ich in den letzten Jahren keinen. Klar, im direkten Vergleich und wenn man FPS nebeneinander legt schon, aber z.B. FC6 haut mich nicht komplett aus den Socken im Vergleich zum 10 Jahre alten FC3.

Dieses Jahr mag das ein oder andere Spiel erscheinen, das dann wirklich die nächste Ebene erreicht, die Unreal Engine 5 sorgt ggf. für den nächsten Sprung. Mal sehen, wie das alles in Zukunft skaliert und welche Kosten für welchen Mehrwert entstehen.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz und Roy Schwarz
Wintermute schrieb:
dann muss man wohl selbst die Leistungsaufnahme ein wenig reduzieren und fährt ganz gut auf 90% der Performance bei deutlich weniger Verbrauch, Lastspitzen und Abwärme.
Ja, gute Idee: für 100%(+) kaufen und dann 90% der Performance abrufen um die Leistungsaufnahme zu reduzieren. Deshalb fahre ich auch immer mit meinem Ferrari zum Einkaufen.

Grimba schrieb:
Selbst Intel hat erkannt, dass man nicht einfach mehr Kohlen ins Feuer wirft für mehr Leistung, aber das mussten sie auch wegen Konkurrenzdruck. Bei GPUs gehen sowohl AMD als auch Nvidia derzeit anachronistische Wege. So kommt es mir zumindest vor, was natürlich Laienwissen ist, da ich kein Chip-Ingenieur bin.
Ich bin mir nicht sicher worauf du dich da bei Intel beziehst, deren GPUs sind im Moment schwächer als die neuen China clone GPUs inkl. CUDA support.
Bei CPUs haben sie auf jeden Fall absolut nichts gelernt und die Brechstange sogar noch weiter verschlimmert. Siehe bspw. erst kürzlich auch auf CB: https://www.computerbase.de/2022-03...uer-5.5-ghz-auf-zwei-kernen-dank-tvb-und-abt/
Daher in Zukunft gern derartige Aussagen mit Quellen belegen.

IsaacClarke schrieb:
Der Trend geht beim Verbrauch in die völlig falsche Richtung, zumindest übertreiben sie es unnötig deutlich beim anstieg, bessere Fertigungen können scheinbar den Mehrverbrauch auch nicht mehr spürbar bremsen.

Kein wunder das Untervolten das neue Übertakten ist.

Wird Zeit das man auf mehrere kleine effiziente GPU-Kerne setzt, so ähnlich wie bei CPUs, und auch mehr Cache einbauen.
Nein. Der Trend geht nicht in die falsche Richtung denn du verwechselst die Begriffe.
Verbrauch =! Effizienz.
Was hindert dich bspw. daran auf einen Raspi alte Pixel-Spiele zu zocken? Wenn du Titel erleben möchtest die eben einen Anspruch an die Leistung aufweisen dann hast du die Wahl darauf einzugehen oder nicht. Du kannst ja auch eine entsprechend kleinere GPU kaufen, bspw. eine 4050.
Anderes Beispiel zum Verbrauch: Wen interessiert dass ein LKW mehr Sprit verbraucht als ein PKW wenn die Effizienz, bezogen auf Nutzlast z.B. um ein vielfaches höher ist? Wenn du selbst keinen Bedarf an riesen Zuladung hast kaufe einen PKW. Wenn du riesige Paletten verfrachten musst kaufe einen LKW. Das hat mit dem Verbrauch exakt gar nichts zutun sondern mit den Anforderungen. (Bspw. weiter: Geländetauglichkeit, Steigungen bei bergigem Gelände etc.)

Der "Trend" geht eher in die Richtung "As A Service" anzubieten. Wirklich effizient lässt sich Hardware zukünftig nur bei entsprechender Skalierung nutzen, also bspw. im Rechenzentrum und dann entsprechende Service-Layer auflegen die freie Ressourcen.

Warum sollte in bspw. 10 Jahren jeder einen PC mit quasi Supercomputer-Leistung benötigen? 90% der Zeit steht er sowieso ungenutzt in der Ecke.
Private Rechner mit Top-Leistung werden unfinanzierbar und ineffizient sein, es sei denn man schafft damit gewerblich.
 
  • Gefällt mir
Reaktionen: Wintermute
wern001 schrieb:
Wie es mit einem Ersatz für Kupfer das den Strom besser leitet und keine wärme erzeugt (Supraleiter).
Wäre schön, technisch es es allerdings nur mit sehr hohem Druck oder über sehr niedrige Temperaturen möglich nenn Supraleiter auch als solche einen zu betreiben.

Manche User ziehen die Schrauben von CPU Kühler mit Gewalt an, aber auch das, so fürchte ich, genügt nicht für einen entsprechenden Leiter 😅🤣
 
Zurück
Oben