News RTX 4080, 4080 Ti & 4090: Die Gerüchteküche spricht von einer TGP von bis zu 850 Watt

Merkwürdige Entwicklung. Ob es 850W werden sei mal dahin gestellt. Dass es nochmal ordentlich mehr als jetzt wird ist denke ich gesichert. Aber was soll das. In Servern mag das okay sein. Wenn die Leistung pro Watt ansteigt. Aber für einen Endanwender fürs Hobby zum Zocken in der aktuellen Situation?! Neben des mangels und ihnehin absurder Preise geht die Materialschlacht munter weiter. Netzteile und Kühlung treiben die Kosten weiter. Dann noch letztendlich fie Verbrauchskosten, Strom. Grafikkarten werden damit immer mehr ein Luxusgut für Reiche. Aber sägt nvidia nicht am eigenen Ast? Okay einige gehen in Richtung Cloud-Gaming. Viele werden sich Konsolen holen und dort steckt erstmal AMD drin. U.a. wegen so etwas wird zeitgenössisches Gaming für mich persönlich immer uninteressanter.
 
  • Gefällt mir
Reaktionen: Demiales, BigMidiTower, Otto24 und 6 andere
Bei solchem Verbrauch und den immer weiter steigenden Strompreisen ist es bald vielleicht echt günstiger, sich einen Cloud-Gaming-Zugang zu mieten.

Ich meine wenn man jetzt ganz konservativ von durchschnittlich 4 Stunden pro Tag Gaming mit voller Power ausgeht, alle Komponenten im Schnitt zusammen angenommen ca. 900W ziehen, sind wir beim aktuellen Strompreis jenseits der 400€ im Jahr allein für den PC-Betrieb. Xbox Cloud Gaming kostet hingegen gerade mal knappe 160€ im Jahr und hat eine große Menge an Games bereits inkludiert...
 
  • Gefällt mir
Reaktionen: Burfi, ro///M3o, Wow4ikRU und 10 andere
Grundsätzlich finde ich die Richtung in die der Stromverbrauch geht auch nicht gut.

Aber die Grafikkarten erschließen halt Möglichkeiten die es bisher so nicht nicht gab oder gibt.
Also immer mehr in Richtung 4k mit 144hz und Raytracing in Ultra und/oder reserven für die Zukunft.
Für alle die es sich leisten wollen und können.
Rein mit mehr Leistung pro Watt und besseren Fertigungsverfahren wären diese Ziele in naher Zukunft nicht erreichbar. Da würde man noch viele Jahre brauchen.
Wie soll man sie also kurzfristig erreichen wenn nicht mit großeren Chips und mehr Stromverbrauch?

Solange es dann halt noch die vernünftige Mittelklasse gibt mit "normalem" Stromverbrauch und guter Leistung für WQHD oder Full-HD, können doch alle glücklich werden. Vorausgesetzt es gibt diese Mittelklasse natürlich (den aktuellen GraKa Markt mit den Preisen jetzt mal aussen vor gelassen).

Wie gesagt, das sind Grafikkarten nur für Leute die es sich leisten können und wollen.
 
  • Gefällt mir
Reaktionen: Lübke82, drmaniac und Zockmock
Das würde mich mit meinem 650W-Netzteil wohl bestenfalls auf eine 4070 und kleiner beschränken.

Und ja, ich könnte mir ein neues Netzteil anschaffen und das wäre angesichts der Kosten für die Grafikkarte nicht mal ein wirklich relevanter Aufpreis, aber ich will das aus Prinzip nicht. Irgendwo muss die Vernunft auch mal eine Grenze setzen.
(Außerdem würde wohl auch mein Gehäuse kühlungstechnisch an seine Grenzen kommen. Das ist nicht gerade ein Airflow-Monster.)

Früher hatte ich nur eine "Vernunft-Preisgrenze" für High-End, jetzt kommt die "Vernunft-Verbrauchsgrenze" hinzu, die mich wohl in Zukunft auf Mittelklasse-Karten beschränkt.

Diesen Trend zu explodierenden Verbrauchswerten hatte ich echt nicht vorhergesehen.
 
  • Gefällt mir
Reaktionen: Clark Griswold, PrimusFighter, Arzuriel und 22 andere
Dieser angepeilte Stromverbrauch ist vollkommen übertrieben. Aber dann kaufe ich Mittelklassekarten... auch für die Umwelt mitgedacht.
 
  • Gefällt mir
Reaktionen: Ulvi, Pro_LamerEX, Sulforia und 7 andere
SV3N schrieb:
für die kommenden Nvidia GeForce RTX 4080, 4080 Ti und 4090 eine TGP von bisher ab Werk nie dagewesenen 450 bis 850 Watt.

Spätestens jetzt bin ich raus....
 
  • Gefällt mir
Reaktionen: Clark Griswold, Arzuriel, RaptorTP und 13 andere
Also waren die Spekulationen der Leistungssteigerung um den Faktor 2 - 2,5 bei der RTX 4000 Generation gar nicht auf die Rechenleistung, sondern auf den Verbrauch bezogen :D
 
  • Gefällt mir
Reaktionen: Burfi, Pro_LamerEX, Sturmflut92 und 45 andere
Würde ne 4090 Ti direkt Kaufen, da meine 3090 inkl 5950X immer noch viel zu langsam für 4K ist!
Daher wird es wohl oder übel nicht anders gehen ohne an der Watt schraube zu drehen.

Verstehe jedenfalls die Aufregung jedes mall nicht, ist doch keiner gezwungen das "Top" Modell zu Kaufen.
Rege mich ja auch nicht auf das ein Sportwagen 15-20L Super Plus verballert...sowas weiß man doch vorher wenn man sowas kauft!?

Zahle mittlerweile für das System 80 - 100€ Strom im Monat, was bei ner 4090 Ti dann vielleicht 20€ mehr wären...wenn dann aber die Leistung stimmt gerne her damit!

Ich denke man muss immer den Einzelfall betrachten, 3070,3080,3090er Karten sind meiner Meinung nach eh nicht für die "Breite Masse" gedacht und wenn ich da meine anderen Hobbys wie Meerwasser oder Fotografie sehe, wo laufende Kosten von 250€ + im Monat sind ist "PC Gaming" wirklich günstig und ein Witz dagegen.

Aber kommt wie gesagt immer auf den Einzelfall an...

Zum Thema Klima, joa Brauchen wir denke ich gar nicht drüber reden, selbst mein Rechner der fast 24std Läuft ist ein Tropfen auf den Heißen Stein, wenn wir das Große ganze Betrachten!

Von daher würde ich mich in meinem Fall auf eine 4090 Ti freuen wenn die Leistung dazu passt!
Kann aber auch andere verstehen die sagen "Nö das ist es mir nicht wert" - einfach ein zwei Klassen runter von der Graka oder neues Hobby am Ende!

Jeder wie er mag und kann, aber nicht immer direkt alles verurteilen nur weil es aus eigener Sicht nicht "Richtig" ist...:):schluck:
 
  • Gefällt mir
Reaktionen: Clark Griswold, ben12345, drunken.panda und 14 andere
Dann bringt es auch nichts, wenn man für ein Grafikkartenupgrade vorsorglich ein Netzteil mit 750 Watt genommen hat. Da braucht man jetzt eher 1000 Watt oder besser 1200 Watt.

Als Freund von effizienter und unhörbarer Hardware muss ich dann wohl am unteren Ende zugreifen. Ich würde mir eine Verdoppelung der Leistung meiner GTX 1070 mit 16 GB VRAM und einer Leistungsaufnahme unter 150 Watt wünschen.
 
  • Gefällt mir
Reaktionen: RaptorTP, Otto24, h2f und 2 andere
Balikon schrieb:
Wieso regen sich alle hier auf?

Weil das (im privaten Umfeld) einfach absurd ist.

Das sind Geforce Karten, die hauptsächlich zum Zocken gedacht sind, und da ist es einfach -RT hin oder her- die vollkommen falsche Richtung.

Es gibt Niemanden, der dir oder sonst irgendwem vorschreibt, wie viel Grafikleistung 'nötig' ist, aber die Spiele werden auf einem 1000 Watt Rechner nicht 5 mal besser aussehen, als auf einer XBOX/PS5.

Das ist spätestens dann auch nicht mehr für das durchschnittliche CB Publikum gemacht, sondern für ein paar wenige Enthusiasten; das sollte @CB mMn auch so formulieren und in Tests klar machen.

XPS schrieb:
Zum Thema Klima, joa Brauchen wir denke ich gar nicht drüber reden, selbst mein Rechner der fast 24std Läuft ist ein Tropfen auf den Heißen Stein, wenn wir das Große ganze Betrachten!

Sorry, aber das ist immer ne ganz billige Nummer um sich seiner Verantwortung zu entziehen. 'Aber die anderen sind ja noch viel schlimmer...'

Stimmt zwar, ändert aber nichts daran, dass es schlecht ist.

Nur weil du mir nicht auf den Wohnzimmerteppich schei*t, ist es nicht okay, wenn du mir vor die Haustür pinkelst.
 
  • Gefällt mir
Reaktionen: Schattenspender, bullit1, Clark Griswold und 70 andere
kachiri schrieb:
Oder man stampft die Funktion für ein paar Lens Flares einfach ein.
Ich habe noch keine Erfahrung mit RT. Dazu ist meine Hardware zu Antik. Aber selbst ich stelle die altersbedingten Qualitätsunterschiede bei der Spielegrafik fest. Zwar spiele ich viel Retro, aber da muss das Spiel halt schon sehr gut sein, wenn ich entsprechende Grafikabstriche mache.

Ich kann mir nicht vorstellen. dass Leute, die RT erlebt haben, davon wieder wegwollen. @v_ossi Selbst wenn RT im Moment noch keine entscheidende Rolle beim Spieleerlebnis haben sollte - was ja eine individuelle Wahrnehmung ist - wird die RT Uhr nicht mehr zurückgedreht. Und umsomehr RT-Anteil eine Spielegrafik in Zukunft bekommt, desto weniger wird man sich in eine Non-RT-Zeit zurückwünschen.
 
Zuletzt bearbeitet:
Irgendwer lässt nen' Tweet ab, irgendwer anderes dementiert es. Nun gibt's eine News und ne Diskussion... Worüber eigentlich genau? 🤷‍♂️
 
  • Gefällt mir
Reaktionen: bullit1
Crifty schrieb:
Das ist nicht nur erschreckend, sondern auch total unnötig.

Nvidia kann sich bald den Edeka Slogan lizensieren.

„Nvidia, wir lieben hohen Stromverbrauch“ :freak:
Lizenzieren mit z, ist das so schwer?
 
  • Gefällt mir
Reaktionen: Sbibi
Viel Spaß bei den momentanen KW/h Preisen. :D Bei der Leistungsaufnahme würden glaube ich sogar die Miner von fernbleiben. Da würde dann irgendwann das Umspannwek explodieren. :D
 
  • Gefällt mir
Reaktionen: Clark Griswold, Otto24, ed33 und 4 andere
Glaube ich halt nicht. Wieso rasten hier alle so aus?
Wie soll man denn 850w gekühlt bekommen?

Bei 350W rasten die jetzigen Kühler/Lüfter Kombos schon aus.
Oder meint ihr jede Graka wird dann per WaKü angeboten? :D :D

Kann mir vorstellen, dass das wieder Netzteil-Empfehlungen sind, die als "TGP" verkauft werden. Clickbait und so. Aber ja, fangen wir alle an zu weinen und zu schreien.

Bin eher gespannt, wie hoch die Leistung und wie groß der VRAM ausfallen werden. Limitierungen durch Konsolenports sind sicher ein Thema.
 
  • Gefällt mir
Reaktionen: Clark Griswold, gesperrter_User, DeeZi und 4 andere
Kylo Zwähn schrieb:
Die Frage ist halt wie hoch das Leistungsplus gegenüber der jetzigen Generation ist. Wenn das Mal gesponnen +60 - 70% wären, sieht das wieder anders aus. Auch wenn das nicht passieren wird.
Ich tippe halt auf konstante FPS bei deutlich mehr RT-Einsatz.
 
Ich vermute dann mal schlicht das die AMD 6800 die Effizienzkarte bleiben wird.
 
  • Gefällt mir
Reaktionen: ed33, Onkel Föhn und Inxession
Ich habe meine 6800XT deutlich gedrosselt damit ich unter 150W lande da mit 60FPS genügen. Dabei erwämt sich mein Zimmer nach 2h zocken um 2°C. Wenn ich jetzt an 600W denke dann benötige ich schon eine Klimaanlage in meinem Zimmer.

Meine 6800XT MERC 319 hat mit die beste Kühllösung auf dem Markt aber bei 245W drehen die Lüfter dann mal locker bei 1200U/M aufwärts und das hört man dan schon deutlich, da macht das spielen schon keine Spaß mehr. Ich habe die Leistung auf 150W begrentzt und dann die Lüfter auf 900U/M gestellt das ist dann so gut wie nicht mehr zu höhren. Bei der MERC 319 kann man dann die Lüfter im Windows Betrieb ausschalten und wenn man Videos über Youtube in 4K schaut auf 700U/M stellen. Dies ist eine der wenigen Karten wo man die Mindestdrehzahl unter 1100U/M einstellen kann. Jeder der also eine extrem stille Variante sucht liegt hier richtig. Ich bin auch sehr empfindlich auf Spulen Fiepen und wurde bei der Karte nicht enttäuscht.
 
  • Gefällt mir
Reaktionen: Clark Griswold, Rabe04, shark808 und 9 andere
derlorenz schrieb:
Irgendwer lässt nen' Tweet ab, irgendwer anderes dementiert es. Nun gibt's eine News und ne Diskussion... Worüber eigentlich genau? 🤷‍♂️

Über die Vorstellung, dass schnelle Grafikkarten in Zukunft 850 W verbrauchen könnten. Das wäre maßlos teuer und umweltbelastend und schwer zu kühlen. Leistung kann man schon durch Stromverbrauch steigern... aber bei dem hohen Verbrauch kann man schon mal etwas Unmut äußern, vielleicht merken dann die Firmen, dass das nicht so beliebt wäre.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ed33 und Onkel Föhn
v_ossi schrieb:
Das ist spätestens dann auch nicht mehr für das durchschnittliche CB Publikum gemacht, sondern für ein paar wenige Enthusiasten; das sollte @CB mMn auch so formulieren und in Tests klar machen.
Sollte man das nicht wissen, bei Anschaffung einer solchen Karte ? Mir war es jedenfalls klar als ich letztes Jahr nen 5950X und ne 3090 gekauft habe.
hahaqp schrieb:
Als ehemaliger Eigentümer einer HD4870X (ca. 500 Watt) kann ich bestätigen dass man sich im Winter die Heizung definitiv sparen kann, es im Sommer aber echt eklig warm und (war zumindest damals so) laut wird.
Kann ich bestätigen mein Rechner schafft es ohne Probleme einen Raum von 22qm auf 24 - 25c zu Erwärmen, gestern Abend erst wieder bemerkt, im Sommer läuft dafür halt das Klima Splitgerät durch...geht halt nicht anders bei solchen Systemen!
 
  • Gefällt mir
Reaktionen: Clark Griswold
Zurück
Oben