News RTX 4080, 4080 Ti & 4090: Die Gerüchteküche spricht von einer TGP von bis zu 850 Watt

@Ulvi & @Vigilant

Bei meinen Anforderungen fehlt der Preis. Grundsätzlich gebe ich höchstens ca. 400 Euro für meine Grafikkarten aus. Mittlerweile wäre ich auch bereit 500-600 Euro hinzulegen, aber auf keinen Fall 1000 Euro. Dann spiele ich lieber Solitaire.

Die 150 Watt beziehen sich schon auf die Grundeinstellungen der Karte. Meine GTX 1070 zieht mit UV nur ca. 100 Watt. Da sind die Lüfter selbst bei 100% Auslastung permanent unhörbar und die GPU bleibt trotzdem unter 60°C. Mir jetzt irgendeine Karte zu kaufen, die eigentlich deutlich mehr zieht und dann nur gerade so auf die 150 Watt kommt, wenn ich bis ans Limit undervolte, ist eigentlich nicht mein Ziel.
 
@xy1337
Kann ich nachvollziehen. Ich haben mein aktuelles System unter (luftgekühlten) Silent-Aspekten mit ausreichend Leistung für WQHD zusammengebaut. Unter Last ist dann auch nicht mehr als ein Flüstern zu hören.

Weil ich aktuell nicht beabsichtige auf eine höhere Auflösung zu wechseln, hoffe ich, dass die neue Mid-Range-Generation an Leistung zulegt, ohne zu viel zusätzlichen Strombedarf.

Bin gespannt, wie das in der Praxis aussehen wird.
 
  • Gefällt mir
Reaktionen: xy1337
Tom_111 schrieb:
Es wird auch 200W Low End Grafikkarten geben.
Und das wäre für einen Bürorechner? 200W? :lol:
Welches unternehmen mit halbwegs gescheiter IT packt normale Bürorechner mit 200W-Karten voll? vielleicht für Grafik/CAD oder sonstige Workstations..aber doch keine einfacheren Systeme...da sind i.d.R. 50-100W max drin. OK, viele kommen auch teils mit iGPU aus, kenne aber auch noch einige, die kleine dedizierte karten verwenden...

Wenn ich bedenke, dass es noch gar nicht zu lang her ist, dass eine GTX 750Ti mit 75W nichtmal nen PCIe-Stecker benötigte :daumen::evillol::hammer_alt:
 
Tom_111 schrieb:
Es wird auch 200W Low End Grafikkarten geben.
Es geht darum, das die technische Entwicklung auf dem Holzweg ist.
Nur damit Gamer-Enthusiasten ihren optischen Spielspaß haben, wird für Unterhaltungszwecke übermäßig viel Strom verbraucht, um die gefakte Mega-Ultragrafikdarstellung auf den bald 8K Monitoren ruckelfrei darzustellen zu können.
Dies gilt übrigens nicht nur für PC-Spiele, sondern auch für das Filmstreaming, wo die Auflösungen steigen und damit auch mehr Strom und mehr Hardware-Ressourcen verbraucht werden.
Kryptowährungen lassen mich ebenfalls an der Menschheit zweifeln.
Aus purer Hab- und Geldgier wird mit diesem Dreck ohne Ende rund um die Uhr Strom verprasst, es werden Ressourcen innerhalb kurzer Zeiträume verschlissen und verbraucht.
Für mich hört hier dann die persönliche Freiheit des Einzelnen definitiv auf, wenn sie durch solche Handlungsweisen aus niederen Beweggründen die Allgemeinheit bewusst und willentlich schädigt!
Die Zeiten der maßlosen Verschwendung sind endgültig vorbei.
Ich z. Bsp. bin bewusst und freiwillig von 2K wieder zurück auf FHD gewechselt, weil ich dadurch eine stromsparende Mittelklasse-Grafikkarte verwenden kann, die unter Volllast max. 75 Watt verbraucht, weil ich erkannt habe, dass ich Spielspaß auch mit geringerer Auflösung und weniger Stromverbrauch haben kann, das schliesst sich nämlich nicht aus.
Meiner Meinung nach sollte man diejenigen, die viel fossile Rohstoffe und viel Energie verbrauchen steuerlich/abgabenmäßig stark belasten und diejenigen, die bewusst einsparen, steuerlich oder per Bonus stark entlasten.
Mit Vernunft, gesundem Menschenverstand und auf freiwilliger Basis ist ja bei den meisten Menschen nichts zu erreichen, dann muss es eben über den eigenen Geldbeutel geregelt werden, wenn die Einsicht fehlt.
Das wäre mehr als fair und gerecht.
Wer verprasst, bezahlt dafür überpropotional viel Geld aus eigener Tasche, wer einspart, wird überproportional entlastet.
Das würde auch zielgerichtet sein, weil global betrachtet bekanntermaßen wohlhabende und reiche Menschen mehr fossile Rohstoffe und Energie verbrauchen, als arme Menschen, weil sie sich ihren hohen Verbrauch leisten können und keine Rücksicht auf ihren Rohstoff- und Energieverbrauch nehmen.
Es hat auch nichts mit „Neid“ zu tun, wenn man eine gerechtere Regelung fordert, welche die Verprasser zur Kasse bittet.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: voodoo44, M@tze, Vigilant und eine weitere Person
@Vigilant

Ich bin von der GTX 670 auf die GTX 1070 umgestiegen. Ich habe also zwei Generationen übersprungen. Das heißt, es wäre in der nächsten Generation wieder ein Upgrade fällig. Aber ich sehe aktuell zum gleichen Preis keine Mehrleistung gegenüber der GTX 1070.

Damals sah es in etwa so aus:
  • FPS +80% (Mittlerweile deutlich mehr, durch den größeren VRAM)
  • VRAM +300% (von 2GB auf 8 GB)
  • Leistungsaufnahme -15% (von 175 Watt auf 150 Watt)
  • Preis -10% (404 Euro für die GTX 670 und 360 Euro für die GTX 1070)
Selbst wenn ich aktuell die UVP heranziehen würde, wäre es höchstens eine 3060ti. Da hatte ich mehr Leistungsaufnahme, keine Verbesserung beim VRAM und ca. 50% Mehrleistung. Ich hoffe bei der nächsten Generation ist etwas für mich dabei.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Vigilant
Also wenn man gescheit programmiert und dies mal optimieren würde, könnte man sicherlich die ansteigenden Auflösungen etwas kompensieren. Ich sehe oft eh kein großen unterschied, aber ich stell mir auch keine 3 55" Monitore vor die Nase:evillol:
Auch bei den TV´s sehe ich selbst bei 4K-Material kaum unterschiede auf meinen TV´s (32" FHD vs. 43" UHD", aber ich betreibe, wie man sieht, auch kein Heimkino mit Mega-Diagonale :freak::daumen: mir kommt das bild auf dem kleinen FHD manchmal angenehmer vor...😉 (P.S. Natürlich auch bei UHD/4K-Quellen, die anderen SD-Quellen sehen bei beiden relativ aus)
 
Vigilant schrieb:
Eine 3070 verbraucht mit 900mV bei 1.920Mhz Takt ca. 160 Watt. Ohne Undervolting sind es bis zu 240 Watt, ohne signifikanten Leistungszuwachs.
In welchem Spiel denn? Auflösung? Fps?
Die 3080 12gb, die ich hier hatte hat zB bei 0.9v/1920mhz in God of War 330-350w gezogen. In Forza Horizon 5 sinds nur ca. 220w.

3840x1600, 144hz, fps schwanken zw 90-130.

Eine 3070 verhält sich da "ähnlich" je nach Modell. Da hast in God of War oder Superposition Benchmarks etc. nicht nur die genannten 170w, sondern gehst direkt ins Power Limit.
 
Vigilant schrieb:
Bspw. Cyberpunk 2077, WQHD, RT, 50-80 FPS je nach Gegend.
Hängst du im CPU Limit? Od DLSS komplett hoch etc?

Gegenteste wenn möglich mit God of War maxed out und DLSS Quality :D

Oder eben Superposition 8k Optimized oder so.

Kommt immer aufs Spiel etc. an 👍
 
Caramelito schrieb:
Hängst du im CPU Limit? Od DLSS komplett hoch etc?
Nö, die einzelnen Cores liegen bei 40-78% Auslastung. Klar ist DLSS aktiv (ausgeglichen). Ohne bekommst Du RT Ultra ja auch nicht ans Laufen :-).

1647333980800.jpeg
 
Vigilant schrieb:
Nö, die einzelnen Cores liegen bei 40-78% Auslastung. Klar ist DLSS aktiv (ausgeglichen). Ohne bekommst Du RT Ultra ja auch nicht ans Laufen :-).

Anhang anzeigen 1197423
Muss ich bei mir mit CB gegentesten.

Habe aktuell sonst nur Forza 5 und God of War gespielt. knapp 150w Differenz zw. den Spielen ^^
 
Wie gut das die meisten hier keine neue Nvidia kaufen -> Listenpreis für mich.
 
wenn du den LP von den 4000er meinst!? Die werden sicher nochmal ne ecke nach oben korrigiert :D
ja und wenn ich meine 3060ti behalte reicht es ja angesichts des Marktes die nächsten 1-2 jahre locker aus...
 
BigLA schrieb:
wenn du den LP von den 4000er meinst!? Die werden sicher nochmal ne ecke nach oben korrigiert :D
ja und wenn ich meine 3060ti behalte reicht es ja angesichts des Marktes die nächsten 1-2 jahre locker aus...
Teurer wie die Resell Preise vor einigen Monaten werden auch die nicht werden.
 
Diese Watt-Spirale ist doch kompletter - nicht nur ökologischer - Wahnsinn! Ich hatte bis vor 2-3 Generationen NVIDA so verstanden, dass sie an der Effizienz arbeiten und nicht am Stromverbrauch.

Da sollten mal alle Hersteller einen Schritt zurückgehen, gucken was sie da machen - und sich gemeinsam darauf einigen (und wenn das nicht geht dann halt regulatorisch z.B. EU-weiter Max-Watt-Verbrauch je Rechner), einen anderen Weg zu gehen.

Dann muss man halt noch ein paar Jahre mehr warten, bis Echtzeit-Fotorealismus möglich ist - zu vertretbaren Watt-Kosten.
 
BigLA schrieb:
Und das wäre für einen Bürorechner? 200W? :lol:
Welches unternehmen mit halbwegs gescheiter IT packt normale Bürorechner mit 200W-Karten voll? vielleicht für Grafik/CAD oder sonstige Workstations..aber doch keine einfacheren Systeme...da sind i.d.R. 50-100W max drin. OK, viele kommen auch teils mit iGPU aus, kenne aber auch noch einige, die kleine dedizierte karten verwenden...

Wenn ich bedenke, dass es noch gar nicht zu lang her ist, dass eine GTX 750Ti mit 75W nichtmal nen PCIe-Stecker benötigte :daumen::evillol::hammer_alt:
200W ist für einen Gaming-Rechner. Für einen Bürorechner reicht die iGPU.
 

Zufällig gesehen der Jump zum Pc Verbrauch von der Series X 170Watt zu knapp 600Watt musste an diesen Thread denken. Bald 800 Aufwärts. 4 mal mehr ein paar unnütze fps und Auflösung :kotz:
:lol:
Wahnsinn
 
Pchelp88 schrieb:

Zufällig gesehen der Jump zum Pc Verbrauch von der Series X 170Watt zu knapp 600Watt musste an diesen Thread denken. Bald 800 Aufwärts. 4 mal mehr ein paar unnütze fps und Auflösung :kotz:
:lol:
Wahnsinn
Nicht Wahnsinn, das ist Blödsinn, was du erzählst.
Ein PC braucht keine 600W unter Gaming-Last. Ich schau nachher mal nach, was er bei Call of Duty WWII zieht.
Und das RTX 4000 850W ziehen soll, halte ich für stark übertrieben. Das ist doch Unsinn.
 
Zurück
Oben