News GeForce RTX 4000: Nvidia will es bei Lovelace noch einmal klassisch wissen

Man wird auch mit "wenig" Grafikspeicher alles Spielen können. Die Optimierung des Speicherverbrauchs seitens der Spiele wird dann einfach so aussehen, dass die Texturen dynamisch in unterschiedlichen Detailstufen geladen werden. Das Spiel läuft dann prinzipiell auch mit 6-8GB, die Entfernung ab der die geringer aufgelösten Texturen genutzt werden, ist dann halt nur kleiner. Das Nachladen/Wechseln auf die Highres-Textur ist dann deutlicher wahrnehmbar, weil nicht so viel Highres-Texturen im Speicher gehalten werden können.
 
  • Gefällt mir
Reaktionen: lnnz
ArrakisSand schrieb:
Eine solche Karte kauft man sich doch nicht nur für den Moment wir sind doch keine Eintagsfliegen, sondern die Meisten wollen diese dann auch ein paar Jahre behalten und da wird sie gnadenlos wegknicken sobald die ersten Spiele kommen werden die Gebrauch von den neuen Fähigkeiten der PS5 / XBOX series s/x machen.
Besonders bei Gebrauch der neuen Fähigkeiten der XBOX Series S mit ihrem Gesamtspeicher von 10 GB... da wird ein PC-System mit 16 oder 32 GB Hauptspeicher + 10 GB Grafikspeicher im Vergleich gnadenlos wegknicken. ;-)
 
  • Gefällt mir
Reaktionen: Cyberbernd
rentex schrieb:
Hauptsache alles in einen Topf schmeissen🙄
Bei Stromkosten könnte ich dir die Ohren langziehen, glaubt man ja nicht.
Vor allem bei den Stromkosten. Die werden weiter steigen und steigen...
Aber hey, man kann sich schon mal über immer höhere Lebenshaltungskosten lustig machen...
 
Zuletzt bearbeitet von einem Moderator:
Habe erst kürzlich vor Release der Ampere Gen das Netzteil von 550W auf 750W aufgerüstet, werde das so schnell nicht nochmal upgraden.

Wenn ich die evga 3080 FTW3 saufen lasse, zieht die auch ihr 430W. Das ist zwar noch irgendwie kühlbar, mir persönlich aber zu laut.
Würde ab dem Wattverbrauch auch ehr zu AIO oder gleich Custom-Loop greifen.
Hach wie schön war die 1080 ti mit ihren aus heutiger Sicht genügsamen 280W.
 
  • Gefällt mir
Reaktionen: Klever
Hi-Fish schrieb:
Bei welcher Auflösung? Meine 3070 FE braucht beim Spielen @ WQHD und ~97% Last unter 200W, selten geht sie dabei mit 204W knapp über die "normalen" 197W....
Asus TUF Gaming RTX 3070 8G OC mit 1440p
Ergänzung ()

Klever schrieb:
@Blumentopf1989

Das erwarte ich auch, eine AiO Lösung im Angesicht des Verbrauchs von >400 Watt wäre da ziemlich effektiv.
Die Güte und Lautstärke der Pumpe wird da aber vom Hersteller abhängen, wird wohl schlechtere und bessere geben wie bis jetzt auch.

Dass die alle im Idle unangenehm sind, kann ich für mich nicht bestätigen, bei mir werkelt eine 2080 Ti mit AiO-Kühlung von Arctic und die Pumpe ist da in Idle für mich so gut wie unhörbar und nicht störend.

Ich bin da extrem empfindlich, mein Gehör ist auch deutlich besser als der Durchschnitt laut HNO. Ich höre Pumpen die sonst als quasi lautlos beschrieben werden.
 
JMP $FCE2 schrieb:
Mehr Leistung brauche ich nicht, weil mir der 4k-Hype am A... vorbeigeht. WQHD 144Hz reichen mir voll und ganz, und auch noch mit gut implementiertem DLSS 2.0.
So denke ich auch aber wenn ich Cyberpunk sehe kröst da selbst meine 6900XT mit gerade einmal rund 80 fps @wqhd rum.

Neuere Spiele werden ja jetzt nicht anspruchsloser.
 
  • Gefällt mir
Reaktionen: BorstiNumberOne
Jetzt finde ich es eigentlich gut, daß NVIDIA wichtige Mathematiker ehrt, in dem sie ihre GPU Generationen nach diesen benennt. Wenn ich mir aber dem Stromverbrauch dieser Teile so angucke, wäre " Powerhog" doch etwas ehrlicher 🙂
 
DerHechtangler schrieb:
Vor allem bei den Stromkosten. Die werden weiter steigen und steigen...
Aber hey, man kann sich schon mal über immer höhere Lebenshaltungskosten lustig machen...
Wer macht sich über höhere Lebenshaltungskosten lustig?
 
tackleberry schrieb:
Für die PS5 kann man da sicher auch nen Mining Client schreiben. Wundert mich, dass es sowas noch nicht auf Github gibt.

solange man die kiste nicht rootet, damit die auch code ausführt, der nicht von sony signiert ist, passiert in der richtung gar nichts ;).
 
Das hört sich alles so ernüchternd an, auch wenn die Perf/Watt steigen sollte.
Ich war schon mit meiner alten Mühle damals ( r5 2600, rx 580 pulse) bei guter Auslastung von der Hitze genervt. Wobei das gesamte System ca auf ca 250-300 Watt kam.
Hier sprechen die nur bei der GPU von über 400 Watt. Die Stromrechnung macht mir da nicht wirklich sorgen (Umwelt ausgenommen), aber die Hitze...

Xbox Series X und Steam Deck wird es.
Valve ist anscheinend gar nicht mal so blöd, die werden einige Kunden wie mich auf die Art abfangen.
 
Cohen schrieb:
Besonders bei Gebrauch der neuen Fähigkeiten der XBOX Series S mit ihrem Gesamtspeicher von 10 GB... da wird ein PC-System mit 16 oder 32 GB Hauptspeicher + 10 GB Grafikspeicher im Vergleich gnadenlos wegknicken. ;-)
Na ja, für die XBOX Series S (notabene eine 1080p Konsole) mit ihrer UVP von 299€ wird es zu Beginn dieses Konsolenzyklus wohl noch knapp reichen.
Aber ist das wirklich dein Anspruch den du an eine 720€ UVP (Strassenpreise >1200€) Grafikkarte stellst?
1080p wirklich?
 
mibbio schrieb:
Man wird auch mit "wenig" Grafikspeicher alles Spielen können. Die Optimierung des Speicherverbrauchs seitens der Spiele wird dann einfach so aussehen, dass die Texturen dynamisch in unterschiedlichen Detailstufen geladen werden. Das Spiel läuft dann prinzipiell auch mit 6-8GB, die Entfernung ab der die geringer aufgelösten Texturen genutzt werden, ist dann halt nur kleiner. Das Nachladen/Wechseln auf die Highres-Textur ist dann deutlicher wahrnehmbar, weil nicht so viel Highres-Texturen im Speicher gehalten werden können.
Naja, ich finde aber, dass gerade die Texturen und die Details sowie deren Sichtweite mit am meisten in die optische Gesamtqualität reinspielen. Zumal höher aufgelöste Texturen auch kaum GPU-Performance kosten, sondern eben eher nur VRAM.
Ich würde lieber "zu viel" als zu wenig VRAM nehmen und dafür über die gesamte Nutzungszeit der GraKa zumindest die Texturen immer in bester Quali zu haben.
Hab mich 2012 für eine Radeon HD 7870 XT entschieden - im Prinzip fast 1:1 eine 7950 aber mit nur 2 statt 3 GB. Guess what - mir ist der VRAM vor der GPU-Leistung zu knapp geworden und ich musste mit Matschtexturen spielen.

Aber vielleicht gibt es hier ja langfristig Besserung. HBCC, Infinity Cache, Direct Storage - vielleicht wird man irgendwann gut genug die Inhalte dynamisch reinzuladen, dass der VRAM-Bedarf nicht mehr weiter steigt.

Zumindest mittelfristig erwarte ich aber, dass die GraKas mehr VRAM bringen werden, die Spiele entsprechend nachziehen und der Speicherverbrauch weiter ansteigt.
 
chilchiubito schrieb:
Hach wie schön war die 1080 ti mit ihren aus heutiger Sicht genügsamen 280W.

Die 2080 Ti war auch ist auch entsprechend genügsam, der FE hat 250W gebraucht. Customs gehen zwar bis 320-350 Watt wenn man den Power Limit anhebt, aber auch das ist mMn vertretbar.
 
Beitrag schrieb:
Zumal höher aufgelöste Texturen auch kaum GPU-Performance kosten, sondern eben eher nur VRAM.
Ja, meine Antwort bezog sich ja auch auf die Aussage, dass die Entwickler halt auf 6-8Gb Grafikspeicher optimieren und man deswegen ja keine 16GB bräuchte, damit auch aktuelle Spiele laufen.
Nur besteht diese Optimierung dann halt am Ende darin, mit (aggressivem) LOD bei den sichtbaren Texturen zu arbeiten.
 
xexex schrieb:
Demnächst kommen mit Sampler Feedback und DirectStorage zunächst einmal Techniken auf den PC, mit den sich der VRAM auf der GPU von vorne rein einsparen lassen kann.

Sowas von richtig und die 10 GB einer 3080 sollten länger reichen als die Rechenleistung, ich weiß auch nicht wie man hier 32 oder 48 GB VRAM bei der nächsten Generation erwarten kann, das wäre absolute Verschwendung.
Es wird immer für PS5/XSX optimiert und da dort maximal 11/10 GB als VRAM zur Verfügung stehen, halte ich mehr als 24 GB für sinnlos, egal wieviele Zusatzfeatures und Mods man in die PC Version integriert.
 
  • Gefällt mir
Reaktionen: xexex
xexex schrieb:
Demnächst kommen mit Sampler Feedback und DirectStorage zunächst einmal Techniken auf den PC, mit den sich der VRAM auf der GPU von vorne rein einsparen lassen kann.
DirectStorage ersetzt aber keinen Grafikspeicher, sondern erweitert ihn nur. Daten, bei denen Geschwindigkeit wichtig ist, will man ja trotzdem möglichst direkt im Speicher auf der Karte haben. Da ist Grafikspeicher in Form von GDDR6(X) doch noch um einiges schneller als eine per DirectStorage eingebundene PCIe 4.0 SSD.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Beitrag
rentex schrieb:
Wer macht sich über höhere Lebenshaltungskosten lustig?
Damit habe ich mich auf deinen Beitrag vorher bezogen, wo alles "in einen Topf geworfen" wurde.
Also dir quasi zugestimmt^^.
 
  • Gefällt mir
Reaktionen: rentex
Ich würde gerne bei Herauskommen der nächsten Grafikkartengeneration meine geschätzte 1080 Ti FE durch ein leistungsstärkeres, effizienteres Modell ersetzen, am liebsten durch ein Zweislotdesign. Vielleicht wird es eine 4070 werden, sofern die TDP bei rund 260 Watt liegen sollte und die Temperaturen niedrig ausfallen. Bin aber auch offen für eine AMD-Karte. Sollte dann für MSFS2020 und Elite Dangerous in 4K teichen....
 
Obvision schrieb:
Da merkt man dann doch schon steigende Raumtemperaturen, was die Hälfte des Jahres wenig Spaß macht
Da stimme ich dir uneingeschränkt zu. Ich habe in meinem Büro zwei PCs, aber selbst wenn nur mein Gaming Rig mit Ryzen 3600 & RTX3070 läuft, steigt die Raumtemperatur schon merklich an.

Dann existiert aber noch der Rechner meiner Frau auch noch in dem Raum (Ryzen 3600 & RTX 2070), wenn der auch läuft, dann wirds schon echt nennenswert wärmer.

Wenn jetzt die Grafikkarte mal eben den doppelten Stromhunger hat, dann brauch ich eine Klimaanlage...

Nicht. Geil.
 
  • Gefällt mir
Reaktionen: 8087, cmi777, Xes und eine weitere Person
Zurück
Oben