News GeForce RTX 4000: Nvidia will es bei Lovelace noch einmal klassisch wissen

sTOrM41 schrieb:
Tatsächlich reicht ein ordentliches 500 Watt Netzteil auch heute noch für 99% der Single-Gpu Systeme.

Damit kannst du zb völlig problemlos einen Ryzen 5800X und RTX 3070 befeuern.
So ist es. Mein 3600 und die 6800 laufen mit einem 450W NT ohne Probleme.
 
  • Gefällt mir
Reaktionen: fullnewb und Laphonso
XashDE schrieb:
Es bleibt ja echt zu hoffen das Intel was Gescheites abliefert und sich der Markt ein bisschen aufmischt!
Ich liebe nVidia mehr als ich vielleicht sollte aber irgendwo wird´s dann langsam unsinnig. Zahle gerne ein paar € extra aber doch nicht für 400W!
Das wird wohl nicht so nicht kommen. Die Gerüchteküche gibt das gerade nicht her.
Ergänzung ()

olfbc schrieb:
German Akku zu klein Angst
German Akku hat nur mehr 20% Angst
German E-Auto Reichweiten Angst
German CPU Temperatur Angst
German GPU Temperatur Angst
German CPU Volt Angst
German CPU Verbrauch Angst
German GPU Verbrauch Angst
German NT zu klein Angst
German Stromkosten zu hoch Angst
German Haus brennt ab Angst
...
German Generalisierte Angst
Hauptsache alles in einen Topf schmeissen🙄
Bei Stromkosten könnte ich dir die Ohren langziehen, glaubt man ja nicht.
 
  • Gefällt mir
Reaktionen: VoAlgdH
Phoenixxl schrieb:
Bei Gothic 3 habe ich meine 1080 ti z.B. auf 60% gesetzt...
Also bei AMD gibts die Funktion AMD Chill. Da kannst du die FPS begrenzen pro Titel das klappt eigentlich ganz gut.

powerlimit steht bei mir ganz oft bei 95 % Prozent da ist bei mir die Karte wirklich silent. 2 % Leistungsverlust sind das meistens.

bald müssen sie mal das klassische Slot System überarbeiten
 
  • Gefällt mir
Reaktionen: Onkel Föhn
tackleberry schrieb:
Was halten eigentlich normale Haushaltsicherungen aus?

bei neueren Häusern/Wohnung sind das reguläre 16A Sicherungen die zwischen 3-4kW aushalten.
 
Kettensäge CH schrieb:
Das ist durchaus ein Problem, aber auch da gibts Abhilfe wie Wasserkühlungen.
Ein Wasserkühlung lässt die Wärme aber nicht auf magische Weise verschwinden. Am Ende führst du der Raumluft trotzdem die 400-500W in Form von Wärme zu. Der Unterschied zwischen Luftkühlung und Wasserkühlung ist in dem Zusammenhang dann nur, wie die von der Wärmequelle in den Raum gelangt.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz und JMP $FCE2
Warum jammert ihr alle über den Stromverbrauch? Das klingt jetzt noch hoch, sobald es die Benchmarks dazu gibt werden ohnehin alle balkengeil und kaufen trotzdem.
Das war so, das ist so und das wird immer so sein.
Und wem das nicht schmeckt, der kauft eben etwas kleineres. Die 3090 ist aktuell doch das beste Beispiel.
Cool bleiben Leute, das ändert sich nicht.
Tröstet euch damit, dass die meisten Menschen, ob nur aus echter Vernunft oder Geldmangel ohnehin kleinere Modelle kaufen.

Jeder setzt sich doch selbst eine individuelle Grenze.
Meine aktuelle Karte ist so ein Beispiel... die gtx3090 hatte ich angepeilt, aber für den Preis so wenig Leistung bei so hohem Stromverbrauch... das war eine Frechheit und es mir einfach nicht wert.
Die 6900xt liegt ausreichend auf Augenhöhe, nimmt weniger und ich habe sie günstig geschossen.
Passt also. Für mich...

Genau so wird das weitergehen. Vor allem, da in dieser wahnsinnigen GPU Generation alle Leute ungebremst fast jeden Preis gezahlt haben ... und das für relativ geringe Mehrleistung und hohen Stromverbrauch (NV).
Das geht also so weiter und nur ihr selbst bestimmt durch euer HANDELN wo sich das nicht mehr lohnt.
 
Unmenschlich damit müsste Amd bei der neuen Grafikkarten Generation Nvidia schlagen können.
 
8087 schrieb:
Kein Bock mehr.

Ich lass meine alte 2070S weiter auf 105 Watt laufen. Was damit nicht läuft, spiele ich nicht.

400 Watt für die GPU? Mal an die Umwelt gedacht?
Hä? Ist doch nur Strom und Strom ist gut. Öl und Benzin sind doch die bösen.
 
Bis das mal auf den Markt kommt, und wann es dann verfügbar sein wird...
Klingt jedenfalls vielversprechend. Muss ja nicht immer das Top-Modell sein.
Wenn eine 4070 auf 3090 Niveau ist, würde mir die auch reichen :D
Aber eine Grafikkarte die mehr als 300W verbraucht kommt mir nicht mehr ins System. Meine Vega produziert mir viel zu viel Abwärme beim zocken.

8087 schrieb:
400 Watt für die GPU? Mal an die Umwelt gedacht?
Ein E-Auto braucht so 20kWh/100km.
Mit 20kWh kann ich eine 400W GPU 50 Stunden betreiben.
In der Relation also gar nicht mal so viel.
Jetzt kann man natürlich darüber streiten, ob es sinnvoller ist 50km weg zu fahren um Oma zu besuchen, oder 50h irgendwas zu zocken.
 
Kaum ist die aktuelle Generation halbwegs verfügbar kommt schon die nächste. Abzocke - Bei den Preisen sowieso!
 
Warum hab ich wohl ein 850W PSU mit 7 Jahren Garantie das Semipassiv ist.
Naja was mich mehr als der Stromverbrauch ärgert ist die Abwärme, die irgendwo hin muss.

Auch wenn es whataboutism ist, der Stromverbrauch von Grafikkarten wird die Welt wohl nicht untergehen lassen, solange es Individualverkehr, Fliegen und dann bald Flugtaxis gibt.
Also immer brav neue PKW im Audooohland kaufen xD

Hm... Einerseits wird NVIDIA mit einem BIG Chip erstmal im Ansatz weniger Energie verbrauchen als AMD mit MCM, da die Daten bei einem Chip nicht herumgeschoben werden müssen.
Andererseits kann AMD mit der insgesammt höheren Chipfläche zum selben Preis, da weniger Verschnitt und Defekte auftreten, mit niedrigere Taktraten zur selben Leistung kommen. Diese niedrigeren Taktraten nehmen den Mehrverbrauch durch Transport der Daten wohl wieder weg.

Alles sehr spannend. Meine Glaskugel sagt, das AMD mehr verbrauchen und mehr Leistung bieten wird, kann man mehrere Chips über die Fläche und Verteilung doch besser Kühlung und mehr Board TDP geben. Nvidia wird Probleme mit dem Kühlsystem bekommen.

Es kann auch ganz anders kommen und AMD bucht nur 7nm/6N DIEs. Wenn ich dran denk das 7nm inzwischen 3 Jahre alt ist und 5nm Volumenproduktion schon 2020 begann, will ich aber langsam mal 5nm im PC Bereich sehen. Nervt mich ziemlich das 5nm von der Mobilbranche so extrem belagert wird, warum auch immer man ein 500+€ Smartphone braucht. Naja mein Tellerrand ist wohl zu hoch.
 
SirSilent schrieb:
Hä? Ist doch nur Strom und Strom ist gut. Öl und Benzin sind doch die bösen.
Ein Golf TSI produziert, gemütlich gefahren, etwa 11 Kilogramm CO2 auf 100 Kilometer.
Ein vergleichbar großer Elektrowagen produziert mit dem aktuellen Strommix in Deutschland, etwa 7 bis 8 Kilogramm CO2 auf 100 Kilometer.

Strom ist aktuell also tatsächlich noch ein Problem. Außer du erzeugst und verbrauchst deinen eigenen PV Strom. Dann bist du, sofern die Solarzellen das bei ihrer Herstellung entstandene CO2 schon "hereingeholt" haben, im 0 CO2 pro Stunde Spielen Bereich.
 
silentdragon95 schrieb:
Entschuldige, WAS? Wie genau soll man das bitte kühlen können? Belegen die Karten dann bald keine 2,5 oder 3 Slots mehr, sondern 4+?

Ich vermisse die Zeiten, in denen ein 500W Netzteil für 99% der Single-GPU Systeme ausgereicht hat...
Ich auch, aber anscheinend lassen sich 4K mit RT inkl. Ultradetails bei 120+ fps nicht anders realisieren. Bei WQHD@60fps ohne RT bleibt mein System auch schön kühl, mal sehen wie es dann mal mit GSync und offenen fps aussieht. 😅
 
  • Gefällt mir
Reaktionen: ComputerJunge
ArrakisSand schrieb:
Da sie wohl weiterhin ein 256Bit SI verwenden tippe ich bei NAVI 31 auf 32GB GDDR6 und bei NAVI 32 auf 16GB.
NVIDIA wird da wohl im besten Fall auch nur 32GB auffahren können.

Also ehrlich. Nur 32GB. Wo doch heutzutage Spieleentwickler mehr und mehr 48GB+ als "empfohlenen Grafikspeicher" angeben. Ich weiß gar nicht, wie ich überhaupt mit den 10GB der 3080 auskomme. Muss daran liegen, dass ich hauptsächlich Minesweeper spiele. Aber auch da wird (in 4K) der VRAM bereits knapp.
 
Kimi meinte auf Twitter ja sogar: "400W is not enough."

Da bin ich dann auch raus in dem Sinne, dass ich die Karte zwar kaufen, aber niemals im Alltag so betreiben würde. Afterburner angeschmissen und dann auf 300, vielleicht auch 350 Watt limitieren. Meine 3090 läuft ebenfalls nicht nach Spec, eher so bei 270-280 Watt.
 
  • Gefällt mir
Reaktionen: BorstiNumberOne und DriveByFM
Blumentopf1989 schrieb:
Meine RTX 3070 ist aktuell vom Verbrauch her in meinen Augen echt angenehm, auf Dauer ist sie bei Last bei 240 Watt.

Bei welcher Auflösung? Meine 3070 FE braucht beim Spielen @ WQHD und ~97% Last unter 200W, selten geht sie dabei mit 204W knapp über die "normalen" 197W....
 
cmi777 schrieb:
Also ehrlich. Nur 32GB. Wo doch heutzutage Spieleentwickler mehr und mehr 48GB+ als "empfohlenen Grafikspeicher" angeben. Ich weiß gar nicht, wie ich überhaupt mit den 10GB der 3080 auskomme. Muss daran liegen, dass ich hauptsächlich Minesweeper spiele. Aber auch da wird (in 4K) der VRAM bereits knapp.
Ich persönlich halte 32 oder gar 48GB ja auch als etwas überzogen.

Aber wenn die 7900XT ca. 3 Mal so schnell wie deine 3080 werden sollte, dann kann AMD diese einfach nicht mit nur 16GB ausstatten. Gerade auch in Hinsicht auf die 3090.

Die 3080 wiederum hätte in dieser Form nie eine Empfehlung von den ganzen Magazinen bekommen dürfen. Was NVIDIA da getrieben hat ist einfach nur purer Geiz und Gewinnmaximierung.

Eine solche Karte kauft man sich doch nicht nur für den Moment wir sind doch keine Eintagsfliegen, sondern die Meisten wollen diese dann auch ein paar Jahre behalten und da wird sie gnadenlos wegknicken sobald die ersten Spiele kommen werden die Gebrauch von den neuen Fähigkeiten der PS5 / XBOX series s/x machen.
 
ArrakisSand schrieb:
Eine solche Karte kauft man sich doch nicht nur für den Moment wir sind doch keine Eintagsfliegen, sondern die Meisten wollen diese dann auch ein paar Jahre behalten und da wird sie gnadenlos wegknicken sobald die ersten Spiele kommen werden die Gebrauch von den neuen Fähigkeiten der PS5 / XBOX series s/x machen.
Ja da hast du Recht.

Ich denke aber trotzdem, dass die 3080 locker noch ihre Lebenszeit wird mithalten können (wenn man "nur" 1440p oder gar 1080p nutzt).

Ich sehe das so: die Spielehersteller entwickeln ja nicht im Elfenbeinturm sondern wollen/müssen ihre Spiele auch verkaufen. Und die überwältigende Mehrzahl der verbauten Grafikkarten hat Stand heute <=8GB VRAM .

steam_vram_june2021.PNG


Man muss sich ja nur bewusst überlegen, welche Grafikkarten überhaupt >8GB haben und wann diese herausgekommen sind. Die Anzahl ist recht gering (die aktuelle Generation hat hier einige Modelle hinzugefügt) und es sind fast immer hochpreisige Enthusiastenmodelle gewesen.

Natürlich wird sich das über die nächsten Jahre langsam ändern und vielleicht wird es auch mal einen Systemseller geben, der mutig ist/sein kann und sagt "16GB empfohlen/minimum" und die Verkäufe ankurbelt. Aber für die absolute Mehrzahl dürfte das nicht gelten.

Die Zeiten eines Strike Commander o.ä. sind glücklicherweise vorbei :)
 
cmi777 schrieb:
Ich sehe das so: die Spielehersteller entwickeln ja nicht im Elfenbeinturm sondern wollen/müssen ihre Spiele auch verkaufen. Und die überwältigende Mehrzahl der verbauten Grafikkarten hat Stand heute <=8GB VRAM .
Hinzu kommt ein viel wichtigerer Punkt, die Konsolen! Bei der XSX sind sinnvoll maximal 10GB VRAM nutzbar und wir sind sowieso noch meilenweit davon entfernt, dass alle Spiele optimiert auf die neue Konsolengeneration auf den Markt kommen.

Du wirst auch noch in 5 Jahren problemlos mit 8GB VRAM spielen können, einzig für 4K + RT + Mods dürfte mehr VRAM sinnvoll erscheinen. Man sollte sich nicht ständig von irgendwelchen Zahlen blenden lassen und verlangen mit jeder Generation müssten diese größer werden. Demnächst kommen mit Sampler Feedback und DirectStorage zunächst einmal Techniken auf den PC, mit den sich der VRAM auf der GPU von vorne rein einsparen lassen kann.
1627730776447.png
 
  • Gefällt mir
Reaktionen: Kenshin_01, Beg1 und JMP $FCE2
@cmi777
Oh ja, an Strike Commander kann ich mich noch sehr gut erinnern. Für das Spiel habe ich damals extra eine Soundkarte für 120 DM bei Vobis gekauft. Das waren noch Zeiten …
 
  • Gefällt mir
Reaktionen: BorstiNumberOne und Cyberbernd
Zurück
Oben