News Nvidia GeForce RTX 4090: 3 GHz und sehr hohe Power Limits von 600 Watt und mehr

ThePlayer schrieb:
Das machen doch beide,
Überhaupt keine Frage!
Wie Nvidia die eigenen Lösungen platziert, wissen wir längst, niemand bei Verstand feiert das, es ist die Realität, Stichtwort vendor und feature lock

Aber zur Erinnerung: Damit die RNDA2 GPUs (und Konsolenchips) nicht wieder so schlecht dastehen, fanden wir in FC6 und RE8 nur "tamed" Raytracing, in denen sich die Ampere GPUs nicht entfalten konnten.
Die Borderlands und Deathlopp Benchmarks waren auch "kurios". Komische Zufälle ;)

Hier wird also jeweils extra die Optik kastriert oder speziell anti Nvidia "optimiert" und eine Grafikengine mutwillig in den Effekten limitiert.
Das ist völlig sinnfrei aber reine policy und bremst die Entwicklung mutwillig aus.

Dass es dann PR trächtig einige Games gab, die in 4K bzw UHD Texturen "zufällig" die 3080 10GB VRAM aus dem Spiele nahmen, war auch pure Absicht. AMD applaudiert man hier im Forum nur immer bei so etwas.
Die Forenlobby ist eben selektiv bei *rschlochmoves.

AMD ist gemauso armselig wie Nvidia, wenn es um die eigenen Lösungen geht.

Und das wird weitergehen.,wenn eine übertaktete 7950XT als Tier 1+ GPU mit Wasserkühlung und trotz FSR 2 oder FSR 3 gegen eine Tier 4 GPU wie die 4080-12 nicht mal im Ansatz an RT+DLSS3 Frames in den Benchmarks herankommt und dann auf Platz 4 der Benchmarks rumeiert.

Ich bin mal gespannt welche Gehässigkeiten AMD sich also auf die Gehässigkeiten Nvidias in der next Gen ausdenkt, sobald die RNDA 3 mit oder ohne Raytracing in DLSS3 OFA Benchmarks zerfetzt werden.

AMD sollte und wird also zukünftig selbst weitere Gamedevs+Studios bestechen beauftragen, DLSS Titel zu verindern, sie haben da ja auch Übung.

TDLR:
Nvidias Rücksichtslosigkeit ist evident.
Aber AMD macht auf eigene Weise rücksichtslose Barrieren und Scheissmoves, doch Nvidia bashed man gerne und häufiger, weil die in der Summe und über die Jahre anzahlmäßig mehr fails hatten.
 
  • Gefällt mir
Reaktionen: PHuV, Ragnarök88 und Benni1990
0ssi schrieb:
Wenn deine 3090 bei 4K 120FPS 300W verbraucht, wie viel wird dann eine 4090 im gleichen Szenario verbrauchen ?
Keine ahung, müsste mal jemand testen der beide Karten hat und in diversen Spielen diese auf ein FPS-Limit setzt, das beide durchgehend schaffen, um einen sinnvollen vergleich zu erhalten. Alles andere ist Spekulation.
 
Ich würde auf ~200W tippen also recht sparsam. Wenn DLSS3 auch mit Frame Limit funktioniert
dann könnte man die FPS sogar auf 60 begrenzen und hat durch die FI dann wieder 120FPS. :o
 
Also ich kann übermorgen kaum erwarten. So sehr ich dieses "tausend Shop-Browser-Fenster um 15 Uhr offen & F5 hämmern" auch hasse - so sehr liebe ich es auch. Schon kurios. :D Ist für mich irgendwie Teil des "Gesamterlebnisses". ;)

Vor zwei Jahren musste man schnell sein - nach 5 Minuten war alles vergriffen. Das "Glückserlebnis" als ich damals meine 3090'er TUF schlussendlich ergattert hatte war aber auch unbezahlbar. :D Der Erfolg lag aber auch an Alternate - die dankenswerter Weise den Verkauf schon 14:50 Uhr gestartet hatten. Und ab 14:45 Uhr war ich am Start.

Ich denke aber auch dass es dieses Jahr entspannter ablaufen wird. Vor allem was die "billigeren" Modelle angeht.
 
Laphonso schrieb:
Nvidias Rücksichtslosigkeit ist evident.
Aber AMD macht auf eigene Weise rücksichtslose Barrieren und Scheissmoves, doch Nvidia bashed man gerne und häufiger, weil die in der Summe und über die Jahre anzahlmäßig mehr fails hatten.
Ja du hast recht. Frage ist nur wie viel der "bad moves" AMD macht um sich gegen Nvidia zu wehren und ihnen das Feld nicht ganz Kampflos zu überlassen.
Ich hoffe, besser erwarte das AMD mit dieser Generation bei RT zu Nvidia aufschließt. Und zwar zu ADA Gen.
FSR2 kommt auch gut voran. Gut da ist man 6-12 Monate hinter Nvidia, aber das ist kein Beinbruch. Jetzt langsam scheint auch mehr Geld für die Entwicklung von so Sachen wie FSR da zu sein. Wobei FSR2 habe ich bisher nicht gebraucht. Hier und da mal getestet und war in Ordnung. OFA das muss sich noch beweisen ob und wie gut das Funktioniert. Ich weiß noch vor zwei Jahren haben hier auch einige im Forum geschrien AMD ist durch da Nvidia jetzt RTX i/o hat. Und nun bis jetzt ist doch noch kein einziger Titel erschienen der das Unterstützt.
Es bleibt auf jedenfall spannend!
Ergänzung ()

Flynn74 schrieb:
Ich denke aber auch dass es dieses Jahr entspannter ablaufen wird. Vor allem was die "billigeren" Modelle angeht.
Ja das wird denke ich viel entspannter sein. Solange sich die Scalper zurückhalten, wird man solange Karten bekommen wie die normalen Kunden halt brauchen um die Kontingente bei den Händlern zu kaufen. Also länger als 5 Minuten.
Ergänzung ()

Ano_Dezimal schrieb:
Ich weis auch nicht warum man sich hier Gedanken darüber machen sollte was in 1 oder 2 Generation ist. Wir leben immerhin im hier und jetzt. Und ich verstehe auch nicht warum manche echt glauben das die Hardware der Grund dafür sein könnte das es mal Probleme gibt. Es gibt so viele Dinge auf der Welt die einen hohen Verbrauch haben, das interessiert einfach niemanden. Da hackt man hier lieber auf einer Grafikkarte rum die am Ende sogar noch weniger verbrauchen wird als jetzige, weil die Leistung einfach höher ist. Und von UV will ich gar nicht erst reden.
Das nennt sich weitsicht. Wenn nicht was passiert dann braucht man bald ein 1KW Netzteil um mit der Mittelklasse zu zocken. Mir könnte der Verbrauch auch total egal sein. Die 10-20 Stunden die ich im Monat spiele sind für meine Stromrechnung fast schon egal.
Was mich nur nervt ist die Abwärme die sich im Raum verteilt. Ich habe bei mir in der Wohnung ein kleines Zimmer das ich als Büro nutze. Und wenn ich hier Zocke dann wird es selbst im Winter so warm das ich im T-Shirt vor dem Rechner sitzen kann. Und das bei nicht mal 500W verbrauch meiner Komponenten.
Wenn ich mir jetzt überlege der Verbrauch wird die nächsten Jahre noch steigen, dann gute Nacht.
Und was du hier immer erzählst das die Grafikkarten weniger Verbrauchen weil diese Effizienter sind ist doch total falsch. Die 4090 wird 450W verbraten. Ja die Karte bringt dann mehr FPS in allen Spielen aber wer wird da jetzt den verbrauch dementsprechend anpassen um das zu kompensieren und so bei mehr Leistung als die 3090 bietet weniger als diese zu verbrauchen? Merkst Du was? Und das Lustige ist ich kann ja dann eine Klasse niedriger nehmen ist dann das Argument. Auch Falsch die Karten brauchen dann auch mehr.
Als Nvidia Pascal vor rund 6 Jahren gelauncht hat war ich echt baff wie niedrig der Verbrauch war. Aber mit Ampere und Ada frage ich mich wo soll das hinführen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso
T800Unit schrieb:
..Ich klinke mich hier aus: a) meinen die Mods meine Beiträge nun prüfen zu müssen, b) komplett Sinnfreie Diskussion, schreib mich an Privat und Ich beweise dir voll Belegte 17GB VRAM. Over and Out.
Wir reden aneinander vorbei, denke ich.

Ich glaube Dir die usage.
Punkt.

Mein Hinweis war, dass das eine absolute Ausnahmesituation ist, Du hast ja nicht mal das Game genannt?

Es gibt keine Games mit out of the box 16 GB oder 17 GB VRAM Barrieren, die das Spielen verweigern. Das sind sehr spezielle Szenarien, ich komme da wieder auf das heavy modded Skyrim Meme.
Dazu verwechseln viele Allokation mit Usage.

Dein Satz "Und selbst die Allokation sollte einem doch zu denken geben." ist einer, den man häufiger liest und ein häufiges Indiz dafür ist, dass man nicht versteht, wie das "funktioniert".
Du verstehst es auch nicht, sonst schreibst Du diesen Satz nicht. Man muss sich da keine "Gedanken" machen, die GPU und Engine arbeiten wie beabsichtigt. Der VRAM Puffer ist ja dafür da.
Ich habe daher etwas verlinkt zur besseren Erläuterung.

Auch ich habe Dutzende Games mit bis zu 20 GB VRAM "Belegung", das ist reine Allokation, das hat nichts mit echten VRAM Nutzungsanforderungen zu tun.
Und wurde hier in den letzten Jahren immer wieder verwechselt.

Das war mein Ankerpunkt zur Klarstellung auf Deine "anekdotische Evidenz" gewissermaßen :)

Übrigens, die Moderationshürde gibt es ggf. weil Dein Account hier neu ist.
 
  • Gefällt mir
Reaktionen: Ragnarök88
ThePlayer schrieb:
Was mich nur nervt ist die Abwärme die sich im Raum verteilt. Ich habe bei mir in der Wohnung ein kleines Zimmer das ich als Büro nutze. Und wenn ich hier Zocke dann wird es selbst im Winter so warm das ich im T-Shirt vor dem Rechner sitzen kann. Und das bei nicht mal 500W verbrauch meiner Komponenten.
Sei doch froh, da spart man sich die Heizkosten:daumen:
 
ThePlayer schrieb:
Wieso hast du solche Angst das du nichts bekommst?
Ich habe keine Angst davor das ich nichts bekomme. Ich weis nicht mal ob ich was will. Und für mich würde sowieso nur eine Karte in Frage kommen die aktuell gelistet ist.
 
Laphonso schrieb:
"Neue" realistische alias Raytracing Mode Grafik = Nvidia Ada Lovelace > AMD RDNA3
Die RTX 4000er werden 40%-50% mehr fps nativ in Raytracing Gamebenchmarks bereits ohne DLSS schieben, zumindest da wo AMD sponsored Games nicht die Raytracing Effekte (Licht+Schatten+Reflexionen) kastrieren (Far Cry 6, Resident Evil Village)

Wie AMD die OFA "DLSS 3" fps kontern will, wird noch spannend. Ich nenne das Nvidias Versenktorpedo gegen RDNA3 (in der Zielgruppe der Enthusiasten, nicht im Midrange, da gibts kein RTX4000). Wenn die Realität und 3rd Party Tests das Marketing bestätigen.
In einigen Wochen sind wir schlauer.
BigLA schrieb:
Sei doch froh, da spart man sich die Heizkosten:daumen:
Da heize ich sowieso nie. Wenn ich jeden Abend Zocken würde. Dann würde ich das FPS Limit aufheben und im Wohnzimmer zocken. ;)
 
  • Gefällt mir
Reaktionen: Laphonso
450 Watt + 450 Watt Peaks ist imho einfach zuviel.

Wer dazu bei 2000 EUR noch sagt: boah geil, ist gekauft. Warum schreibt Nvidia eigentlich nicht 4000 EUR drauf?
Aber der Trend geht dahin und auch solche Karten wird's geben in ein paar Jahre , da alles so weitergeht wie bisher.
 
Laphonso schrieb:
Wir reden aneinander vorbei, denke ich.

Ich glaube Dir die usage.
Punkt.

Mein Hinweis war, dass das eine absolute Ausnahmesituation ist, Du hast ja nicht mal das Game genannt?

Es gibt keine Games mit out of the box 16 GB oder 17 GB VRAM Barrieren, die das Spielen verweigern. Das sind sehr spezielle Szenarien, ich komme da wieder auf das heavy modded Skyrim Meme.
Dazu verwechseln viele Allokation mit Usage.

Dein Satz "Und selbst die Allokation sollte einem doch zu denken geben." ist einer, den man häufiger liest und ein häufiges Indiz dafür ist, dass man nicht versteht, wie das "funktioniert".
Du verstehst es auch nicht, sonst schreibst Du diesen Satz nicht. Man muss sich da keine "Gedanken" machen, die GPU und Engine arbeiten wie beabsichtigt. Der VRAM Puffer ist ja dafür da.
Ich habe daher etwas verlinkt zur besseren Erläuterung.

Auch ich habe Dutzende Games mit bis zu 20 GB VRAM "Belegung", das ist reine Allokation, das hat nichts mit echten VRAM Nutzungsanforderungen zu tun.
Und wurde hier in den letzten Jahren immer wieder verwechselt.

Das war mein Ankerpunkt zur Klarstellung auf Deine "anekdotische Evidenz" gewissermaßen :)

Übrigens, die Moderationshürde gibt es ggf. weil Dein Account hier neu ist.
Wie gesagt, ziemlich Sinnlose Diskussion. Und warum wird VRAM allokiert? Richtig. Auch diesen Benefit möchte Ich mitnehmen.
 
GeneralJules schrieb:
Nvidia "muss" die Grafikkarten zu diesem extremen Preis anbieten, wenn sie die 3000er Karten nicht komplett verramschen wollen.
Um noch hinzuzufügen Nvidia "muss" die Grafikkarten zu diesem extremen Preis anbieten, weil
die Karten nun einmal schweineteuer in der Herstellung sind (TSMC 4nm, Die Size 608mm2 noch fragen?) und 24GB GDDR6X-Speicher + ein dem Verbrauch entsprechendes Board samt Kühllösung auch einen entsprechenden Preis haben..
Der schwache € und die Inflation tuen dann noch den Rest.
Die Karte wurde in der falschen Zeit, bzw. in Zeiten des Mining Booms wo ca. 0% Inflation herrschte und der Rubel äh ich meinte natürlich € noch locker saß entwickelt und wird jetzt zum gänzlich unglücklichsten Zeitpunkt auf den Markt geworfen.
Was es heißt, wenn die Inflation 10% beträgt, bzw. de facto 10% weniger Lohn zu haben. Müssen die Meisten noch lernen, denn bei den Meisten ist das noch gar nicht richtig im Bewusstsein angekommen, bzw. es wird erst zeitverzögert voll durchschlagen .
Dazu kommt dann noch, dass der Euro im freien Fall ist und dies in Dollar gehandelte Güter
zusätzlich noch massiv verteuert.

Ich gehe daher fest davon aus das sich die 4090 / 4080ti / 4080 für Nvidia's Verhältnisse sehr schlecht verkaufen werden.
 
Zuletzt bearbeitet:
Nun ja, jetzt wissen wir, dass die Tests morgen kommen^^
 
Aktuell bekommen so viele Tester so viele 4090er zugesendet, da scheinen ja wirklich massenweise diese Dinger aktuell vorhanden zu sein, anders als beim Ampere Release.
 
Robo32 schrieb:
Nun ja, jetzt wissen wir, dass die Tests morgen kommen^^
Das weiß ich schon seit bei mir die Zimmerbeleuchtung ständig dunkler wird, immer wenn die Tester ne neue Runde 3DMurks starten.
Die Ergebnisse sind offenbar unglaublich :lol:
 
Ja, nur für richtige Tests eben "etwas" zu spät.
 
don.redhorse schrieb:
Hat mal jemand ein „Energiekostenmessgerät“ spaßeshalber vor seinem Gaming PC gehängt und mal nen paar Stunden geloggt was die Kiste braucht? [...] Nicht nur das so ne Karte heute fix 1000€ kostet, was kostet ne Stunde Gaming?
Ich habe mal gemessen, was mein ganzes Setup in der Spitze zieht. Das waren 500 Watt, da drin enthalten sind u.a. ein 100Hz UWQHD Monitor, 3900X, 16GB RAM und eine RX6900XT. Leider weiß ich nicht mehr, was das Setup bei mir in einer Stunde zieht, aber mit der Spitzenlast kann man erstmal von 0,5kWh/h ausgehen, was bei mir aktuell 22ct/h entspricht.

Abseits von den Anschaffungskosten halte ich PC-Gaming bei den laufenden Kosten für ein nach wie vor sehr günstiges Hobby. Klar, die Anschaffungskosten sind hoch, aber je mehr man es nutzt, desto geringer werden die Kosten pro Zeiteinheit.

Wenn ich in eine Kneipe gehe und dort 50€ lasse, kann mein Setup auch 227h bzw. 9,5 Tage unter Volllast durchlaufen.
 
  • Gefällt mir
Reaktionen: Sturmwind80
Zurück
Oben