News GeForce RTX 4090 & RTX 4080: Details zu GPU und TGP der ersten drei GeForce RTX 4000

Chismon schrieb:
Naja, Steelrising ist leider real (da sollen ja 16GB schon nicht mehr Ganz reichen, wenn man mit maximalen Settings spielt), auch wenn daran noch herumgedoktert werden dürfte zwecks Optimierung.


Ob ein Spiel was einen all-time Peak bei Steam von 2779 Spielern und einen 24 Stunden peak kurz nach Release von 1369 hat jetzt so aussagekräftig für die Masse ist, ist Ansichtssache. Klar gibt es immer mal wieder Spiele, die grottig optimiert sind oder die unsinnige Settings anbieten, mit denen man jede Hardware in die Knie treiben kann. Das sind aber selten Vorboten für die Zukunft oder Beispiele für die allgemeine Situation. Es gibt auch diverse Spielen die einen 5800x 3D oder 12900k an Limit und darüber hinaus bringen können. Aber auch das sind jetzt keine repräsentativen Beispiele.

Klar, mit stärkerer Hardware und mehr Speicher kann man solche Schludereien weiter hinauszögern, aber ein Belegt für den Durchschnittlichen bedarf ist das nicht wirklich. Ja es gibt Situationen wo man von mehr Speicher profitiert, wobei bei schlecht optimierten der Profit oftmals nur ist, dass es nur etwas später anfängt zu ruckeln. Mit mehr Speicher ist man auf der sicheren Seite, aber ist auch nicht gegen alles gewappnet. Und wenn man zu 99,5% der gesamten Nutzungszeit keine Nachteile dadurch erfährt, würde ich schon sagen, dass eine passende Speicherbestückung gewählt wurde.

Und wenn selbst 16GB nicht mehr ausreichen, dann hat man das Spiel entweder am Markt vorbei entwickelt oder einen schachten Job bei der Optimierung geleistet. Wenn nur der Speicher das Problem ist und man kein absolutes Grafikfeuerwerk abliefert, ist es meistens eher das Zweite :D
 
  • Gefällt mir
Reaktionen: baizer, elmex201, Makkaroni und 4 andere
Warum darf sich die 12GB RTX 4080 überhaupt 4080 nennen?
Die Unterschiede beim Chip sind doch extrem groß. Die 12GB Version kommt fast wie eine Mobilvariante daher.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne und shaboo
feidl74 schrieb:
aber doch nur mit im Grafikmenü, auf max eingestellten Reglern? meist ist ja der Unterschied zwischen sehr hoch und hoch oder ultra zu sehr hoch nur sehr gering, von der Qualität her ...
naja sowas is halt eher subjektiv andere nehmen das deutlich war und andere erkennen keinen oder fast keinen unterschied
was aber auch noch ein wichtiger punkt ist is der vram und der kam bei manchen spielen in uhd an seine grenzen wie viele tests ja gezeigt haben
10gb sind einfach zu wenig für uhd


die 3080 ging bestenfalls bei 1300 los wenn man se mal bekam...(bei release zeiten)
die 3090 bekam man jedenfalls recht lange zum uvp preis
da legt man doch lieber 200 drauf und bekommt mehr als den doppelten vram und bis zu 20% mehr leistung
 
Max007 schrieb:
450 Watt ist schon dreist, aktuell kostet eine kWh 67 ct. beim günstigsten Anbieter auf verivox. Dazu eine 250W Intel-CPU, schnell liegt man inkl. Monitor bei 900 kWh. Schlappe 6,30€/h fürs Zocken 🥲

Solange meine 6900 XT auf 1440p ~100 fps liefert, wird nicht aufgerüstet. Auf die beiden neuen GPU-Generationen freue ich mich dennoch...
Ja für dich vllt oder du schaust nicht richtig
Der strompreis is zurzeit einfach regionabhängig
Ich Zahl zb mit Grundpreis 25ct/kWh wenn ich jetzt zu meinem grundversorger wechseln würde wären es 31ct/kWh
Wie du siehst is es regionabhängig

Was du ebenfalls verwechselst die tdp liegt doch nicht die ganze zeit an
Mein 12900k könnte auch weit mehr verbrauchen aber im game sind es 45 bis 50w
 
Steini1990 schrieb:
Warum darf sich die 12GB RTX 4080 überhaupt 4080 nennen?
Die Unterschiede beim Chip sind doch extrem groß. Die 12GB Version kommt fast wie eine Mobilvariante daher.
Ich finde das Leistungsgefälle zwischen 4090 und 12GB-4080 auch ziemlich krass: Nicht mal halb so viele Streaming-Prozessoren und CUDA-Kerne, dazu halb so viel Speicher und auch nur ein halb so großes Speicherinterface. Wenn es sinnhafte Leistungsunterschiede zwischen allen Nvidia-Modellen geben soll, fragt man sich, was da am Ende noch für 4070, 4060 und 4050 an Leistung übrig bleiben wird. :confused_alt:
 
|SoulReaver| schrieb:
Wenn es eine 4080 12 GB für 700€ gibt, dann geb ich noch Trinkgeld.
Wow, na wenn das kein Beweis dafür ist dass nVidias Marketing funktioniert, dann weiß ich auch nicht. 🤦‍♂️
 
Ich bin sehr skeptisch, was den Leak angeht.

Erstens: die Segmentierung mit einem Chip pro SKU. Das ist bei der Chipgröße sehr unüblich; man würde erwarten, dass das zweitbeste Modell einen niedrigeren Bin vom AD 102 nutzt.

zweitens: Die TDP vom der 4080 ist genau 75% bei einem genau 60% so großen Chip, das kommt mir ein bisschen merkwürdig vor. Das würde sich mir nur erschließen, wenn die 4090 der höchste Bin ist, die 4080 dagegen ein niedriger und daher ineffizienter bin. Planen die dann noch zwei weitere SKUs zwischen 4090 und 4080?

drittens: Die Speicherbandbreite passt nicht zum Speicherinterface. Die 4090 würde demnach die selben Module wie die 3090 Ti benutzen (1008 MB/s auf 386 bit, also 84 MB/s pro Kanal), die große 4080 dagegen Module mit 92 MB und die kleine 4080 sogar 128 MB.

Mein Tipp ist daher: Das ist eine Ente. Hat ja schon Tradition, dass NVidia kurz vor Release Unsinn streut, was dann von diversen Leakern aufgegriffen wird.
 
modena.ch schrieb:
...also Navi 33 nach bisherigem Schema 7600XT wohl auf RX6900XT Niveau landen. Da muss sich NV aber strecken, dass eine derart verkrüppelte 4070 da hin kommt.

Nun ja, eine RTX 4070 ist ja eher das Gegenstueck zum RX 7700XTer bis maximal RX 7800er Bereich; auf dem Niveau einer RX 7600XT (wenn die RX 6900XT Niveau erreichen sollte, was ich fuer gewagt halte) fuer gemunkelt 400 - 500 US$ duerfte man mit einer RTX 4070 eigentlich dann nichts zu suchen haben, das ist schon richtig.

Schade nur, dass Navi 32 wohl sehr spaet (im Fruehsommer erst(?), einigen Einschaetzungen nach) aufschlagen duerfte und nVidia wohl vorher noch die Kaeuferschicht abgrasen duerfte, wenn nicht generell wegen der nahenden Rezession die Kauflaune eher sehr verhalten ausfallen sollte, was die Lovelace dGPUs angeht und fuer RDNA3 Karten duerfte dann aehnliches zu erwarten sein.

Wenn zwischen den Chips kommender nVidia 4000er dGPUS solche Leistungsunterschiede klaffen sollten (weniger als 60% der Leistung einer RTX 4090 bei der groesseren/eigentlichen RTX 4080 mit 16GB gemessen an Compute Units), weil nVidia nicht nur mit Speicherausbau sondern auch Leistungshoehen geizen sollte (es sei denn man kauft im Luxusklasse-/Flaggschiffbereich eine dGPU fuer einen exorbitanten Preis), dann koennten sich viele ueberlegen (wie auch nebenher beabsichtigt) doch bei den dann alten Ampere Lagerbestaenden oder guenstiger noch im Gebrauchtmarkt zu zu greifen, ein aufruesten weiter hinaus zu zoegern oder bei der Konkurrenz (vorwiegend AMD/RTG, Intel ist ja leider noch nicht so weit und wer weiss, ob die am Ball bleiben werden) sich umschauen.

Das waere schon bitter, wenn es wirklich nur grosse Leistungszuwaechse ab einer (RTX 4080Ti/)4090 gibt um mehr Leute (insbesondere Gamer) dann zum Kauf einer teuren (RTX 4080Ti/)RTX 4090 zu bewegen.

Diese Rechnung nVidias wird bei den Preisen und der eher durchwachsenen Spieleentwicklung momentan eher ein Schuss in den Ofen, den AMD/RTG mit einer cleveren Produkt- und Preispolitik zum Gewinn von deutlich mehr Marktanteilen ausnuetzen koennte bei RDNA3 (nur habe ich Zweifel, dass man diese verfolgt und sich vermutlich wieder einmal nur an nVidia orientieren wird, die versteckten Preissteigerungen mitmacht um ebenfalls maximal Profite zu generieren).

Allerdings kann nVidia (ebenso wie AMD/RTG) natuerlich Geld in Entwickler-Sponsoring mit GPU-Leistungsvorgaben geben, um den Verkauf der neuen Grafikkartengenerationen dann kuenstlich zu befeuern (eine ganze Menge Leute wuerden darauf bestimmt wieder anspringen).
Ansonsten sehe ich neben Hochfrequenz-Gaming (fuer (semi-)professionelle Gamer), RT-Raytracing Fetischismus, VR- und 8K-Gaming eher weniger Grund in eine dGPU der kommenden Generation von nVidia oder AMD/RTG zu investieren, wenn Preis-Leistungs-Verhaeltnis (und Gesamtverbrauch/Abwaerme) dort eher rueckwaertsgewandt sind.

Allerdings ist auf der Seite des guten Igor (Igor's Lab) neues zur RX 7900XT zusammen gereimt worden, so dass Verbrauch und Abwaerme auch bei einer RX 7900XT nicht gerade klein ausfallen wird, aber maximal mit 450 TBP (ohne PCIe-Anbindung, die noch mehr erlauben wuerde) zu rechnen sein wird (wie weit das von AMD/RTG bzw. den Boardpartnern ausgereizt werden wird, das wird man sehen muessen).
 
Zuletzt bearbeitet:
Steini1990 schrieb:
Warum darf sich die 12GB RTX 4080 überhaupt 4080 nennen?
Die Unterschiede beim Chip sind doch extrem groß.
Das sind ja nicht die offiziellen Bezeichnungen, also erstmal abwarten, ob die Leaker damit überhaupt richtig liegen.
 
Auf jeden Fall Platz für ne 4080 super und ti und vielleicht ne 4085 mit und ohne ti und super Bezeichnung im Laufe des Produktzyklus sowie die ganzen Abrundungen nach unten und noch weiter oben usw...da wird einiges kommen. Zum Schluß musst überlegen ob ne 4080 oder ne 4085 oder ne 4087tis kaufst😂 oder doch noch 200 Euro drauflegen für ne 4089ti oder doch gleich die große Karte...
 
Max007 schrieb:
450 Watt ist schon dreist, aktuell kostet eine kWh 67 ct. beim günstigsten Anbieter auf verivox. Dazu eine 250W Intel-CPU, schnell liegt man inkl. Monitor bei 900 kWh. Schlappe 6,30€/h fürs Zocken 🥲
Sich empören, bei so einer Fehlkalkulation? Ich weiß ja nicht. 67ct sind auch jetzt totale Abzocke, 30ct sind wesentlich realistischer.
Außerdem gelten die "aktuellen" Preise nur, wenn man jetzt nen (schlechten) Neuvertrag abschließt. Die Meisten werden einen alten Vertrag mit weit geringeren Preisen haben pro KWh.
Nimms mir nicht übel, aber bei so viel mangelnder Information muss man schon fast Gehirnwäsche unterstellen.
 
Da stellt sich - zumindest bei weiter fallenden Preisen - fast die Frage, ob man auf eine 12 GB-4080 warten oder nicht einfach jetzt eine 3080Ti kaufen soll. Der Leistungsunterschied wäre ja laut der letzten Gerüchte vergleichsweise überschaubar und die Speichermenge auch die gleiche.
Ergänzung ()

Tagesmenu schrieb:
Außerdem gelten die "aktuellen" Preise nur, wenn man jetzt nen (schlechten) Neuvertrag abschließt. Die Meisten werden einen alten Vertrag mit weit geringeren Preisen haben pro KWh.
Die maximale Laufzeit für Preisgarantien beträgt aber 24 Monate; danach schickt dir dein Anbieter entweder eine Preiserhöhung oder gleich eine Änderungskündigung, d.h. diese "schlechten Neuvertragspreise" kommen in nicht allzu langer Zeit bei jedem an.

Dabei sind auch die Vorteile als Bestandskunde überschaubar. Wenn du als Bestandskunde 30 Cent zahlst und der Neukunde 70 Cent, dann wirst bei der nächsten Preiserhöhung zwar etwas besser davon kommen und vielleicht nur 62 oder 60 statt 70 Cent zahlen, aber das war's dann auch. Am Ende müssen die Beschaffungskosten ja irgendwie weitergegeben werden.

Wer das Geld für eine 4080 oder 4090 hat, wird aber in der Regel auch damit kein Problem haben. Dafür müsste der Strom schon sehr teuer werden und man müsste gleichzeitig sehr viel spielen ...
 
Zuletzt bearbeitet:
GERmaximus schrieb:
3770k/6700k/1700x/8700K/2600/3600/3800x/5800x/5800x3D
7970/970/290/780ti/980ti/1080ti/2080ti/3090/6900XT/3080ti
ist das deine CPU/GPU History?
Wieso so viele Wechsel, wenn ich fragen darf?
Hats sich das jeweils gelohnt? Auf was für einem 21:9 Monitor zockst du?
 
bitte die reine strompreisdiskussion aus diesem thread auslagern an einen ort wo es besser passt
 
  • Gefällt mir
Reaktionen: Buddha1337
Freestyler schrieb:
ist das deine CPU/GPU History?
In reduzierter Form ja. Da waren noch sli Versuche und ein paar 3090er Karten. Zwischen.
Freestyler schrieb:
Wieso so viele Wechsel, wenn ich fragen darf?
Probiere gerne rum und habe immer mal Produkte beider Hersteller. Außer bei den CPUs.
Freestyler schrieb:
Hats sich das jeweils gelohnt? Auf was für einem 21:9 Monitor zockst du?
Jein,
Gab sidegrades und updates.
Der 5800x3d war ein Riesen Sprung für meine Games. Zock oft mal was alteres mit hoher Single Core Last.
Außerhalb von raytracing macht sich zwischen einer 3080t/3090 und einer 6900xt auch nichts. Die amd Karte hat aber weniger verbraucht und der Treiber war besser.
Bin nur wegen Nvidia Voice und damals Dlss nochmal auf eine Nvidia Karte.

Auf nem lg Ultra irgendwas 850 165hz
3440x1440
 
  • Gefällt mir
Reaktionen: Shoryuken94 und Freestyler
Bright0001 schrieb:
Welches aktuelle AAA Game denn nicht? Schau dir die Benches der 3090Ti doch an: Die wenigsten Spiele schaffen 120fps oder mehr, einige haben selbst nen Struggle mit 60. Und wenn man das umdreht, und sich die aktuellen Spiele anschaut, dann ändert sich an der Tatsache auch nichts.

Da ist noch reichlich Luft! :freaky:
das liegt nicht selten an der CPU und schau dir die Grafik mancher Titel an. Wirklich Blockbuster selten und eine gleichbleibend mäßige Grafik frisst immer mehr GPU Power, einfach weil eine schlechte Engine nicht wirklich bessere Grafik bringt wenn man alle Werte auf Max stellt. Das höchste Setting könnte man oft vom zweit oder dritt höchsten kaum unterscheiden.

Effektiv verbraten wir heute am PC doch oft das 10x an Leistung und Strom für Grafik die oft dem eines AAA Titel von vor 5 Jahren wenn überhaupt gleich kommen.
 
shaboo schrieb:
Ich finde das Leistungsgefälle zwischen 4090 und 12GB-4080 auch ziemlich krass: Nicht mal halb so viele Streaming-Prozessoren und CUDA-Kerne, dazu halb so viel Speicher und auch nur ein halb so großes Speicherinterface. Wenn es sinnhafte Leistungsunterschiede zwischen allen Nvidia-Modellen geben soll, fragt man sich, was da am Ende noch für 4070, 4060 und 4050 an Leistung übrig bleiben wird. :confused_alt:
Solange sie nur 1/3 kostet ist alles in Ordnung finde ich ;)
 
Zurück
Oben