Bericht Nvidia GeForce RTX 4000: Weitere Details zu Architektur, DLSS 3 und Founders Editions

GeleeBlau schrieb:
könnnen eine Million GPUs auch einfach in China oder Vietnam abverkaufen. Und die Kaufkraft aus den USA ist auch noch relativ ungebrochen.
China reduziert seine Abhängigkeit von westlichen Dinge und in Vietnam ist die Kaufkraft auch nicht prickelnd.
Im Artikel von Heise stehen 33% Verlust bei Nvidia im Desktopbereich.

USA merkt auch langsam die Inflation. Wobei man dort die Grafikkarten im Normalfall mittlerweile klaut. Gerade in Kalifornien ist das Mode.

Nachdem was man so liest, der Umgang mit EVGA und Partnern generell. Dann noch der beschnittene Chip in der 4070 (4080 12GB ;)
Ich habe den Eindruck das Nvidia mittelfristig nur noch eine FE Version selbst baut und keine Boardpartner haben will.
 
  • Gefällt mir
Reaktionen: Youngtimer, etoo und Illithide
Damit würde nvidia denselben Fehler machen wie eins 3dfx das nvidia gekauft hatte
 
  • Gefällt mir
Reaktionen: EmanuelB
Also warten bis AMD FSR3 released. Für alle Grafikkarten. ..
 
Chismon schrieb:
Bei Lebensmitteln greift genau dort das EU Recht bzw. der Verbraucherschutz, wenn falsche oder täuschende (Marketing-)Angaben gemacht werden oder täuschende Etikettierung/Namensgebung, was vergleichbar mit der nVidia Vorgehensweise bzgl. der RTX 4080 Karten wäre.
Dann dürfte es einen BMW 3er auch nur mit einem Motor geben und ein ThinkPad T14 müsste immer die gleiche Konfiguration haben, die Modellbezeichnung alleine sagt doch zunächst einmal wenig aus. Die Kunden kaufen auch ein Samsung S22 und bekommen in der EU ein anderes Gerät als in den USA.
 
  • Gefällt mir
Reaktionen: RogueSix
Nun wollte ich meine 1080 in Rente schicken, aber so nicht...
 
  • Gefällt mir
Reaktionen: McTheRipper, Chantal Shepard und ragnarok666
Redirion schrieb:
Also es gibt mehr GPUs pro Wafer, auch wenn die Waferkosten gestiegen sind. Das dürfte sich doch wohl ausgleichen?
Um das Mal kurz einzuordnen.
TSMCs normaler 4nm Node kostet pro Wafer fast das 3 Fache wie 7nm DUV. (In Kleinserien ist der Unterschied noch deutlich heftiger)

Samsungs 8nm dürfte NVIDIA sehr günstig bekommen haben, was wohl auch Grund für den Wechsel zu Samsung war. Immerhin sind sie damit der einzige Großkunde für den 10nm Node gewesen. Da ist nach der 3000er Reihe Ende.

Da wird Nvidia sicherlich einen guten Deal mit besseren Konditionen als TSMCs 7nm DUV bekommen haben.
 
Ayo34 schrieb:
Das Feature ist nicht für E-Sport gedacht, sondern für Titel wie Cyberpunk. Sieht man auch deutlich an der Liste, welche Titel DLSS3 überhaupt unterstützen werden. Da ist weder CS noch Valorant dabei. Macht aber wie gesagt auch keinen Sinn.

Das Zwischenframe (Frame 2) kommt ja durch Frame 1 und Frame 3 zu Stande. Heißt Frame 3 (das Neuste) wird zurückgehalten, damit erst Frame 2 ausgespielt werden kann und danach kommt dann das Frame 3. Heißt du siehst später deinen Gegner.

Im Singleplayergame ist das egal und das Bild wirkt weicher. Bei E-Sport-Titeln willst du aber immer die aktuellste Ausgabe sehen, weil du so natürlich deine Gegner eher wahrnimmst. Oder anders ausgedrückt. Du könntest eventuell deine Framezahl verdoppeln, siehst aber deine Gegner trotzdem später. Das will niemand!
Ich nannte E-Sportler für einen AB-Blindtest, da ich davon ausgehe, dass diese Berufs- und Erfahrungsbedingt empfindlicher für Lags / Stottern / Microruckler sind als der gemeine Wald- und Wiesengamer wie ich ;); Du hast natürlich Recht das DLSS3 für E-Sport Titel, die eh bereits mit hohen, dreistelligen fps laufen, nicht interessant ist.
Diese Experten sollte man vor 2 unmarkierten PCs setzen, auf eine läuft Cyberpunk, Flight Sim, etc. nativ, auf dem anderen mit DLSS3. Dann sollen sie ihre subjektiven Eindrücke der Spielerfahrung beschreiben und was ihnen besser gefallen hat.

Ich denke, dass was du hier zu Zwsichenframes schreibst ist nicht korrekt; das was du hier nennst ist die Zwischenbildberechnung von modernen Fernsehern. So wie ich DLSS3 verstanden habe verwendend es nur Daten von vorherigen Frames und projektziert (nicht interpoliert!) daraus einen neuen Frame. Deswegen können auch keine Benutzereingaben berücksichtigt werden; bei dem was du beschreibst wäre das möglich (Frame 3 basiert auf Benutzereingaben), würde aber wohl so was wie Tripple-Buffering voraussetzen, was den Lag, abseits der Berechnungszeit für den generierten Frame, nochmals deutlich verschlechtern würde.
DLSS3 sollte ähnlich, aber wohl technisch ausgewiefter, der Temporal Projection in VR Spielen sein, nur eben ohne einen Einfluss der Benutzereingaben.

Und ich sehe das durchaus als relevant für Singleplayerspiele, aber halt nur wen man auf 4K, 5K oder 8K mit Ultra Settings spielt und empfindlich für Input Lag, Microruckler oder hakeliger Steuerung ist. Hier ist der Unterschied zwischen 30 und 60fps, zumindest für mich, gigantisch was die Spielerfahrung angeht, und DLSS3 muss erst noch in unabhängigen Tests zeigen, ob es hier gleichwertige Verbesserungen mit sich bringt, oder doch nur ein reines Marketingfeature ist, dass lange Balken produzieren soll um unerfahrene Käufer zu täuschen…. NV Marketing ist ja bekanntlich voll mit BS.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Illithide
ich erinnere mich noch an Zeiten wo eine High-End GPU unter 1000CHF kostete. zb. 6800GTX oder 7900GTX knapp 800-900CHF. die 8800Ultra war um die 900-1000.-
spinnt es nVidia? 2000€ für eine High-end Karte, denken die wir haben alle Gold im Garten vergraben?
Für viele ist das ein halber Monatslohn... jedes Jahr 2000€ für eine neue GPU??? = Dachschaden von nVidia.

Ich hoffe bloss AMD springt nicht auf den gleichen Irren-Zug auf.
Dann doch lieber die Leistung halbieren und den Preis, wer braucht jetzt die 4-6fache Leistung von der 3000er Serie? und nächstes Jahr der gleiche Wahnsinn nochmals 4-6mal schneller als die vorserie und wieder 2 bis 3k€ für eine GPU...
 

ragnarok666


Warten wir mal auf Tests, aber nach dem was Nvidia beschreibt ist es mMn schon so wie er es beschrieben hat.

Bei dem was du beschreibst, also dass Frames in die Zukunft gedacht/geschätzt werden, würde es keinerlei zusätzlichen inputlag geben, da die echten Frames unverzögert dargestellt werden und das Zwischenbild bereits erzeugt wirde, bevor das neue echte Frame kommt.
Ich halte das für technisch noch nicht machbar.

Ich gehe von eine Zwischenbildberechnung ähnlich der TVs aus, was auch die Notwendigkeit von Reflex erklären würde.

Mal ein einfaches Beispiel. Angenommen das Spiel läuft ohne DLSS mit 40 FPS und hat 50 ms inputlag.
Jetzt aktivierst du DLSS 2 und der Inputlag geht durch die hohen FPS automatisch auf sagen wir 25 ms bei nun 80 FPS. Jetzt aktivierst du zusätzlich DLSS3, es wird um ein Frame verzögert um Zwischenbildberechnung zu machen, kommst also auf ca 37 ms lag bei 160 FPS. Dank Reflex wird der Inputlag aber deutlich reduziert, wodurch du womöglich wieder bei 25 ms oder weniger landen könntest. Ist also immernoch viel weniger als die 50 ms nativ.

Kurz gesagt, DLSS2 reduziert den Inputlag durch die hohen FPS, Reflex reduziert den Inputlag durch das frei halten der Renderqueue und dann würde es bei DLSS3 auch kaum ins gewicht fallen, wenn man um 1 Frame verzögern müsste, weil man unterm Strich immernoch einen viel geringeren Inputlag als nativ hat.

Ob DLSS3 jetzt wirklich einen Frame verzögert oder nicht muss sich wie gesagt dann zeigen, aber rein logisch wäre das überhaupt kein Problem, da man den Lag mit DLSS2 und Reflex schon überkompensiert.
 
xexex schrieb:
die Modellbezeichnung alleine sagt doch zunächst einmal wenig aus. Die Kunden kaufen auch ein Samsung S22 und bekommen in der EU ein anderes Gerät als in den USA.
Es geht nicht per se um die Modellbezeichnung, sondern die Information auf der Verpackung der Grafikkarte und da soll bei einer RTX4080 16 GB eben nicht größerer, leistungsstärkerer AD 103er Chip stehen und bei einer "RTX 4080" 12GB eben auch nicht schwächerer AD 104er Chip aufgelistet sein, so dass der Käufer anhand der Verpackungsangaben sich nur denken kann, dass es 4 GB Unterschied im Speicherausbau gibt und das den Preis- und Leistungsunterschied begründet. Das ist aber mitnichten der Fall.

Wenn das so in der EU kommen sollte (denn in den USA kommt man damit scheinbar durch), dann wäre ganz klar eine Kundentäuschung gegeben.

Wie dumm und dämlich nVidia gedenkt mit den Ada Lovelace RTX 4000er Grafikkarten an der Kundschaft zu verdienen, wird auch im aktuellen MLID Video aufgegriffen, wobei ich einige Aussagen dort eher mit einem Fragezeichen markieren würde (nicht nur die üblichen, eher lächerlich selbstbeweihräuchernden Statements von Tom, alles schon immer (besser) im Voraus genau gewusst zu haben, denn in einem vorherigen Video wollte er ja weiss machen, dass vordergründig die Fertigung für die Preisanstiege zusammen genommen verantwortlich sei, was natürlich Quark war und die sehr unterschiedlich starken Unterschiede im Preisanstieg zwischen RTX 4080 und 4090 Karten nicht erklären konnte).


Warten auf RDNA3 und erste AMD/RTG Grafikkartenpreise diesbzgl. ist wohl angesagt für die meisten Interessenten und Käufer, die eine dGPU der neuen Generation haben wollen und sich nicht vorher mit Wucherpreisen von nVidia abziehen lassen wollen.

Hoffentlich bleibt AMD/RTG auf dem Boden und wird eine Menge Boden (Marktanteile) im Grafikkartenmarkt zukünftig gut machen, so dass Huang und Co. ins schwitzen kommen angesichts der unverschämt hoch angesetzten nVidia Preise.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Recharging, BGnom und ragnarok666
Chismon schrieb:
Es geht nicht per se um die Modellbezeichnung, sondern die Information auf der Verpackung der Grafikkarte und da soll bei einer RTX4080 16 GB eben nicht größerer, leistungsstärkerer AD 103er Chip stehen und bei einer "RTX 4080" 12GB eben auch nicht schwächerer,
Genau darum geht es sehr wohl, keine den Bezeichnungen ist an dieser Stelle falsch oder irreführend, wie es zum Beispiel im Falle der 970 gewesen ist. Würde man danach gehen, hätte es nie eine 3080 12GB oder eine 2060 12GB geben dürfen, genauso wenig wie einen BMW3er 1,2 und 3,0 oder andere Geräte, ohne dass alle Ausstattungsmerkmale auf dem Karton gedruckt wären.

Ich gebe dir recht, für den Kunden ist es durchaus irreführend, eine Bezeichnung wie FE, Plus oder Ultra, wie man sie Smartphones mittlerweile kennt, beschreibt eher ein unterschiedliches Modell, als ein ausgeschriebenes Merkmal. Allerdings hatte alleine die Autoindustrie früher und zum Teil auch heute, immer ebenfalls nur die Motorisierung angegeben und trotzdem diverse Ausstattungsvarianten im Hintergrund geändert ohne das es jemanden gestört hätte.
 
  • Gefällt mir
Reaktionen: Chismon
xexex schrieb:
Allerdings hatte alleine die Autoindustrie früher und zum Teil auch heute, immer ebenfalls nur die Motorisierung angegeben und trotzdem diverse Ausstattungsvarianten im Hintergrund geändert ohne das es jemanden gestört hätte.
Möglich, dass man im Lebensmittelrecht dort empfindsamer in der EU reagiert, weil u.U. auch die eigene Gesundheit damit gefährdet werden könnte, bei Autos und Grafikkarten wohl eher nicht.
Konsequenter Verbraucherschutz sieht aber anders aus und ich fände es gut, wenn man hier (zumindest in der EU) endlich einmal ein Zeichen setzen würde.

Die irreführende Werbung, dass die Karten ab 899 US$ zu kaufen sein sollen, es aber gleichzeitig keine Founder's Edition der "RTX 4080" 12GB wird, die diesen Preis absichert gegenüber i.d.R. teureren Custom-Modellen der Boardpartner ist ein anderer Punkt, der Handlungsbedarf erfordern könnte, von den anderen bisher nicht validierten Werbeaussagen (in denen Ampere mit Ada Lovelace verglichen wird) ganz zu schweigen.
 
Tudeski schrieb:
Für viele ist das ein halber Monatslohn... jedes Jahr 2000€ für eine neue GPU??? = Dachschaden von nVidia.
Das verdienen einige nicht mal mit 1Monats Lohn.
 
  • Gefällt mir
Reaktionen: McFritte, msv, eXe777 und 5 andere
Chismon schrieb:
Möglich, dass man im Lebensmittelrecht dort empfindsamer in der EU reagiert, weil u.U. auch die eigene Gesundheit damit gefährdet werden könnte, bei Autos und Grafikkarten wohl eher nicht.
Das sehe ich nicht einmal so, sonst dürfte es keine "Light" Produkte geben, einzig bei Zigaretten hat man sich darüber erpicht. Erst recht dürfte es auch keine Erdbeersmoothies geben mit 50% Apfelsaft und 5% Erdbeeren oder Pesto mit Olivenöl wo dann 5% Olivenöl drin ist, aufgefüllt mit Sonnenblumenöl. Es gibt kaum eine Branche in der mehr seltsame und uneinheitliche Regelungen verabschiedet wurden, als die Lebensmittelbranche. Immerhin darf Krombacher nicht mehr als "aus Felsquellwasser gebraut" beworben werden, dass es nun "mit Felsquellwasser gebraut" heißt, haben viele nicht einmal gemerkt.
 
Tudeski schrieb:
Für viele ist das ein halber Monatslohn... jedes Jahr 2000€ für eine neue GPU??? = Dachschaden von nVidia.
Da seid ihr in der Schweiz noch relativ gut dran. In D wird - wenn überhaupt - gerade mal die Hälfte verdient.
 
  • Gefällt mir
Reaktionen: Visualist und McTheRipper
W0dan schrieb:
Bei dem was du beschreibst, also dass Frames in die Zukunft gedacht/geschätzt werden, würde es keinerlei zusätzlichen inputlag geben, da die echten Frames unverzögert dargestellt werden und das Zwischenbild bereits erzeugt wirde, bevor das neue echte Frame kommt.
Ich halte das für technisch noch nicht machbar.

Ich gehe von eine Zwischenbildberechnung ähnlich der TVs aus, was auch die Notwendigkeit von Reflex erklären würde.
Wenn dem so wäre, sollte das Ganze dann nicht ohne Engine-Integration als reiner Post-Procesing Effekt im Framebuffer funktionierten und die fps immer um einen Ganzzahligen Faktor erhöhen?
Hat Nvidia im Video nicht selbst gesagt, dass die Framegenerierung sehr Rechenaufwaendig ist, was Lag erzeugt; außerdem wird dafür keine Benutzereingabe berücksichtigt, was nochmals 1 Frame mehr Lag bedeutet. Die generierten Frames müssen auch irgendwie sinnvoll in den Frameverlauf eingefügt werden, damit es keine Microruckler gibt, wofür der nachfolge, echte Frame wohl verzögert ausgegeben werden muss (ich spekuliere hier nur wild rum... :heilig:,solange es keine unabhängige Tests gibt bin ich sehr Skeptisch)

Aus Nvidias Blog: Information is taken from sequential frames and an optical flow field to generate a new high-quality frame, boosting performance in both GPU– and CPU-bound scenarios.
sequential frames -> Aufeinander folgende Frames; nicht davor + danach
 
Zuletzt bearbeitet:
MasterAK schrieb:
Da seid ihr in der Schweiz noch relativ gut dran. In D wird - wenn überhaupt - gerade mal die Hälfte verdient.
Also...jetzt mal ehrlich! Geht's jetzt hier um die Job-Frage?

Dann könnte ich zwei Dinge entgegenbringen:
A) Du hast dir deinen Job doch selbst ausgesucht.
B) Wenn du unglücklich bist, wechsel eben.

Ich bin sehr lange für wenig Geld arbeiten gegangen, habe von der Hand in den Mund gelebt. Da war kein einziger Euro am Ende des Monats übrig. Dann habe ich neben dem Job studiert und mich später neu orientiert. Das war alles mit Anfang 30!

Ich bin Single und verdiene im oberen Mittelfeld, sodass 2,7k netto am Ende bei rauskommen. Ich lebe in einer teuren Stadt, hatte aber Glück bei der Wohnungssuche. Keine Kinder, keine Frau...

Meinen Gaming-PC, siehe Signatur, habe ich dennoch auf Kredit am laufen, weil nicht mal eben >2k aus dem Fenster werfen wollte (wobei das Geld faktisch da wäre, um das Ding in einem Wisch abzuzahlen)...kann jeder, dafür gibt es Kredite.
 
MasterAK schrieb:
Da seid ihr in der Schweiz noch relativ gut dran. In D wird - wenn überhaupt - gerade mal die Hälfte verdient.
der lohn hier ist schon hoch, aber die lebenserhaltung von viel höher.
wir bezahlen mieten von 2500-3000€ im monat in der stadt für 2.5 Zimmer wohnungen ca. 70m2, ende monat als familienvater bleibt mir ev. fast nichts übrig.
deswegen finde ich die preispolitik von nvidia zum kotzen.
 
ragnarok666 schrieb:
Wenn dem so wäre, sollte das Ganze dann nicht ohne Engine-Integration als reiner Post-Procesing Effekt im Framebuffer funktionierten?
Hat Nvidia im Video nicht selbst gesagt, dass die Framegenerierung sehr Rechenaufwaendig ist, was Lag erzeugt; auserdem wird dafür keine Benutzereingabe berücksichtigt, was nochmals 1 Frame mehr Lag bedeutet. Die generierten Frames müssen auch irgendwie dinnvoll in den Frameverlauf eingefügt werden, damit es keine Microruckler gibt, wofür der nachfolge, echte Frame wohl verzögert ausgegeben werden muss (ich spekuliere hier nur wild rum... :heilig:,solange es keine unabhängige Tests gibt binn ich sehr Skeptisch)

Aus Nvidias Blog: Information is taken from sequential frames and an optical flow field to generate a new high-quality frame, boosting performance in both GPU– and CPU-bound scenarios.
sequential frames -> Aufeinander folgende Frames; nicht davor + danach

Ist halt wie mit DLSS2. Wenn du zugriff auf die Daten der Engine hast, ist das Ergebnis viel hochwertiger, weil man die Inhalte auch korrekt "versteht" und nicht erst interpretieren muss. Ist beim Upscaling sicher genauso wie bei einer Zwischenbildberechnung.

Und dass die Eingabe beim generierten Frame nicht berücksichtigt wird wäre für mich logisch, da ja die Eingabe sonst von der Engine kommen muss, was dfür hohe CPU last sorgen würde, da "echte frames" (du kannst ja in einem Flugimsulator nicht einfach die Kamera auf der GPU schwenken lassen, wenn im Spiel selbst die Maus vielleicht sogar invertiert für die Flugsteuerung genutzt wird. Wie soll da die GPU wissen, was mit der Mausbewegung passieren soll, das funktioniert in VR mit diesem Asynchonus Warp aber nicht in nem normalen Spiel).
 
  • Gefällt mir
Reaktionen: Illithide
W0dan schrieb:
Ist halt wie mit DLSS2. Wenn du zugriff auf die Daten der Engine hast, ist das Ergebnis viel hochwertiger, weil man die Inhalte auch korrekt "versteht" und nicht erst interpretieren muss. Ist beim Upscaling sicher genauso wie bei einer Zwischenbildberechnung.
Von Techpowerup: The new Optical Flow Accelerator incorporated into the NVIDIA Ada Lovelace architecture analyzes two sequential in-game images and calculates motion vector data for objects and elements that appear in the frame, but are not modeled by traditional game engine motion vectors.
--> Kein Zwischenframe
 
  • Gefällt mir
Reaktionen: McTheRipper und Illithide
Zurück
Oben