Bericht Nvidia GeForce RTX 4000: Weitere Details zu Architektur, DLSS 3 und Founders Editions

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.630
  • Gefällt mir
Reaktionen: gartenriese, flo.murr, LordExtreme und 11 andere
Anderenorts wird von einem bis 16x Mal größerem L2 Cache gesprochen. Könnt ihr da mal nachhaken?
Die Gerüchte vorher waren in der Hinsicht ja auch eigentlich relativ deutlich.

Grüße
evil

@Wolfgang
https://nvidianews.nvidia.com/news/...ce-rtx-gpu-arrives-for-designers-and-creators

“The new NVIDIA Ada Lovelace architecture will enable designers and engineers to continue pushing the boundaries of engineering simulations,” said Dipankar Choudhury, Ansys Fellow and HPC Center of Excellence lead. “The RTX 6000 GPU’s larger L2 cache, significant increase in number and performance of next-gen cores and increased memory bandwidth will result in impressive performance gains for the broad Ansys application portfolio.”

Der RTX 6000 basiert doch auf dem AD102? Damit müsste der Cache auch auf den Gaming Karten größer sein oder nicht? :)
 
Zuletzt bearbeitet:
Die ersten Bilder von DLSS3 sollen ja nicht so der Hit sein. Hier aus'm Luxx:

dlss3.png


Und dann der Stromverbrauch in der aktuellen Zeit... hui.
 
  • Gefällt mir
Reaktionen: XY-Diddi, C4rp3di3m, flo.murr und 44 andere
Wäre ich potentieller 4xxx Käufer, würde ich das Feature gerne einmal selber testen, bevor ich mich für eine solche GPU entscheide. Denn ich glaube es wird schwierig das Spielgefühl durch interpolierte Frames über Videoberichte nachzuvollziehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DPXone, flo.murr, Flyerdommo und 6 andere
"Das Erstellen eines 8K-Videos im H.265-Codec soll gar in 25 statt 10 Minuten erledigt sein."
Zahlendreher?
 
  • Gefällt mir
Reaktionen: HolySkillet, lalanunu, AntiPriester und 17 andere
"Das Erstellen eines 8K-Videos im H.265-Codec soll gar in 25 statt 10 Minuten erledigt sein." => genau mein Humor ;) :D (Mist...zu langsam...)
 
  • Gefällt mir
Reaktionen: PeriQue1337, wexoo, AntiPriester und 10 andere

DLSS 3 wird einen Ein-/Ausschalter werden​

Klingt irgendwie komisch.

@fortunes Den Vergleich von Einzelbildern halte ich nicht für Realitätsnah. Wenn man in den schnellen Bewegungen des Spiels sichtbare unterschiede erkennt, erst dann würde ich das kritisch sehen.
 
  • Gefällt mir
Reaktionen: Asghan, Affe007, HolySkillet und 2 andere
fortunes schrieb:
Die ersten Bilder von DLSS3 sollen ja nicht so der Hit sein. Hier aus'm Luxx:

Anhang anzeigen 1262715

Und dann der Stromverbrauch in der aktuellen Zeit... hui.
Ich finde DLSS2 und FSR1.0 ja schon oftmals recht schlecht (z.B. Helligkeitsanstieg), aber das hier toppt alles.
Ergänzung ()

Das es jetzt nicht mehr so krasse Spikes beim Stromverbrauch geben soll finde ich gut, sofern sich das bestätigen wird.
 
Der Transistorcount ist schon sehr beindruckend hoch. Hatte sich NVIDIA schon zur Die Größe geäußert?

Edit: Nevermind wurde in einem anderen Artikel genannt.
 
für mich ist die entscheidende Frage wie stark die durchschnittliche FPS Steigerung nativ, also ohne DLSS3 ist.
Frage zwei ist für mich: wie gross die Energieeffizienz pro FPS im nutzbaren Bereich also irgendwo zw. 60-240fps liegt im Vergleich zu RTX 30xx
 
  • Gefällt mir
Reaktionen: Zocker1996, Master_Chief_87, Javeran und 5 andere
Ob man bei 40 FPS ohne DLSS einen Eingabeunterschied zu 80 FPS (oder bei 120 FPS) mit DLSS 3.0 merken wird?
 
  • Gefällt mir
Reaktionen: AntiPriester
@fortunes

Interessanter wäre der Bildvergleich DLSS 2 vs. DLSS 3 und natürlich FSR. Das DLSS die Frames pusht wissen wir bereits.

Zudem würden mich die markierten Bereiche im bewegten Spiel nicht stören und vermutlich gar nicht auffallen. Interessanter ist wie sich DLSS 3 in schnell bewegten Szenen darstellt.

Und vermutlich würde auch DLSS 3 auf Ampere wenn auch nicht so performant laufen. Soweit ich gelesen habe ist das nicht gänzlich ausgeschlossen.
 
  • Gefällt mir
Reaktionen: HolySkillet und Farcrei
Die Zauberfrage ist ja, kann AV1 auch "realtime encoded" werden?!
 
  • Gefällt mir
Reaktionen: Smagjus und Eisenoxid
fortunes schrieb:
Die ersten Bilder von DLSS3 sollen ja nicht so der Hit sein. Hier aus'm Luxx:

Und dann der Stromverbrauch in der aktuellen Zeit... hui.
Was, eine neue Technik die nicht einen Tag nach Ankündigung perfekt in jedem
Szenario perfekt funktioniert? Diese Welt geht langsam wirklich den Bach runter.
 
  • Gefällt mir
Reaktionen: Asghan, gartenriese, XY-Diddi und 3 andere
DLSS ist eine klasse Technik, daran besteht kein Zweifel. Aber da es auf RTX 4000 beschränkt ist und zudem extra implementiert werden muss, wird es ein Nischenprodukt bleiben. Genauso wie PhysX, SLI und sonstige Rohrkrepierer.
 
  • Gefällt mir
Reaktionen: Kommando, AntiPriester, Schinken42 und 4 andere
Wann ist mit Tests zu rechnen?

Zufällig 26.9. oder 5.10.?

Scheint ja richtige Geheimniskrämerei zu sein. 🙄
 
Hab ich das richtig gelesen bei der FE kann man das powerlimit von 450 auf 600 watt erhöhen? 🤩
😍 dann wäre das erste mal die FE interessant für mich
 
  • Gefällt mir
Reaktionen: Ben_computer_Ba und sil79
Freue mich schon wenns Ende des Jahres die ausführlichen Tests gibt. Besonders auf DLSS 3 bin ich gespannt und ob Nvidia es schafft, dass die meisten wichtigen Titel das in Zukunft integrieren.
 
  • Gefällt mir
Reaktionen: gartenriese
was bringt das schnellere encodieren von h.256 wenn die Qualität weiterhin schlecht ist.
ein 8 bit cpu codiert sieht genauso aus wie 10 bit nvidia gpu codiert. bei sonst gleichen parametern.
extrem sieht man das bei feinen farbverläufen wie nebel. Bei nvidia/amd GPU gibt es oft so unschöne tonwertabrisse.

Selbst bei 10 bit gpu und 10 bit cpu ist die CPU-Version kleiner
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: XY-Diddi, c9hris, AntiPriester und 11 andere
Zurück
Oben