Bericht RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling

Teralios sagt ws schon. Die 3000 kann, wenn es ideal läuft, knallhart leistung zeigen. Nur, wann kann sie das? Dazu muss softwareseitiges einiges darauf optimiert werden. Ist das schon der fall? Wird er es sein? Das ist der Knackpunkt. Ich denke, dass nvidia hier „schummelt“ und den idealfall als standard darstellt, was so nicht sein wird. Das erklärt auch die dev treiber und vorgegeben games bei digital foundrys benches. Das sond nämlich die idealfälle. Da wo ampere seine muskeln voll zeigen kann.
 
  • Gefällt mir
Reaktionen: CableGuy82, m.Kobold, FatalFury und 18 andere
Che-Tah schrieb:
Die 3070 könnte den Daten nach ja tatsächlich schneller sein als eine 2080 Ti... hatte das für Marketing Blabla "in ausgewählten Titeln" gehalten.
Was ich hier jz mitgenommen habe, ist, dass Ampere im worst case so schnell wie Turning und best case doppelt so schnell ist. Abhängig ob eine Berechnung Integer lastiger ist. Das könnte erklären wieso in manchen Games die Frames stärker rauf und runter im Vergleich zu Turning schwanken. Auch interessant wie dabei die für Frametimes abschneiden werden.
 
  • Gefällt mir
Reaktionen: m.Kobold, NMA, Lübke82 und eine weitere Person
NDA Zeiten für die 3080er, sowohl die einzelnen Tests als auch Verkauf:

https://old.reddit.com/r/nvidia/comments/immtul/review_ndas_for_founders_edition_cards_lift_sept/
hwc.PNG


Auerdem geht das ganze um 15:00 Uhr live am 14.

https://www.reddit.com/r/nvidia/com...sertext&utm_name=nvidia&utm_content=t3_imjqby
hwc2.PNG
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Schmiddlon, C3LLoX und 30 andere
Monstranz schrieb:
Warum auch, kaufen doch eh die meisten GRUEN. Warum sollte AMD was guenstigeres fast gleichwertiges bringen. Die machen ihr Portfolio wo anders. Brauchen die Recoucen fuer Gewinnbrigenderes als Grakas.

Genau Konsolen dafür werden die meisten Games verkauft. ;)
 
  • Gefällt mir
Reaktionen: Monstranz
  • Gefällt mir
Reaktionen: cryoman, CableGuy82, silent2k und 4 andere
  • Gefällt mir
Reaktionen: Cyberbernd
Wie schafft es Nvidia schon während das Bild noch berechnet wird mit AI upscaling (DLSS) zu arbeiten? Die temporale Komponente der vorhergehenden Bilder oder Geometrie kann ich ja noch verstehen, aber Licht und Texturen, sind zu dem Zeitpunkt doch noch garnicht bekannt?
 
  • Gefällt mir
Reaktionen: Colindo, Iapetus und Foxel
Am 14. gibts schon die Tests, schee. Zumindest zur FE, die hoffentlich gut ist.
 
  • Gefällt mir
Reaktionen: LuckyMagnum, Mcr-King, KlaraElfer und eine weitere Person
Glyphus schrieb:
Wie schafft es Nvidia schon während das Bild noch berechnet wird mit AI upscaling (DLSS) zu arbeiten? Die temporale Komponente der vorhergehenden Bilder oder Geometrie kann ich ja noch verstehen, aber Licht und Texturen, sind zu dem Zeitpunkt doch noch garnicht bekannt?
Naja. Bilder werden ja nicht immer rein sequenziell gerendert und ausgegeben. Die werden auch gepuffert.
DLSS wird zum Beispiel durchgeführt, bevor die Postprocessing Filter angewendet werden.
Es wird also das Bild berechnet, dann das upscaling durchgeführt und während das upscaling auf den Tensor Kernen läuft können parallel die Postprocessing Effekte am vorherigen Bild durchgeführt werden.
Eventuell kann aber auch schon das nächste Bild vorberechnet werden. Es gibt sicherlich eine Menge Methoden, wie man dort Dinge parallelisieren kann.
 
  • Gefällt mir
Reaktionen: cryoman, CMDCake, Mcr-King und 6 andere
Nero2019 schrieb:
Ich verstehe die zwei Bilder nicht zum Schluss (Bild 3/4 und 4/4). Je höher die Temperatur, desto leiser die Lautstärke?!

Die 3090 ist entweder 30°C kühler bei gleicher Lautstärke oder 20db leiser bei gleicher Temperatur als die Titan RTX.
 
  • Gefällt mir
Reaktionen: Mcr-King und Lübke82
Eine 2080 bei 75% workload, verbraucht also nicht mehr als eine 3080 bei 75% workload? Dann ist es doch entweder Mehrleistung oder weniger Stromverbrauch und nicht beides?
 
  • Gefällt mir
Reaktionen: Mcr-King
Großes Lob von mir an die Redaktion.
Das ist sehr gut technisch recherchiert und erklärt, was sich bei Ampere geändert hat.

Theoretisch ist die Mehrleistung also zwischen Turingperformance und fast doppelter Leistung.
Auch die Tensor,- und RT-Cores sind viel leistungsfähiger, so dass man sich auf kommende Spiele freuen kann, die dass technisch gut umsetzen.

Bei Turing hatte ich immer den Eindruck das es eine Zwischengeneration ist.
Aber was Nvidia hier mit Ampere abliefert, finde ich sehr beeindruckend.

Und das habe ich in fast 30 Jahren PC-Gaming nicht oft zu einer neuen Gen geschrieben. 👍
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: ForumHannes, Schmiddlon, C3LLoX und 15 andere
Sollten sich die Preise einpendeln und AMD 16GB in die Mittelklasse bringen, dann könnte die folgende Generation wirklich als golden Bezeichnet werden.
 
  • Gefällt mir
Reaktionen: NMA
Mustis schrieb:
Nur, wann kann sie das?
Vor allem: Selbst wenn ein Spiel nur FP32/FP16 fordern würde, müssten entsprechend Werte auch zu gefüttert werden und gerade hier könnte auch die Organisation der ALUs mit rein spielen.

Turing frisst über zwei Threads maximal 64 FP und 64 Int. Frage bei Ampere ist: Braucht es auch die zwei Threads, oder reicht einer. Und dann ist die Frage kommen pro Thread auch wirklich 64 oder im Ideal-Fall bis zu 128 FP-Werte an.

Die Zahlen lesen sich echt toll, aber man muss immer beachten: NVIDIA hatte eine relativ simple Hierarchie in ihren SM, die ihnen hilft, die SM gut auszulasten Klar, intern sind die 64 Blöcke in 4 16er geteilt, nur nach außen - was ja ein Teil der Leistung aus macht - sind sie eben als 64 Block da. Wobei, könnte auch sein, das NVIDIA das nun geändert hat.

Das wäre spannend, denn dann könnte Ampere von Async-Shadern noch stärker profitieren als Turing oder Pascal, denke aber kaum, dass sie nun bis zu 8 Threads auf eine SM los lassen und es nach außen in dem "64er" Block bleibt.

Oh spannend, ich freu mich auf die ersten CUDA-Spielereien mit Ampere für Spieler.
 
  • Gefällt mir
Reaktionen: Colindo, Mcr-King, bad_sign und 3 andere
Frage an CB:
Wenn ihr die Founders Edition der RTX 3080 testet, könnt ihr dann mal schauen welchen Einfluss das neue Kühlsystem der Karte auf die Temperatur der CPU hat? Ein Teil des Kühlers pustet ja scheinbar warme Luft nach oben in Richtung der CPU. Wäre interessant zu wissen ob die CPU dadurch wärmer wird als bei einem herkömmlichen Kühlsystem.

RTX 3080 Kühlkonzept.png
 
  • Gefällt mir
Reaktionen: Setting, Schmiddlon, AlWies und 27 andere
eXtra schrieb:
-Unnötiges Komplettzitat entfernt-
Wie es richtig geht, ist hier nachzulesen.
Das ist anzunehmen. Es braucht von vorne schon einen nicht unerheblichen Luftstrom um das vertraeglich fuer die CPU zu machen. Mit einer 95W CPU wird es keine Probs geben (Glaskugel). AIO'S werden weg gehen wie Semmel.
[/QUOTE]
 
Zuletzt bearbeitet von einem Moderator: (Komplettzitat entfernt)
  • Gefällt mir
Reaktionen: Mcr-King und Lübke82
Gnah schrieb:
Jepp, Micron bringt die entsprechenden Chips halt erst 2021:

Braucht man aber für 20GB 3080 Karten nicht. Die 3080 und 3090 setzen nach aktuellen Informationen auf die gleiche Platine und die kann wie bei der 3090 zweiseitig bestückt werden. 20x1GB Chips dürften sogar günstiger sein, als 10x2GB Chips.

Die 2GB Chips sind dann eher für die Quadros interessant, die bisher ja nicht angekündigt sind. Die nutzten schon letzte gGeneration bis zu 48GB.

Eine 20 GB 3080 oder 16GB 3070 kann Nvidia theoretisch zu jedem Zeitpunkt rausbringen.

Ansonsten eine spannende Architektur, die viele Möglichkeiten, aber auch einige Herausforderungen liefert. Mit gut angepasstem Code kann man da bestimmt extrem viel rausholen und da meine ich nicht unbedingt Spiele.

Bin gespannt, wie sich Ampere und RDNA2 gegeneinander schlagen. Könnte mir vorstellen, dass man mit völlig verschiedenen Ansätzen ähnliche Ergebnisse bekommt mit hier und da Vor- und Nachteilen für die eine oder andere Architektur.
 
  • Gefällt mir
Reaktionen: R1c3, stevefrogs, t3chn0 und 2 andere
Man wird abwarten müssen um zu sehen ob die 3000er wirklich die Leistung auf den Boden bekommen.
Da interpretiere ich in solche Technik-Details nicht zu viel hinein.
 
Zurück
Oben