News F1 2020: Patch 1.08 bringt DLSS 2.0 für GeForce RTX

Die Zeit wird es zeigen.

Ist es wirklich notwendig, dass AMD die Katze komplett aus dem Sack lässt, wenn Nvidia quasi „morgen“ Ampere vorstellt? Finde ich nicht unbedingt.

Intel bekommt für seine Paper Launches immer ganz schön was auf den Deckel.

Wer weiß, was es bei AMD noch für Deals zu RDNA2 gibt, was das bereitstellen irgendwelcher technischen Infos und Möglichkeiten anbelangt.
 
Herdware schrieb:
Das über die Textureinheiten berechnen zu lassen klingt sehr elegant, aber es bleibt abzuwarten wie die Performace aussehen wird, im Vergleich zu Nvidias GPUs mit ihren spezialisierten RTX Cores.
AMDs Weg hätte aber den Vorteil, dass Recheneinheiten zur allgemeinen Performance beitragen können, wenn kein Raytracing berechnet werden muss oder kann die Leistung generell flexibler aufteilen. Bei Nvidia liegt ohne Raytracing (oder DLSS) die Leistung der RTX Cores ja mehr oder weniger brach.
 
@mibbio
Deswegen schrieb ich ja, dass AMDs Ansatz grundsätzlich eleganter ist. Wenn auch noch die RT-Performance vergleichbar ist mit Nvidias-Methode, dann steht Nvidia schon ziemlich blöd da, mit ihren spezialisierten RTX-Cores, die sonst nichts anderes können.
Hätte Nvidia den Platz auf den Chips, den Tensor- und RTX-Cores einnehmen, für klassische Recheneinheiten genutzt, sähe die Performance der Turing-GPUs ganz anders aus. Oder sie wären deutlich billiger, wenn die spezialisierten Cores ganz gegelassen würden und die Chips entsprechend kleiner wären.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
So ließ sich auf einer GeForce RTX 2060 in 3.840 × 2.160 die Framerate um 35 Prozent erhöhen, was diese auf knapp über 60 FPS gehievt hat. Bei den 0,2% Perzentil-FPS zeigt sich ein Plus von 47 Prozent.

Es gibt Situationen wo man die Prozentzahlen nicht verwenden soll. Sie geben kein klares Bild ab. In eurem Test erkennt man das DLSS sowohl bei Framerate als auch bei den 0,2% Perzentil-FPS jeweils um 15fps höher ist.
 
DLSS ist echt die Sache..Nvidia investiert ja schon lange richtig fett in KI und holt damit auch was raus. Die dicken Fische wie MS kaufen da ihre KI Hardware ein. Klar das AMD da nicht sofort mithalten kann. Die Aktie fliegt auch nur so davon..

Bin mal sehr gespannt was Jensen am 1.9 ankündigt. Laut Nvidia die Revolution seit 1999..Naja marketingbla..Aber wenn die DLSS 3.0 für die neuen Karten raushauen und das in jedem Game welches TAA unterstütz läuft...Dann noch die Power der 3090..Hammer. InstaBuy.
 
Herdware schrieb:
Deswegen schrieb ich ja, dass AMDs Ansatz grundsätzlich eleganter ist
Da hatte ich wohl einfach nur zu schnell gelesen und das "eleganter" übersehen, und mich dann am "aber" orientiert.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
mibbio schrieb:
AMDs Weg hätte aber den Vorteil, dass Recheneinheiten zur allgemeinen Performance beitragen können, wenn kein Raytracing berechnet werden muss oder kann die Leistung generell flexibler aufteilen. Bei Nvidia liegt ohne Raytracing (oder DLSS) die Leistung der RTX Cores ja mehr oder weniger brach.

Kann ein Vorteil aber auch ein Nachteil sein, denn wenn Raytracingberechnungen durchgeführt werden müssen, können diese auch nichts anderes Berechnen. Auf dem Papier musst du dich also entscheiden, welchen Nachteil das im spiel macht, wissen wir stand heute nicht. Wir wissen auch nicht, wie effizient und schnell die RTX Berechnungen der TMUs im Vergleich zu den RTX Cores von Nvidia ist. Und auch die angepassten TMUs werden entsprechend ein paar zusätzliche Transistoren benötigen, um beide Berechnungen durchführen zu können.

Beide Ansätze haben da auf dem Papier Ihre Vorteile, aber auch Ihre Nachteile. Das Ergebnis muss man abwarten und kann man nicht abschätzen.

Herdware schrieb:
Hätte Nvidia den Platz auf den Chips, den Tensor- und RTX-Cores einnehmen, für klassische Recheneinheiten genutzt, sähe die Performance der Turing-GPUs ganz anders aus. Oder sie wären deutlich billiger, wenn die spezialisierten Cores ganz gegelassen würden und die Chips entsprechend kleiner wären.

Die Tensorcores sind wohl eine der besten Investitionen in Chipfläche seit langem. Sieht man ja teils sehr schön bei DLSS, wo man trotz vergleichbarer Qualität 30-100% Mehrleistung aus dem Chip bekommt, ohne extreme leistungsaufnahmen. Denn man hat damit am Ende auch eine extreme Effizienz.

Natürlich kann man so einen riesigen Chip auch nur mit Recheneinheiten vollpacken. Das hat aber ziemliche Nachteile. Je mehr Recheneinheiten, umso schwerer sind diese auszulasten. Zum anderen Steigt die Leistungsaufnahme extrem. Eine Custom 2080Ti liegt schon gerne mal bei deutlich über 300 Watt. Hätte man die Fläche der Zusatzfunktionen für Shader verwendet und das gleiche Taktniveau gehalten, dann wären wir irgendwo bei um die 500 Watt angelangt.

Gleichzeitig wäre man zwar in klassischen Spielen etwas schneller, aber man käme nicht an Die Leistung von DLSS in entsprechenden Spielen heran.

Die Chips wären günstiger, dass stimmt. Aber Turing wird in einem günstigeren 12nm Prozess gefertigt, der pro Flächeneinheit nur etwa die Hälfte von TSMCs 7nm Prozess kostet. Man kann also im Grunde etwa die doppelte Chipfläche pro Preisklasse wie die Konkurrenz bringen.

Gleichzeitig sind die Chips mit den Zusatzfunktionen so mehrfach verwendbar. RTX Cores und Tensor Cores sind nicht nur für Spieler interessant. Sie sind für professionelle Anwender sogar noch viel interessanter und so kann man den gleichen Chip sowohl in einer Spielerkarte, als auch in Professionellen produkten verwenden. Das spart am ende auch Geld, womit es wohl auch der günstigste Weg ist.
 
  • Gefällt mir
Reaktionen: Affe007, evilhunter, Herdware und 2 andere
fwsteiner schrieb:
DLSS ist ein Game Changer, gerade wenn es wirklich mal in jedem Spiel funktioniert. Die Frage ist, schießt sich Nvidia nicht dann selbst etwas ins Knie?
Nein- Denn das ist in den Verkaufspreis der RTX 20xx- Generation bereits einkalkuliert.
Die Preise sind entgegen dem, was viele hier annehmen, eben nicht grundlos gestiegen.

Man erhält da schon einen technischen Gegenwert dafür, der aber natürlich am Anfang aufgrund mangelnder Unterstützung in Software so nicht erkennbar war.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn, evilhunter und Shoryuken94
@.Sentinel. Mit DLSS eingerechnet ist der Leistungssprung von Turing auch wirklich enorm. Problematisch ist am ende aktuell halt noch die Verbreitung der Technik. Aber mit immer mehr Spielen, wird sich das auch legen. Das Interesse der Entwickler an DLSS scheint auch etwas größer zu sein, als an RTX.

Ein anderer Grund für die höheren Preise ist am Ende aber auch ganz einfach die Rechenleistung in bestimmten bereichen, die man bekommt. Die Turingkarten sind schon ehr beliebt bei vielen AI / DL Projekten und Entwicklern. Turing ist halt nicht nur ein Spielzeug, sondern durchaus auch für professionelle Anwendungen spannend. Entsprechend sind die Chips auch bepreist. Sollte sich DLSS aber weiter durchsetzen, dann erreichen auch Mittelklasse Karten ein Leistungsniveau, was für viele mehr als ausreichend ist.

Ansonsten ist es beim Start einer neuen Technik wirklich immer schwer. turing konnte zum Launch seine großen Sellingpoints nicht zeigen und auch die Architektrverbesserungen sind durch die alten Spiele zum testzeitpunkt nicht wirklich zu Tragen gekommen. Mittlerweile hat sich Turing auch abseits der Funktionen sehr gut entwickelt.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Shoryuken94 schrieb:
Ein anderer Grund für die höheren Preise ist am Ende aber auch ganz einfach die Rechenleistung in bestimmten bereichen, die man bekommt. Die Turingkarten sind schon ehr beliebt bei vielen AI / DL Projekten und Entwicklern.
So sieht es aus. nvidia hat sich da in eine Zwicklmühle gebracht und sich in gewissen Bereichen selbst kannibalisiert. Wir bauen inzwischen für diverse Firmen, die Inferencing nur auflösen und nicht generieren müssen überwiegend 3x2080TI Lösungen ein, anstatt früher Quadros.
Und die Maschinen sind erheblich leistungsfähiger und im Gegenzug zu vorher geradezu lächerlich günstig.

Das interessiert verständlicherweise aber den Consumer wenig, wenn sich ein Hersteller damit eigentlich selbst ins Bein schießt. Die sehen nur den absoluten Preis und das, was zum Zeitpunkt des Kaufs damit an nutzbarer Performance einhergeht.
Diesbezüglich war Turing für den User kein attraktives Angebot. Die Systemseller haben gefehlt und sind auch jetzt nur spärlich vorhanden. Cyberpunk und Vampire Bloodlines könntens richten.

Langsam kriegen die User es zumindest langsam auf die Kette, was Tensor Cores leisten können, wenn man DLSS betrachtet. Die wurden ja auch lange Zeit als Platzverschwender beschimpft.
Das hat sich zum Glück inzwischen geändert, liefert die Technik inzwischen das, was zu Anfang vollmundig versprochen wurde.

Ansonsten ist es beim Start einer neuen Technik wirklich immer schwer. turing konnte zum Launch seine großen Sellingpoints nicht zeigen und auch die Architektrverbesserungen sind durch die alten Spiele zum testzeitpunkt nicht wirklich zu Tragen gekommen. Mittlerweile hat sich Turing auch abseits der Funktionen sehr gut entwickelt.
Deswegen bin ich kein großer Freund von Vorverurteilung und Schnellschüssen bezüglich diverser Techniken.
Damit tut man einer Hardware im Normalfall einfach unrecht.
Wie will man denn schon Dinge vergleichen, die eine andere Generation erst garnicht zu bieten hat?

Und da liegt das Problem an den Vergleichsmetriken bezüglich der Leistungsfähigkeit einer Karte. Dabei wird nur immer der alte Stand der Technik vergleichen, also im dümmsten Fall nur ein kleiner Teilbereich an Features.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: evilhunter und Shoryuken94
fwsteiner schrieb:
DLSS ist ein Game Changer, gerade wenn es wirklich mal in jedem Spiel funktioniert. Die Frage ist, schießt sich Nvidia nicht dann selbst etwas ins Knie? Wer kauft dann noch die schnellen Karten? Es sieht ja so aus, als würde mit DLSS zB eine 2060 für 1440p locker ausreichen und teilweise sogar 4k ermöglichen. Das ist ja eigentlich die Leistung einer 2070.

Denke ich nicht. :)

Der Trend zu höheren Refreshraten und höheren Auflösungen ist ungebrochen. Nimm dazu den "normal" steigenden Bedarf an Leistung und bedenke, dass die neuen Konsolen zumindest für 2-3 Jahre die derzeit fest sitzende "Hardware-Handbremse" lösen werden.

Marktbreit gesehen ist zusätzliche Leistung in jeder Klasse sinnvoll.
 
Ich spiele F1 2020 mit 1440p auf einem 27" 144Hz Monitor. Grafikkarte ist eine 2070 Super.
Alle Grafikoptionen auf High/Ultra gestellt, bis auf SSRT-Shadows (off). Damit erreiche ich im Schnitt 90 bis 100 FPS.
Ich war natürlich neugierig, wie DLSS ausschaut und wie hoch der Performance-Gewinn ist.
Ja der Performance-Gewinn ist da, im Schnitt 20 bis 30 FPS - nicht schlecht. Aber: Man sieht es nach meiner subjektiven Meinung auch deutlich, dass die Bildqualität schlechter ist. Es ist klar zu sehen, dass hier nicht die native Auflösung dargestellt wird, mit all seinen Nachteilen. Daher habe ich DLSS wieder ausgestellt. Aus meiner Sicht ist es nicht nötig, auch ohne DLSS habe ich genug Leistung.

Meiner Meinung nach ist DLSS in F1 2020 nur sinnvoll, wenn man in 4k spielen will und eine dafür etwas schwachbrüstige Grafikkarte hat, die DLSS unterstützt. Da F1 2020 sonst grafisch nicht sonderlich anspruchsvoll ist, ist DLSS für Auflösung unter 4k useless, wenn die Grafikkarte passt.
Wenn man Wert auf SSRT-Schatten legt (Screen Space Ray Tracing) könnte DLSS es vielleicht von nutzen sein. SSRT-Schatten erzeugen nochmals einen eigenen Schatten von umgebungsnahen Objekten, so wirft z.B. das Halo auf dem Fahrzeug selbst nochmals einen weichen Schatten, zusätzlich zu dem, der von der Sonne geworfen wird. Das ist sehr rechenintensiv und sieht auch nicht sonderlich natürlich aus - kann man also drauf verzichten.
 
Das Witzige ist ja, dass Turing nicht mal mit DLSS und RTX voll ausgeschöpft wird.

Die ganzen wichtigen DX12 Ultimate Features, die ja jetzt mit der Next Gen kommen und die Turing als erste GPU Architektur unterstützt, werden ja noch gar nicht genutzt. Da sind Features drin, die die Performance und Grafik maßgeblich beeinflussen werden.

@mikag das ist ja seltsam, normalerweise sieht DLSS besser als native Qualität aus. Magst du mal Screenshots posten?
 
  • Gefällt mir
Reaktionen: .Sentinel.
dampflokfreund schrieb:
@mikag das ist ja seltsam, normalerweise sieht DLSS besser als native Qualität aus. Magst du mal Screenshots posten?
Screenshots sind hier nicht der richtige Weg, man sollte das schon in Bewegung vergleichen können. Und dann ist da noch das subjektive, der eine mag es eher schärfer, der andere vielleicht nicht. Dann steht die Technik gerade erst am Anfang von gut, dort ist sicher noch mehr raus zu holen. DX12 an sich hat auch ewig gedauert bis Spiele davon breitbandig profitierten.
Ich finde es toll mit einer "3070" 4K spielen zu können. Da ist dann auch ein Verkaufspreis von ~600€ gar nicht mehr wirklich teuer, zumindest für mich.
 
Zuletzt bearbeitet:
@dampflokfreund: Bei DLSS wird doch eine niedrigere Auflösung gerendert als die Native. Dadurch gehen zwangsläufig Bildinformationen verloren. Für eine Auflösung mit 2.560 × 1.440 wird nur ein Bild mit 1.706 × 960 gerendert und wieder auf 2.560 × 1.440 "gestreckt". Dadurch wirkt das Bild entsprechend verwaschen. DLSS versucht, die bei der "Streckung" fehlenden Bildinformationen zu glätten. Das kann aber nie so gut funktionieren, wie als wenn das Bild direkt in der nativen Auflösung berechnet wird.
 
  • Gefällt mir
Reaktionen: Animal Mother
mikag schrieb:
@dampflokfreund: Bei DLSS wird doch eine niedrigere Auflösung gerendert als die Native. Dadurch gehen zwangsläufig Bildinformationen verloren. Für eine Auflösung mit 2.560 × 1.440 wird nur ein Bild mit 1.706 × 960 gerendert und wieder auf 2.560 × 1.440 "gestreckt". Dadurch wirkt das Bild entsprechend verwaschen. DLSS versucht, die bei der "Streckung" fehlenden Bildinformationen zu glätten. Das kann aber nie so gut funktionieren, wie als wenn das Bild direkt in der nativen Auflösung berechnet wird.

Das ist so pauschal dargestellt quatsch. Gerade DLSS 2.0 ist da gut dabei. Das ist auch nicht mit einem klassischen Kompressionsverfahren vergleichbar.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ViridisVis, Esenel und Shoryuken94
Casillas schrieb:
Die Zeit wird es zeigen.

Ist es wirklich notwendig, dass AMD die Katze komplett aus dem Sack lässt, wenn Nvidia quasi „morgen“ Ampere vorstellt? Finde ich nicht unbedingt.
Wenn AMD ein Standing im Gamerbereich hätte, wäre es sicherlich nicht so wichtig. Aber man hat sich in letzter Zeit im GPU Bereich nicht mit Ruhm bekleckert und erst nach Jahren geschafft eine Karte auf den Markt zu bringen die mit einer GTX 1080 konkurrieren kann. Zugegeben hat man ein sehr gutes Preis/Leistungsverhältnis, aber ich für meinen Teil durste nach einer schnelleren Highend Karte. Zwar lassen die Konsolen Potential erahnen, aber die reine Rohleistung lies sich nie wirklich zwischen Nvidia und AMD vergleichen. Es ist zu schwammig was für eine Raytracing Performance uns erwartet, ob man eine Konkurrenz zur DLSS hat oder ob man zumindest im RAM Bereich wieder zu alten Tugen zurückfindet und NV in die Schranken weißt. Ohne ein wenig konkreter zu werden warte ich (und viele andere) jetzt nicht 2 Monate länger nur um dann (übersptitz gesagt) ein Konkurrenzprodukt zur 2080 Ti zu kaufen.

Schließlich dominiert Nvidia den dedizierten GPU Markt und der ist jetzt in einer heißen Phase in der man sich zumindest mal in Erinnerung bringen sollte.

Sie müssen ja keine Paperlaunch machen, aber vielleicht wären mal ein paar Leaks zur Performance und Ausstattung nicht schlecht.
 
Shoryuken94 schrieb:
DLSS 2 hat ja bereits in einigen Spielen unter Beweis gestellt, dass es Qualitativ sehr überzeugend ist und teils deutlich besser als native Auflösungen aussieht.

Sorry, aber das ist totaler Quatsch! Upsampling kann gar nicht besser aussehen als nativ, das ist nicht möglich. Und DLSS2.0 sieht bis jetzt in jedem Spiel merkbar schlechter aus - wenn man genau hinschaut.

Aber ja, gutes upsampling sah schon immer ordentlich bis super aus. Richtige Skalierung wählen und den passenden Schärfefilter haben das schon immer möglich gemacht.

Nvidia ist nur sehr geschickt dabei ein altes feature mit den Buzzwörtern (AI/KI) neu zu bewerben und jetzt kaufen sich die DAUs ne 1000€ GPU um das Spiel mit upsampling und nicht nativ zu spielen. Und die Computermagazine machen davon auch noch benchmarks :p

Aber Deppen stehen ja jeden Tag auf...
 
  • Gefällt mir
Reaktionen: Animal Mother
mikag schrieb:
@dampflokfreund: Bei DLSS wird doch eine niedrigere Auflösung gerendert als die Native. Dadurch gehen zwangsläufig Bildinformationen verloren. Für eine Auflösung mit 2.560 × 1.440 wird nur ein Bild mit 1.706 × 960 gerendert und wieder auf 2.560 × 1.440 "gestreckt". Dadurch wirkt das Bild entsprechend verwaschen. DLSS versucht, die bei der "Streckung" fehlenden Bildinformationen zu glätten. Das kann aber nie so gut funktionieren, wie als wenn das Bild direkt in der nativen Auflösung berechnet wird.

Nein, denn genau das macht DLSS nicht. Was du beschreibst ist ein einfaches Hochskalieren. DLSS arbeitet mit Bewegungsvektoren, über die das Bild mittels der AI anhand eines 16K Musters hochgerechnet wird, womit die KI Trainiert wurde. Die KI wurde anhand von Ausgangsmaterial trainiert, was deutlich höher aufgelöst ist, als das was du maximal lokal nativ berechnen würdest

w0mbat schrieb:
Sorry, aber das ist totaler Quatsch! Upsampling kann gar nicht besser aussehen als nativ, das ist nicht möglich. Und DLSS2.0 sieht bis jetzt in jedem Spiel merkbar schlechter aus - wenn man genau hinschaut.

Und es ist wie gesagt totaler Quatsch DLSS als Upsampling zu bezeichnen. Aber da rennen wir hier wohl gegen Wände, wenn sich die Leute nicht annähernd mit der Technik beschäftigen möchten

w0mbat schrieb:
Nvidia ist nur sehr geschickt dabei ein altes feature mit den Buzzwörtern (AI/KI) neu zu bewerben und jetzt kaufen sich die DAUs ne 1000€ GPU um das Spiel mit upsampling und nicht nativ zu spielen. Und die Computermagazine machen davon auch noch benchmarks :p

Lustig Leute als DAUS zu bezeichnen, aber selbst Unwahrheiten in die Welt setzt. Du kannst dich ja ruhig mal mit der Technik beschäftigen und nicht gleich alles verteufeln und feststellen, dass hinter DLSS kein einfaches Upscaling steckt....

w0mbat schrieb:
Aber Deppen stehen ja jeden Tag auf...

Offensichtlich ;) Was viel schlimmer ist. Es stehen jeden Tag Leute auf, die Unwahrheiten verbreiten und nicht bereit sind sich mit Themen zu beschäftigen, über die sie sich öffentlich auslassen
 
  • Gefällt mir
Reaktionen: KlaraElfer, HotteX, .Sentinel. und 9 andere
Zurück
Oben