Frage bzgl. "Zukunfts"-fähigkeit von RTX/GTX und den Tensor Cores, DX12,..

Caramelito

Admiral
Registriert
Juni 2016
Beiträge
8.698
Servus,

ich habe mit einigen Grakas rumgespielt usw. und für mich hat sich herausgestellt, dass stets höhere FPS wichtiger sind als alle Balken nach rechts zu knallen. Natürlich soll das Spiel gut aussehen und 80+ FPS in Shootern (Div2 aktuell) gehalten werden.

Ich habe nun Division 2 mit ein paar Grafikkarten hier gespielt.
2080ti, 2080, 2070 und 1080 (nonTi). Die 1080nonTi ist mir hier an manchen Stellen einfach zu lahm. Da droppt man auf knapp unter 60 FPS und müsste noch weiter runterregeln. Die 2070 war gute 10% schneller und hat gepasst - Aber auch dieser Puffer ist mir zu klein.

Kurz zu meiner Frage die am Ende beantwortet werden sollte:
Zukunftssicherere Graka = 1080ti oder RTX 2080?
Denn ich wähle zw. den beiden Grakas (jeweils ein sehr gutes Modell, MSI Trio x 2080 oder GB Aorus Xtreme 1080ti)
Spielen tue ich aktuell auf nem 1440p/144hz Monitor.

VRAM - Kann man eigentlich nicht genug haben, da ist die 1080ti einfach besser aufgestellt.
Welches aktuelle Game wäre in 1440p nicht mit höchsten Texturen spielbar? Gibt es Beispiele?
Ich weiß, es gibt Games, die direkt den ganzen Vram belegen - Sinnvoll? Must have? Resident Evil 2 Remake soll zB den VRAM einfach belegen? ^^

In Division 2 habe ich Folgendes beobachtet:

Mit 2080ti: Das Game belegt bei mir direkt 7.9gb Vram und es änderte sich nichts mehr.
Settings waren 1440p, maxed außer volumetric fog med, schatten eins runter, objekt reflection (local iwas in game) auch eins runter (keine Ahnung wie das richtig heißt^^)..

Mit den 8gb Vram Grakas (1080 2070 2080) wurden immer 6.9gb Vram belegt und es änderte sich nichts mehr.
------
VRAM ist wichtig und je mehr desto besser (vor allem bei gleichem Preis und sonstiger ähnlicher Performance)

Wichtig ist/war: Keine Ruckler oder sonstiges bemerkbares, was auf zu wenig Vram zurückzuführen werden sollte.

Jetzt frage ich mich aber auch:
Die RTX Modelle haben ja auch anderes Zeug zu bieten. Tensor Cores, angeblich bessere DX12 Perfomance, usw.
Das kann ich eben nicht einschätzen, ob denn nicht die neuen Games in irgendeiner Art und Weise davon Gebrauch machen und somit die Performance boosten könnten?

RTX an sich ist ja schön, aber 1440p RTX sind die FPS einfach zu low (z.B. BF V)
DLSS könnte was werden in Zukunft, die Vergleich Videos überzeugen mich aber nicht - Könnte natürlich auf 1440p mit RT High und DLSS an helfen - Denn einige Screenshots und Videos sehen mit RT high/ultra einfach sehr gut aus. Viele Stellen bleiben für mich jedoch einfach nicht wahrnehmbar.

Also zusammengefasst:
1080Ti mit mehr Vram und höherer Bandbreite etc.
oder
2080 mit ihren "Tensor Cores" (falls für was anderes brauchbar außer RTX) und neuer Technologie?

Vor 2-3 Monaten hätte ich direkt 1080ti gesagt - Nun bin ich einfach unsicher.
Wahrscheinlich merke ich bei beiden Grakas nicht, was verbaut ist, wenn ich dann die neuen Games zocke - Stelle mir aber selbst wohl zu viele Fragen - First World Problems usw.. :-(
 
Division 2 zieht mit ner RTX Titan 16/24GB VRAM, auf ner Radeon VII zieht das Spiel sich 12/16GB.
Auf meiner 1080 sind auch meist fast 8GB belegt auf WQHD.
Das Spiel lässt je nach Verfügbarkeit Texturen länger im Videospeicher.
Das hat wenig mit tatsächlichem Bedarf zu tun.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cruse, Caramelito und alexx_pcfreak
Hallo,

hast du denn die beiden Karten bei dir? Eine 1080Ti ist ja eigentlich ausverkauft bzw. wird mit hohem Aufschlag verkauft. Dann würde dir nur die 2080 bleiben und das Problem hätte sich von selbst gelöst.

Allgemein lässt sich nicht vorhersagen, ob die Tensor Cores mal irgendwann "entscheidend" werden. Bislang sind es optische Gimmicks, die viel Performance fressen. Ich glaube, dass es stark davon abhängt, ob NVidia diese Technik in den Konsolenbereich bringen kann. Ansonsten wird die Zahl der Nutzer zu klein sein, um es mit viel Aufwand gut implementieren zu können.

Aber prinzipiell ist die 2080 eine gute Karte ohne großartigen Mangel. Die notwendige Menge an VRAM und RAM wird ja teilweise auch überschätzt. Es kann ja nie widerlegt werden, ob die gesamte Menge im VRAM wirklich benötigt wird, oder ob da einfach verschwendet wird. Die 2080 bringt rund 10% mehr FPS, die 1080Ti hat mehr VRAM. Vielleicht vergrößern zukünftige Treiber den Vorsprung der 2080 noch, wer weiß?

Gruß
 
  • Gefällt mir
Reaktionen: Caramelito und Baal Netbeck
Wu134 schrieb:
Ich glaube, dass es stark davon abhängt, ob NVidia diese Technik in den Konsolenbereich bringen kann
Wie denn, wenn AMD exklusiv den Konsolenmarkt beliefert?
Konsolen haben meist ne günstige Midrangekarte verbaut.
Da passen eh keine Tensor Cores is Budget.
Aktuell ist RT ziemlicher Käse, bei den Performance-Verlusten die es mit sich bringt und DLSS ist auch noch nicht weit genug, dass es als Argument reicht.
 
Ich warte noch eine Generation, bis ich mir eine neue High-End-GPU kaufe. Würde mir solange eine gebrauchte 1080 kaufen.
 
  • Gefällt mir
Reaktionen: Caramelito
@Compu-Freak Ne 1080 hat er ja schon.

Soweit ich mich richtig erinnere gibt es in Rise- und Shadow of the Tomb Raider Probleme mit 8GB VRAM (siehe AdoredTVs Radeon VII-Test). Würde wenn es um Zukunftssicherheit geht vielleicht in den sauren Apfel beißen und mir versuchen ne RTX 2080Ti gebraucht oder im Angebot zu besorgen. Das wird mit ziemlicher Sicherheit auf absehbare Zukunft das beste sein, was man so kriegen kann.
 
  • Gefällt mir
Reaktionen: Cpt.Willard und Caramelito
Chillaholic schrieb:
Wie denn, wenn AMD exklusiv den Konsolenmarkt beliefert?
Konsolen haben meist ne günstige Midrangekarte verbaut.
Da passen eh keine Tensor Cores is Budget.
Aktuell ist RT ziemlicher Käse, bei den Performance-Verlusten die es mit sich bringt und DLSS ist auch noch nicht weit genug, dass es als Argument reicht.

Das ist ja eigentlich genau das was ich geschrieben habe. Nur wenn NVidia es schafft, diese Technik in die Masse zu drücken (wofür sich Konsolen eignen würden), könnte es einen Durchbruch geben und es wird eine Art Standard.

Was meinst du, was hinter den Kulissen passiert? NVidia wird bestimmt auch sehr daran interessiert sein, für einen Konsolenhersteller etwas zu liefern. In einer Kooperation mit Intel einen i7-8850HK (6/12 Cores, 45W) mit einer 2080 Mobile Max Q (150 W, 2944 Shader) hätte auch eine gute Performance ... und stell dir vor, das in einer PS5 mit prognostizierten Absatzzahlen von über 80 Mio. Konsolen ... da könnte sich die schwarze Lederweste mal wieder wirklich freuen. Da wird dann schon in Kauf genommen, die ersten Einheiten mit Verlust zu verkaufen.

Gruß
 
Wu134 schrieb:
und stell dir vor, das in einer PS5 mit prognostizierten Absatzzahlen von über 80 Mio. Konsolen
Den Auftrag hat AMD mit Navi schon vor ner Ewigkeit kassiert.
Und wie gesagt RT passt nicht ins Budget.
 
Wu134 schrieb:
In einer Kooperation mit Intel einen i7-8850HK (6/12 Cores, 45W) mit einer 2080 Mobile Max Q (150 W, 2944 Shader) hätte auch eine gute Performance ...
Klar. Und wenn die Konsole für 1200€ auf den Markt kommt, wird die weggehen wir Wärme Semmeln.
Man hat sich bis jetzt ja nur für PCs entschieden, weil die blöden Konsolen einfach zu billig waren...
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Stand vor 5-6 monaten genau vor der gleichen Frage. Hatte die 2080 x Trio und die 1080ti aouros zur Wahl, beide zu dem Zeitpunkt zum gleichen Preis verfügbar und habe mich letztendlich für die 2080 entschieden. Bin mit der Entscheidung zufrieden. Wer weiß, vielleicht geht mir irgendwann der vram aus, denke aber das ich bis dahin schon längst ne neue Karte im Rechner haben werde...
 
  • Gefällt mir
Reaktionen: Caramelito
Der Nvidia RTX Kram läuft im Moment gar nicht über die Tensor cores sondern über die RT cores...die Tensorcores sind für Compute AI usw entwickelt....sollten eigentlich bei RTX das denoising übernehmen, aber das hat wohl nicht funktioniert.
Und DLSS was man darüber nutzen kann scheint eine Todgeburt zu sein....schlechtere Qualität bei gleicher Leistung, als das Spiel in geringerer Auflösung zu rendern und klassisch hochzuskalieren.

Wenn du mit der Karte Spielen möchtest, glaube ich nicht, dass dir die Tensor cores was bringen werden und für professionelle Anwendungen sind die Treiber vermutlich nicht freigegeben....Nvidia will ja die Titan Verkaufen.

Ob wir in Zukunft mehr RTX in Spielen sehen werden würde ich bejahen.....ob es auf den aktuellen RTX Karten auch brauchbar laufen wird verneinen.

Das ist die erste RTX Serie...ein Probeschuss und er hat nicht getroffen.

Die RT Leistung reicht nur aus, um mit schweren Leistungsverlusten, einzelne Teilbereiche der RTX Palette zu implementieren.
Realistischere Spiegelungen...wobei die gar nicht so perfekt realistisch sind wie behauptet wird.
Hitman 2 zeigt, dass man das auch klassisch schaffen kann.

Global Ilumination, das sicherlich realistischer und oft schöner ist, aber um es wirklich realistisch zu machen reicht die Leistung nicht und oft sind die Unterschiede so schwer auszumachen, dass der Vorteil nicht zu sehen ist.

Und Schatten....irgendwie die langweiligste Option....Ich sehe durchaus die Vorteile der RTX Schatten in SotTR, aber wie GI ist der Effekt sehr subtil......der einzige Vorteil ist aus meiner Sicht die schlechte Umsetzung der normalen Schatten in SotTR.
Angeblich "state of the art" Schatten, aber das Lagerfeuer usw. keine Schatten werfen, ist nicht "state of the art"...und dass die Schatten andauernd ihre Form wechseln ist eher ein Bug, der behoben werden sollte....und dass die Schatten flackern und flimmern ist in anderen Spielen auch nicht so schlimm.
....und viele der RTX Schatten haben selbst Fehler....werfen klare Schatten obwohl so viele Lichtquellen da sind, dass sie eigentlich nicht zu sehen(oder diffus) sein sollten....Popen hart auf....stellen falsche Strukturen dar.

Kurz.....RTX ist von zweifelhafter Wichtigkeit und wenn in Zukunft die Effekte besser umgesetzt werden, dann kann man davon ausgehen, dass die aktuellen Karten dafür nicht genug Power haben....Raytracing ist eine uralte Technik....da sehe ich kaum Potential, die Leistung durch optimieren zu steigern....besser wird es nur durch mehr Rohleistung.

Es kommen Konkurenzprojekte mit einem Hybrid aus Rasterisierung von RT unterstützt....das soll auch auf normaler Hardware laufen und sieht in der Demo vielversprechend aus.
Wenn Nvidia die RT Teile dieser Hybridlösung mit ihren RT cores beschleunigen kann, sehe ich da einen kleinen Leistungsvorteil....steht aber in den Sternen, ob das überhaupt kommen wird.

8GB VRam sollten im Moment noch reichen....vermutlich auch noch 1-2 Jahre in 1080 und 1440p.
Und wenn man dann nicht das UltraHD Texturpaket aktivieren kann, hat man vermutlich auch nichts spürbar verloren.

Einzige Beispiele, die bei mir den VRam füllen sind RotTR und die FFXV Demo...angeblich ruckelt RotTR auch wenn der VRam volläuft, aber bei meiner Vega64 LC ist das trotz vollem VRam nicht passiert.

Und FFXV hat dann halt weniger im VRam....dann bricht aber nicht zwangsweise die Leistung ein, sondern die Texturen popen einfach später auf eine bessere Qualität.....ganz extrem hatte ich das in Prey mit meiner GTX680(2GB) gesehen.....keine Performanceverluste durch fehlenden Vram, es waren einfach viele matschige Texturen da.

Das Testen auf fehlenden Vram ist also extrem schwer...man muss nicht nur die Leistung angucken, sondern auch Frametimepeaks, wenn Texturen gestreamt werden und vor allem müsste man eine umfassende Analyse der Bildqualität machen.....soweit ich weiß hat isch da noch niemand ran getraut.
 
  • Gefällt mir
Reaktionen: Stuntmp02, Chillaholic und Caramelito
Puh hier ging ja was weiter, danke dafür! :-)

Chillaholic schrieb:
Division 2 zieht mit ner RTX Titan 16/24GB VRAM, auf ner Radeon VII zieht das Spiel sich 12/16GB.
Auf meiner 1080 sind auch meist fast 8GB belegt auf WQHD.
Das Spiel lässt je nach Verfügbarkeit Texturen länger im Videospeicher.
Das hat wenig mit tatsächlichem Bedarf zu tun.

Jap - Habe ich eben auch beobachtet und schätze hier reichen die 8gb - vor allem in 1440p.
Allgemein kommen für mich 2160p nur in Frage wenn:
a) 40"
b) 120+ Hz
c) gut umgesetztes HDR
d) das leistbar wird^^

Deshalb denke ich, dass ich auch mit 8GB Vram auskommen sollte :-)

Wu134 schrieb:
Hallo,

hast du denn die beiden Karten bei dir? Eine 1080Ti ist ja eigentlich ausverkauft bzw. wird mit hohem Aufschlag verkauft. Dann würde dir nur die 2080 bleiben und das Problem hätte sich von selbst gelöst.

Aber prinzipiell ist die 2080 eine gute Karte ohne großartigen Mangel. Die notwendige Menge an VRAM und RAM wird ja teilweise auch überschätzt. Es kann ja nie widerlegt werden, ob die gesamte Menge im VRAM wirklich benötigt wird, oder ob da einfach verschwendet wird. Die 2080 bringt rund 10% mehr FPS, die 1080Ti hat mehr VRAM. Vielleicht vergrößern zukünftige Treiber den Vorsprung der 2080 noch, wer weiß?

Ja ich habe beide Grakas hier (die 1080ti ab heute) und werde natürlich meine eigenen Tests machen (OC/UV, Game-Benchmarks, Lautstärke selbst beurteilen usw..)

Sonst alles richtig was du sagst. Aber das sind eben auch Fakten die ich kenne und mir bewusst ist, dass das in den Sternen steht (Treiber, Game-Entwicklung,..)

Was mich interessiert ist, ob diese zusätzliche Power irgendwann auf die "Straße gebracht werden kann".
Ähnlich denke ich mir das mit der GTX 1080 und Vega 64. Die V64 hat ja eigentlich deutlich mehr Power - Ich schätze auch die V64 wird besser "altern".

Compu-Freak schrieb:
Ich warte noch eine Generation, bis ich mir eine neue High-End-GPU kaufe. Würde mir solange eine gebrauchte 1080 kaufen.

Ist natürlich eine Option, aber ich spiele jetzt und meine 1080 ist mir an manchen Stellen zu langsam ^^
Wie gesagt, first world problems - Ich empfinde diese "Drops" auf ~55-60fps als kleine Ruckler, trotz FreeSync.

Mumusud schrieb:
Stand vor 5-6 monaten genau vor der gleichen Frage. Hatte die 2080 x Trio und die 1080ti aouros zur Wahl, beide zu dem Zeitpunkt zum gleichen Preis verfügbar und habe mich letztendlich für die 2080 entschieden. Bin mit der Entscheidung zufrieden. Wer weiß, vielleicht geht mir irgendwann der vram aus, denke aber das ich bis dahin schon längst ne neue Karte im Rechner haben werde...

Stimmt auch wieder. Ich wechsle ja nun sehr oft meine HW und bastle rum.

@Baal Netbeck
Also RTX und DLSS sind ja wie gesagt nicht so wichtig, da nicht überzeugend (Performance und DLSS Qualität)
Aber die zustätzlichen Tensor/Ray Cores whatever sind eben für mich eine Unbekannte - Ob dies Einfluss haben könnte auf "normale"-Gamingperformance.

------

Ich habe beide Grakas auch günstiger ergattert - Ich käme nicht auf die Idee für die 2080 800+ auszugeben.
Dafür wäre mir die "Unbekannte" (Vram in der Zukunft) zu fraglich!
 
Baal Netbeck schrieb:
Der Nvidia RTX Kram läuft im Moment gar nicht über die Tensor cores sondern über die RT cores
An sich ein schöner Post, Baal. Ich aktualisiere ihn nur kurz.

RTX ist die Bezeichnung der Grafikkartenserie bzw. des Featuresets. Hier spielst Du glaub ich eher auf RT (ohne) X an, also Raytracing.

...die Tensorcores sind für Compute AI usw entwickelt....sollten eigentlich bei RTX das denoising übernehmen, aber das hat wohl nicht funktioniert.
Die Denoising Bibliothek für die Tensor Cores ist seit der GDC 2019 verfügbar. Es wird sich zukünftig zeigen was das bringt.

Und DLSS was man darüber nutzen kann scheint eine Todgeburt zu sein....schlechtere Qualität bei gleicher Leistung, als das Spiel in geringerer Auflösung zu rendern und klassisch hochzuskalieren.
Da widersprechen sich die Quellen. In einigen Szenen ist der Detailgrad höher, als die reine Skalierung.

Zudem wird berichtet, dass mit jeder neuen DLSS Iteration für die unterschiedlichen Spiele die Qualität teils deutlich zulegt. SOTTR, Metro, Anthem... Alle werden nachwievor regelmäßig mit neuen DLSS Settings beliefert.
Da ist also das letzte Wort noch nicht gesprochen. Sicher ist jedoch, dass es von Version zu Version mehr Auflösungen unterstützt und weiter verbessert wird.

Wenn du mit der Karte Spielen möchtest, glaube ich nicht, dass dir die Tensor cores was bringen werden und für professionelle Anwendungen sind die Treiber vermutlich nicht freigegeben....Nvidia will ja die Titan Verkaufen.
Das steht tatsächlich in den Sternen, wie weit sich DLSS noch weiterentwickelt und was für Ideen man sonst noch für die Tensor Cores hat.
An sich sollte ja jetzt langsam mal das Tensor Core gestützte DSR rauskommen DLSSx2. Das sollte dann ohne Leistungsverlust für eine gestiegerte flimmerfreie Bildqualität sorgen.

Das ist die erste RTX Serie...ein Probeschuss und er hat nicht getroffen.
Da musst Du für Dich sprechen, denn es gibt einige, die das anders sehen.

Die RT Leistung reicht nur aus, um mit schweren Leistungsverlusten, einzelne Teilbereiche der RTX Palette zu implementieren.
Da sagt Remedy und Nexon was anderes. Auch DICE meinten ja, dass sie nach der Integration der Spiegelungen prüfen, ob sie weitere Effekte implementieren.

Realistischere Spiegelungen...wobei die gar nicht so perfekt realistisch sind wie behauptet wird.
Hm? Wieso das denn nicht?

Hitman 2 zeigt, dass man das auch klassisch schaffen kann.
Die Hitman 2 Spiegelungen sind teils eine Katastrophe:
Hitman2 schlechter Spiegel
Und die Performance für eine Titan XP spricht hier wohl auch Bände...

Global Ilumination, das sicherlich realistischer und oft schöner ist, aber um es wirklich realistisch zu machen reicht die Leistung nicht und oft sind die Unterschiede so schwer auszumachen, dass der Vorteil nicht zu sehen ist.
In allen Bereichen, in denen die Global Illumination voll wirken kann (Außengelände mit Sonneneinstrahlung), sind die Unterschiede überwiegend sehr deutlich. In den Innenbereichen, die von künstlichen Lichtquellen erhellt werden nicht.
Bezüglich der GI hat sich mit dem letzten Patch von Metro auch nochmal einiges bewegt un die Wetterstimmungen haben sich noch einmal deutlich verbessert.

Und Schatten....irgendwie die langweiligste Option....Ich sehe durchaus die Vorteile der RTX Schatten in SotTR, aber wie GI ist der Effekt sehr subtil......
Der Effekt fällt nur deshalb weniger auf, weil es einfach stimmig wirkt. Spiel mal ne halbe Stunde mit den RT Schatten und schalte dann mal um.... Das ist dann alles andere als subtil und schon garnicht "schön".

Angeblich "state of the art" Schatten, aber das Lagerfeuer usw. keine Schatten werfen, ist nicht "state of the art"...
Du kannst nur eine begrenzte anzahl an dynamischen Lichtquellen versorgen, sonst bricht der standard Rasterizer in seiner Leistung erheblich ein.

und dass die Schatten andauernd ihre Form wechseln ist eher ein Bug, der behoben werden sollte....und dass die Schatten flackern und flimmern ist in anderen Spielen auch nicht so schlimm.
....und viele der RTX Schatten haben selbst Fehler....werfen klare Schatten obwohl so viele Lichtquellen da sind, dass sie eigentlich nicht zu sehen(oder diffus) sein sollten....Popen hart auf....stellen falsche Strukturen dar.
Schau Dir das ganze mit dem Patch an, der vor ein par Tagen rausgekommen ist, da ist einiges nachgebessert worden unter Anderem auch das LOD, fade in etc.
Das sieht jetzt homogener aus.

Kurz.....RTX ist von zweifelhafter Wichtigkeit
Da kannst Du wiederum nur für Dich sprechen. Was ich mich allerdings dann frage ist, warum Du einer weiteren Verbesserung in Sachen Computergrafik keine Wichtigkeit zusprichst.

Schau Dir mal an, was die mit der aktuellen Unreal Engine mit RT alles zaubern können:
Dem misst Du keine Wichtigkeit bei?

und wenn in Zukunft die Effekte besser umgesetzt werden, dann kann man davon ausgehen, dass die aktuellen Karten dafür nicht genug Power haben....
Was willst Du denn mehr erreichen, als 4K in 60FPS -> Die Zielauflösung, die man mit der 2080TI derzeit anstrebt? Die kommen doch mit jeder Iteration und jedem Patch dem Ziel immer näher...

RT zu langsam? Gab ja hier immer Hohn und Spott z.b. in Sachen Rise of the Tomb Raider. Full Hd und unter 30 FPS und solche Dinge. Ich habe im Benchmark auf FullHD OHNE DLSS über 100 FPS RT ON.
Da dann irgendwelche großartigen und schwerwiegenden Einschnitte in Sachen FPS zu wittern ist finde ich ein wenig "picky".

Raytracing ist eine uralte Technik....da sehe ich kaum Potential, die Leistung durch optimieren zu steigern....besser wird es nur durch mehr Rohleistung.
Naja- Jetzt hat man Steigerungspotenzial allein dadurch, dass man die RT Cores denoisen lassen kann.
Zudem ist die Technik sehr jung. Was sich da wie steigern lässt, lässt sich derzeit noch nicht sagen.

Wenn man sich anschaut, welche Leistungs- und Qualitätssteigerungen der vorhandenen Titel in dieser Kurzen Zeit erreichen liessen, dann ist das schon enorm.

Es kommen Konkurenzprojekte mit einem Hybrid aus Rasterisierung von RT unterstützt....das soll auch auf normaler Hardware laufen und sieht in der Demo vielversprechend aus.
Wenn Nvidia die RT Teile dieser Hybridlösung mit ihren RT cores beschleunigen kann, sehe ich da einen kleinen Leistungsvorteil....steht aber in den Sternen, ob das überhaupt kommen wird.
Hier kann man sehen, was es für einen Unterschied macht, bei einer Hybridlösung Pascal oder Turing einzusetzen:
769585


Schau Dir bei Pascal in der Mitte den Balken mit den FP32 Berechnungen an und dann dagegen das ganze mit der neuen Pipeline von Turing.
Und dann setze nochmal das Ganze ins Verhältnis zu dem untersten Balken in der Mitte, bei dem die RT Cores den Großteil der Berechnungen durchführen.
Das ist schon brachial, was die RT Cores an Zeitersparnis in den Berechnungen bringen, in denen sie wirken können (im Vergleich zu Turing ohne RT ca. Faktor 15/im Vergleich zu Paskal ca. Faktor 30).
Nur machen die RT Berechnungen eben bei den Spielen auch nur einen Bruchteil der Frametime aus, so dass das im Gesamten mal mehr und mal weniger ins Gewicht fallen kann.

Das Testen auf fehlenden Vram ist also extrem schwer...man muss nicht nur die Leistung angucken, sondern auch Frametimepeaks, wenn Texturen gestreamt werden und vor allem müsste man eine umfassende Analyse der Bildqualität machen.....soweit ich weiß hat isch da noch niemand ran getraut.
Hast recht- Das hat aber auch seine Gründe. Siehe auch hier, wo gerade mit einem Tool experimentiert wird, was VRAM künstlich belegt.
https://www.computerbase.de/forum/threads/vram-usage-aktueller-titel.636865/post-22465650

Alles nicht so einfach...

@Caramelito
Zu den Ausführungen oben darfst Du auch nicht vergessen, dass Du variable rate shading, mesh shader und noch so allerlei andere Dinge im Featureset erhältst, die in Pascal nicht verfügbar sind, wo es aber in der AMD Hardware schon Derviate dafür gibt. Die Wahrscheinlichkeit, dass Du da in nicht allzu ferner Zukunft davon profitieren kannst, ist also durchaus gegeben.

Abschliessend kann man sagen, dass es Rätselraten ist, wann sich da eventuell was durchsetzt, was wann kommt etc. Insofern ist das derzeit in der Tat schwer zu entscheiden, auf welches Pferd man setzen soll.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck
Caramelito schrieb:
Die V64 hat ja eigentlich deutlich mehr Power - Ich schätze auch die V64 wird besser "altern".
Das ist meiner Einschätzung nach ein Trugschluss.
Sie wird sicherlich in Tests besser dar stehen, um so mehr gute DX12/Vulkan Titel es in die Testauswahl schaffen, weil dann mehr Titel wegfallen wo sie mehr oder weniger CPU limitiert läuft.

Aber die Mär von der ach so hohen Rohleistung ist doch Wunschdenken von AMD Fanboys oder Treiber dissen von Nvidia Fanboys.

Die Rohleistung wird eigenlich immer auf Basis des angegebenen Basistaktes berechnet...und der Anzahl der Shader...und ob die irgendwas doppelt oder vierfach so gut können.

Aber AMD hat für ihre Karten deutlich höhere Taktraten angegeben als das Powerlimit in der Praxis erlaubt.....die "Rohleistung" ist in der Praxis leider deutlich niedriger.....viele Vega64 laufen nur mit 1450-1500MHz....waren aber mit 1600 angegeben.....oder wie meine Vega64 LC 1750MHz...die man nichtmal mit extremen OC erreichen kann.

Inzwischen sind sie auf der AMD Seite ehrlicher und geben realistischere Taktraten an, aber die Berechnungen und die Vergleiche, die behauptet haben sie müsste locker eine 1080Ti schlagen sind noch in den Köpfen.

Und Nvidia macht das Gegenteil....Sie geben den Grundtakt an und mit dem wird gerechnet.....aber der ist dann z.B. bei 1750MHz...Boosten tut die Karte aber bis 1950MHz......Rohleistung ist also höher als in der Theorie.

Dieser Umstand ist aber nur ein Teil des Mythos....Auch GPUs haben eine IPC....Eine heutige CPU mit einem Kern auf 3GHz ist viel schneller als ein Pentium 4 mit 3GHz.....Cache, Sprungvorhersagen, Ram, neue Befehlssätze.....Software die auf diese neuen Befehlssätze zugreift.....und so sieht es auch bei GPUs aus.

Vega war eine Compute GPU...und das macht sie gut....aber für Spiele war sie eben nie ausgelegt, und egal wie sehr man hofft, Vega ist mit der Zeit nicht schneller geworden....meine zumindest nicht....egal wie viele Treiber es bis jetzt gab, die alten Spiele laufen noch genauso und gutes DX12(Ashes of the Singularity).... damals...2017...lief schon 2017 ganz gut....nicht super gut, aber die GPU lief an ihrer Kotzgrenze und das tut sie in vielen Titeln.

Was ich sagen möchte...Es gibt viele Spiele, die die Shader von Vega voll auslasten und trotzdem schlägt sie da keine 1080Ti/2080......sie setzt einfach die Frequenz nicht so gut in Rasterisierungsleistung um wie es die Nvidia GPUs machen. Und daher denke ich nicht, dass sie noch brachiegende Rohleistung hat, die irgendwann mal abgerufen wird.....ein Pentium 4 ist auch nicht irgendwann schneller gewoden.

Sie könnte Vorteile durch die HBM2 Bandbreite haben, aber da es ja jetzt schon Spiele gibt, die viel VRam belegen und sie da nicht plötzich davon zieht, wird sie auch das nicht plötzlich in den Vergleichen nach vorne schieben.

Bei der Radeon VII hoffe ich auf etwas besseres altern, weil nicht nur der VRam 16GB ist, sondern weil er auch eine extreme Bandbreite hat....so können nicht nur große Texturpakete in den VRam gelegt, sondern auch schnell in die GPU geschoben werden......aber das hilft nicht viel, wenn die GPU nicht mehr schritthalten kann.

ZeroZerp schrieb:
RTX ist die Bezeichnung der Grafikkartenserie bzw. des Featuresets. Hier spielst Du glaub ich eher auf RT (ohne) X an, also Raytracing.
Ich kenne den Unterschied...und hier geht es ja um das Raytracing Featureset von Nvidia....also RTX.
Allgemeines Raytracing bzw. DXR gibt es ja noch nicht in Spielen außerhalb von RTX.

Das von/für Nvidia implementiere DXR nenne ich also RTX und wenn jemand anderes Raytracing, für was auch immer, nutzt schreibe ich RT....keine Ahnung ob das zum allgemeinen Konsens passt....die Sprache wird sich entwickeln.

ZeroZerp schrieb:
Die Denoising Bibliothek für die Tensor Cores ist seit der GDC 2019 verfügbar. Es wird sich zukünftig zeigen was das bringt.
Ja das wird man wird sehen.....wäre schön, wenn sie die mal sinnvoll nutzen....aber zuversichtlich bin ich da nicht.
ZeroZerp schrieb:
Da widersprechen sich die Quellen. In einigen Szenen ist der Detailgrad höher, als die reine Skalierung.
Natürlich widersprechen sich da die Quellen...ich sage nur PCGH...."seht hier...man macht DLSS an und guckt wie die FPS hoch gehen! "
Ja super....das das Bild unschärfer wird wurde nicht mit einem Wort erwähnt.....wofür kaufen sich die Leute denn 4K Monitore? Da wird doch immer von den Vorteilen geschwärmt, dass man jetzt so viel mehr Details erkennt....und diese Schärfe soll man jetzt wieder aufgeben?

Die von Digital foundry wollen einem das als "eigenen Grafikstil" verkaufen......ja schön....es gibt für alles vor und Nachteile....DLSS kann wohl in manchen Stellen wie AA wirken und das Bild beruhigen...das klingt gut...aber dann sehe ich das Beispiel mit dem Wasserfall und denke mir:"Aua...so sah das mal anfang der 2010er Jahre aus."

Für mich hat das wenig Zukunft so wie es im Moment eingesetzt wird....also als FPS Boost auf kosten der Schärfe......wenn sie es als intelligentes AA einsetzen....geringe Leistungsverluste, aber brauchbare Kantenglättung...nur da wo es zählt und vor allem weniger Flackern von Texturen, Schatten und Kanten.....das wäre etwas, das ich mir wünschen würde.

ZeroZerp schrieb:
Auch DICE meinten ja, dass sie nach der Integration der Spiegelungen prüfen, ob sie weitere Effekte implementieren.
....Die RT cores scheinen ja zu arbeiten...und Rays zu casten ist nunmal immer eine ähnliche Arbeit, für die die Softwareentwickler viele viele Jahre Zeit hatten sich die besten Algorithmen zu suchen....und Nvidia hat bei der Entwicklung ihrer RT cores sicherlich einen guten Job gemacht.....daher glaube ich nicht, dass die aktuellen RTX Karten mehr Rays casten können als sie es jetzt schon machen......will man einen weiteren Effekt, muss man die Rays aufteilen und dann muss die Genauigkeit sinken.....eventuell kann man GI und Schatten gleichzeitig machen....GI macht ja im Grunde schon "Schatten" indem halt nicht alles beleuchtet wird....dann müssen nur dynamische Lichtquellen zusätzlich gemacht werden.....ja eventuell geht das beides.
ZeroZerp schrieb:
Die Hitman 2 Spiegelungen sind teils eine Katastrophe:
Hitman2 schlechter Spiegel
Und die Performance für eine Titan XP spricht hier wohl auch Bände...
Wo ist das eine Katastrophe??
Ich habe das Spiel seit letzter Woche selbst....Wow sieht das gut aus!
Ich hatte vorher Videos von den Konsolen gesehen, und da haben die Reflexionen scheinbar eine geringere Auflösung.
Aber hier am PC.....wow...da ist die Reflexion einfach super....Agent 47, verschiedenste Gegenstände...alles in voller Auflösung und mit vollen Details....nur das AA scheint nicht zu greifen, sodass man z.B. an der Kante von 47s Glatze leichte Treppenbildung sieht.

Und es fehlen Dinge....Das Video, das du verlinkt hast, zeigt zwei Probleme, die auch mir aufgefallen sind...das Gras im Sand fehlt teilweise in der Reflexion......komischerweise fehlt das Gras was nah dran ist....das Gras was weiter weg ist, ist da.....ich hätte da die Prioritäten anders herum gesetzt.;)
Auch fehlen transparente Objekte in den Reflexionen...also keine Doppelreflexionen von Glasscheibe zu Glasscheibe und auch die Blumen in der Glasvase(erster Stock) schweben in der Luft.
.....Das ist sicherlich nicht perfekt.....hat aber auch niemand behauptet und fällt beim Spielen nicht negativ auf.

Und BF V hat ja auch keine Doppelreflexionen...und anders als in Hitman passt die Refelxion des eigenen Charakters da nicht zur Egoperspektive....da hat man selbst schon angehalten und in der Reflexion macht man noch nen Schritt...hält die Waffe anders...usw....dann weiß ich nicht, ob das verbessert wurde, aber die RTX Reflexionen hatten eine begrenzte Reichweite....da fehlt dann z.B. eine Brücke in der Wasserreflexion bis man näher ran kommt.....da zu sagen die RTX Refelxionen wären immer perfekt und wie die Wirklichkeit ist aus meiner Sicht übertrieben....sie sind halt auch nur so gut, wie die Rechenleistung es elaubt.

Die Objekte haben auch schlechtere LODs....und teilweise sieht man deutlich die Limitierungen einer geringen Abtastrate+denoising.....z.B. da wo der Fliesenboden die Säulen mit den Lampen reflektiert, ist das Bild nicht ruhig und deutlich verpixelter als es ein sollte....diese Probleme hat Hitman 2 nicht.

....zweiter Fehler in Hitman 2 sind Lichtquellen....teilweise sind die gut...die Stehleuchte im ersten Stock ist z.B. super gemacht...wirft auch in der Reflexion Schatten und hat in der Reflexion eine "Halo" drumrum...und man kann sie ausschießen und die Schatten verschwinden usw....wird also richtig berechnet.
....aber der Leuchtturm oder das Display einer Digitaluhr, sind in der Reflexion nur helle Quadrate....und das Pulsieren des Leutturms ist weggefallen...wobei das sicherlich keine technische Limitierung ist, sondern eher schlampige Arbeit.

Und der dritte "Fehler" ist die Sichtweite und die Verbreitung.....die Reflexionen an sich haben eine super Sichtweite....wie gesagt man sieht den Leutturm in der Ferne, die Gräser und Bäume die weiter weg sind...auch der "Sanddunst" der über die Dühnen geweht wird.....aber sie werden erst aus relativ kurzer Distanz aktiviert.
In dem ersten Level, wo man die Reflexionen an besten sieht, weil man die Kontraste von dunkel zu hell hat, wo man mehr von Spiegelungen sieht, war es mir erst gar nicht aufgefallen....entweder man nährt sich den Gebäude und es ist noch dunkel...das die Reflexion erst eingeblendet wird wenn man näher dran ist war mir nicht aufgefallen....und innerhalb des Gebäudes ist man auch immer nah genug dran.

Aber in Miami hat ein Ticketschalter eine reflektierende Scheibe und da fällt es stark auf, dass man erst auf ....20m oder so ran muss bis die aktiviert wird.
Dann ist diese Scheibe aber ein Meisterwerk....So wie diese alten verspiegelten Scheiben in der Uni...so eine komischer grüne Beschichtung, die aber über die Jahre ungleichmäßig abgerieben wurde und eine teils glatte teils matte Scheibe freilegt. Die sieht einfach super aus!....wenn sie nur nicht so spät erscheinen würde. ;)

Und da kommt der zweite Punkt des dritten Fehlers....die Häufigkeit solcher reflektierenden Flächen ist nicht sehr hoch.....Das erste Haus hat zwar einige davon, aber an vielen Stellen kommen vage gehaltenen vorgefertigte Cubemaps zum Einsatz.....Immer dann wenn die Entwickler keine deutliche Beleuchtung installiert haben, haben sie sich die "echten" Reflexionen gespart.....auf manchen matt metallischen Oberflächen oder Autolacken kommen die Cubemaps auch zum einsatz....teils in Verbindung mit Spacescreen reflektionen.....das sieht dann teilweise im Vorbeigehen super aus...hält aber einer genauen Betrachtung natürlich nicht stand.

Der Raum mit der Stehlampe in ersten Stock....die eine Hälfte mit der Lampe hat Reflexionen in den Fenstern...die andere Hälfte hat nur die Cubemaps....

Auch runde Objekte haben teilweise Reflexionen bekommen....die Dounatförmigen Lampen im "Wohnzimmer" spiegeln die Newfeed Projektion...auch wenn man sie anschießt und sie schwingen und sich drehen.

Alles in allem ist die Qualität der eigentlichen Reflexionen aus meiner Sicht fast tadellos....nur eben nicht überall eingesetzt, was die ganze Sache wenig konsequent erscheinen lässt.

Zur Leistung....ja das kostet durchaus ordentlich Leistung!
Aber es könnte schlimmer sein! Ich spiele in 1440p, DX12 und alle Optionen sind auf dem Maximum, nur Motion Blur ist ganz aus.
Gehe ich von außen auf das Haus zu....dann sinken die FPS von 92 auf 87 in dem Moment wenn die Reflexionene eingeblendet werden....gehe ich noch weiter ran, so dass ich irgendwann die ganze Fensterscheibe und damit einen weiten Reflexionswinkel im Blick habe, geht es auf 77FPS runter.

Oben in dem Raum mit der Lampe....gucke ich Richtung Leutturm auf der Seite mit Cubemaps, habe ich im worstcase 101FPS.....wechsle ich zu dem ersten Fenster mit Reflexion geht es auf minimal 80 FPS runter......wandere ich dann in die Ecke des Raumes, wo ich mich so Positioniere, dass ich beide Fenster im Blick habe....Agent 47 also aus drei Perspektiven sehe...die Lampe und möglichst viel vom Raum, war das minimum 58FPS....aber da gucke ich schon komisch von oben nach unten...in einer normaleren Kameraposition sind es eher 68FPS.

Also ganz grob....cubemaps 100FPS....eine Reflexion 80FPS...zwei Reflexionen 60FPS.

Ich habe noch eine andere Stelle mit zwei Reflexionen gefunden, da waren es min 70 FPS....
und an eine anderen Stelle, wo ich zwei Fensterscheiben(aber nicht so nah) plus die drei reflektierenden Lampen im Bild hatte waren es 77FPS.

Die ganze Zeit sind die Frametimes perfekt geblieben.....Wenn man also ohne Reflexionen im GPU limit 100-120FPS schafft, hat man nie Drops unter 60....ist nicht gut....aber bei mir läuft es dauerhaft flüssig....wenn die FPS sinken, dann aus anderen Gründen, wie zu viele NPCs oder zu viel Vegetation.....die neuen Wassereffekte sind auch nicht ohne.

ZeroZerp schrieb:
Du kannst nur eine begrenzte anzahl an dynamischen Lichtquellen versorgen, sonst bricht der standard Rasterizer in seiner Leistung erheblich ein.
Ich will ja nicht alle Kerzen bei dem Totenfest Schatten werfen lassen.....nur die Lagerfeuer oder einzelne andere Lichquellen....und die tauchen ja immer nur einzeln auf und sowas gibt es in vielen anderen Spielen problemlos.

Das kann ja auch RTX nicht...guck dir Nvidia eigne Präsentation an:
Das erste Beispiel ist ziemlich negativ für Nvidia aus meiner Sicht....so viel Kerzen aber die Madonna zeichnet einen klar definierten Schatten....offenbar von den 3-4 Kerzen vor ihr...aber seitlich sind ja mindestens 2 weitere nah dran und generell wird die ganze Szene nur von verstreuten Kerzen beleuchtet....die kann es sein dass die da so eine Schatten zeichnet?
....RTX off sieht da für mich deutlich realsistischer aus....und das gleiche im zweiten Beispiel mit dem Feuergraben.....auch der sollte aus vielen Richtungen Schatten an die Wand werfen, aber RTX on zeichtnet den Schatten als wäre der Graben eine Punktquelle.
Beispiel 3 sieht "anders" aus....ich könnte mir vorstellen in echt sieht man die RTX Vorteile besser als im Video.
Und Beispiel 4 ist dann mit RTX on wahnsinnig gut.

Aber sowas meine ich damit wenn ich sage, dass die RTX Features eben nicht unbedingt realistisch sind....die Berechnungsgrundlage ist das beste was wir haben...aber die Umsetzung hat Fehler und Limitierungen.
ZeroZerp schrieb:
Schau Dir das ganze mit dem Patch an, der vor ein par Tagen rausgekommen ist, da ist einiges nachgebessert worden unter Anderem auch das LOD, fade in etc.
Das sieht jetzt homogener aus.
Das ist schön zu hören :)
ZeroZerp schrieb:
Dem misst Du keine Wichtigkeit bei?
Doch schon...ich setze nur die Prioritäten anders.....Nvidia versucht hier eine Technik zu forcieren, die eigentlich nix neues ist....nur jetzt in Echtzeit genutzt werde kann.

Aber ich bin eben nicht davon überzeugt, wenn es mit so vielen "Abers" verbunden ist:
....die Konkurrenz ist ausgeschlossen, da DXR hier als Nvidia exklusives Feature implementiert wurde.
Die Karten machen die RT Arbeit nicht nebenbei sondern brauchen viel Rechenzeit dafür.
Das Ergebnis ist teilweise wunderschön und teilweise eben nur "anders".
Im Vorfeld wurden viele vollmundige Versprechnungen gemacht...it wust works....ein Klick und die Sache ist implementiert usw.....Es muss dann aber noch lange optimiert werden und die Entwickler müssen die Arbeit doppelt machen....und nicht nur für die AMD Kunden, sondern auch für die GTX Kunden von Nvidia...Nvidia spaltet den Markt in RTX und sonstiges.

Das ist nicht die Art von Innovation, die ich mir wünsche.
.....aber natürlich besser als gar keine Innovation. ;)

ZeroZerp schrieb:
Nur machen die RT Berechnungen eben bei den Spielen auch nur einen Bruchteil der Frametime aus, so dass das im Gesamten mal mehr und mal weniger ins Gewicht fallen kann.
Genau das wäre der Fall, wenn eben mit dem Hybridansatz nur wenige Rays, die nötigen Infos für eine Rasterisierte Darstellung liefern......man kommt mit viel weniger rays aus....normale Hardware bekommt diese brauchbar hin und RT cores können das super schnell....weil der prozentuale RT Anteil aber klein bleibt, wären RTX karten zwar schneller aber normale Karten haben eine Chance die gleiche Optik zu berechnen und das ohne einstellige FPS.
....das ist eine Innovation, die ich unterstütze....das kann man auch besser über die Jahre entwickeln....immer mehr RT Anteil und damit immer mehr Genauigkeit der Effekte, ohne jemanden auszuschließen.
ZeroZerp schrieb:
Hast recht- Das hat aber auch seine Gründe. Siehe auch hier, wo gerade mit einem Tool experimentiert wird, was VRAM künstlich belegt.
https://www.computerbase.de/forum/threads/vram-usage-aktueller-titel.636865/post-22465650
Ich habe deinen letzten beitrag da gelesen....die 276 Seiten haben mich abgeschreckt weiter zu lesen.....genau richtig was du da sagst....Die Spiele stellen sich auf die ausgelesene Menge ein.
z.B die FFXV(Demo) hatte, als ich es das erste Mal gestartet hatte nach ein paar Minuten, massive VRam Ruckler......weil ich dieses HBCC Zeug auf 12GB gestellt hatte und das Spiel scheinbar gedacht hatte ich hätte 12GB.....und dann hat es 11,7GB reserviert und scheinbar auch mehr als 8GB belegt......das wurde furchtbar ruckelig. Ich habe es dann aus gemacht und dann war alles in Ordnung.....7,8GB reserviert.....wieder angemacht und weiterhin 7,8GB reserviert....keine Ahnung...ließ sich nicht reproduzieren aber danach hat das Spiel die 8GB akzeptiert auch wenn der HBCC mehr suggeriert hat.
Trotzdem unterstreicht das deinen Punkt....Wenn das Spiel weiß, dass es nicht über 8GB gehen darf, stellt es sich darauf ein.
 
Zuletzt bearbeitet:
Baal Netbeck schrieb:
.nur das AA scheint nicht zu greifen, sodass man z.B. an der Kante von 47s Glatze leichte Treppenbildung sieht.
You made my day! 😂
Auf der Glatze Treppenbildung... Ich fall vom Stuhl.

Nochmal zur Theorie mit den Rays und der Geschwindigkeit und dem Verarbeitern mehrerer RT Effekte gleichzeitig.
Man darf dabei nicht vergessen, dass das Bild durch RT ja bereits Full- Screen abgetastet ist.
Mal mehr und mal weniger intensiv (z.B. bei Reflexionen).
Somit läge diesbezüglich in weiten Bereichen bereits auch ein BVH-Traversal Ergebnis für die anderen Effekte vor. Der Witz an RT ist ja, dass Du mit einem Ray entscheiden kannst, was Du damit machen willst. Schickst Du ihn bei einem Hit/Miss durch einen Spiegel- Shader, durch einen Schatten Shader, durch einen GI Shader...

Oder durch einen Master- Shader, der alle oben genannten Stufen durchläuft, der prinzipbedingt aber deutlich effizienter als die Einzeshader gestaltet werden kann. Somit ist jeder RT Effekt, den man zusätzlich oben drauf haut eben zeitlich in Bezug auf das Framebudget nicht so teuer, wie wenn man den Einzeleffekt nimmt.

Aber wie gesagt- da werden wir am 27ten August spätestens mehr erfahren, wenn Control auf dem Markt ist, wenn nicht vorzeitig schon die RT- Unterstützung von Justice in die freie Wildbahn entlassen wird.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck
ZeroZerp schrieb:
Man darf dabei nicht vergessen, dass das Bild durch RT ja bereits Full- Screen abgetastet ist.
Mal mehr und mal weniger intensiv (z.B. bei Reflexionen).
Somit läge diesbezüglich in weiten Bereichen bereits auch ein BHV-Traversal Ergebnis für die anderen Effekte vor.
Tastet das RTX RT nicht nur die entscheidenden Bereiche ab? Also z.B. in BF V wird soweit ich weiß immer die gleiche Anzahl Rays geschossen, aber bei Vorhandensein von reflektierenden Oberflächen, konzentrieren sich die Rays auf diesen Bereich....so haben einzelne Pfützen besseres RT als eine riesige Oberfläche, wie z.B. das Meer, weil die Strahldichte höher ist.....und das Wasser bewegt sich, was das Denoising behindert.

Aber ich kann mich da auch irren....doch so hatte ich das irgendwo gelesen.....dann habe ich aber noch nicht viel gewonnen, weil ich nur die Reflexionsflächen abgetastet habe....ich kann mir höchstens sparen dort nochmal hin zu schießen aber für Schatten und GI hilft es mir nichts die Reflexion berechnet zu haben.
 
Baal Netbeck schrieb:
Tastet das RTX RT nicht nur die entscheidenden Bereiche ab? Also z.B. in BF V wird soweit ich weiß immer die gleiche Anzahl Rays geschossen, aber bei Vorhandensein von reflektierenden Oberflächen, konzentrieren sich die Rays auf diesen Bereich....
Bei Batllefield gibt es eine Abstufung von grober zu intensiver Abtastung, die sich auf die Roughness des entsprechenden Materials bezieht.
Das heisst, dass das Bild erst einmal grob abgetastet wird. Ergibt die Auswertung des Hit- Shaders, dass der Strahl einen Pixel getroffen hat, der über einem gewissen Rauheitsgrad liegt, also spiegeln könnte, dann werden auf diesen Bereich zusätzlich Strahlen konzentriert.

Und ja- Derzeit läuft das nicht mit fixen, aber maximalen 40 prozent der Pixelanzahl ab. Was wiederum bedeutet, dass man mit DSR künstliche 100% herbeiführen könnte (mit entsprechenden Performanceeinbußen).

so haben einzelne Pfützen besseres RT als eine riesige Oberfläche, wie z.B. das Meer, weil die Strahldichte höher ist.....
Genau

und das Wasser bewegt sich, was das Denoising behindert.
Auch richtig. Bei RT wird derzeit noch viel mit temporalen Komponenten operiert, da man die Berechnungen aus Performancegründen nicht immer wieder komplett durchführt, sondern Teile der Berechnungen des Vorgängerframes miteinbezieht.

Aber ich kann mich da auch irren....doch so hatte ich das irgendwo gelesen.....dann habe ich aber noch nicht viel gewonnen, weil ich nur die Reflexionsflächen abgetastet habe...
Eine Grobabtastung des gesamten Bildschirminhaltes findet trotzdem statt.
Diese würde bereits ausreichen um die GI noch mit RT abdecken zu können. Für Schatten ist die Grobabtastung (es steckt ja schon Grob im Wort drin) allerdings nicht granular genug.

ich kann mir höchstens sparen dort nochmal hin zu schießen
Genau das ist der Punkt. Dort wo ich schon Strahlen verschossen habe, muss ich kein zweites Mal hin, sondern kann das Ergebnis weiter nutzen.

aber für Schatten und GI hilft es mir nichts die Reflexion berechnet zu haben.
Genau- Du hast ja hinter dem RT nachwievor die klassischen Shader stehen, die nach Abtastung entscheiden, was mit den RT Informationen passiert.

Wird also ein Strahl verschossen und wird ein Schnittpunkt mit einem Polygon festgestellt, dann entscheidet ein Shader, was mit dieser Information passiert.
Da wird dann entweder ein Shader angestoßen, der die Schattenberechnung für diesen "Schnittpunkt" durchführt, oder einen Shader für die Spiegelungen, GI, AO und was es sonst noch so gibt.

Würde man die Renderpipeline also so gestallten, dass man konsekutiv Einzelshader für kombinierte Effekte abspult, würde man Zeit verschenken, da sich z.B. die Shader für GI und AO garnicht so unähnlich sind und letztenendes auf den gleichen Berechnungsstrukturen und deren Teilergebnissen aufbauen.
Somit kannst Du z.B. statt das alles hintereinander in Einzelshadern zu berechnen einen großen Shader auch genannt Master Shader laufen lassen, der redundante Berechnungen eben nur einmal durchführt und zuletzt nur die Stellen, wo sich der Output des Effektes unterscheidet dann zeitlich nachfolgend oder sogar zeitgleich (wäre durch die neu gestaltete Turing Pipeline möglich) durchführt.

Somit würde ein zusätzlicher Effekt bzw. die "richtige" Kombination an Effekten unter Umständen kaum Zusatzleistung kosten.

Soviel zur grauen Theorie. In der Praxis stehen wir aber noch an dem Punkt, an dem die Einzeleffekte optimiert werden und dort geprüft wird, wie man das alles schneller und effizienter machen kann.
Aber da werden ja auch regelmäßig greifbare und teils große Fortschritte erziehlt.

Man muss sich nur mal ansehen, wo wir bei Battlefield am Anfang standen und wie das jetzt läuft:

1080P (danke Baal)/DLSS On/RT auf ULTRA:

Da macht ne 2060 knapp 100FPS average. Ich glaube wir sind uns einig, dass das jetzt nicht soooooo schlecht ist.
Es wird hier halt im Forum meist noch der Stand nach Erscheinen der Software diskutiert. Seitdem hat sich aber vieles getan...
Es ist einfach eine junge Technik (nicht RT an sich, sondern Hybride Engines). Da ist natürlich noch sehr viel Bewegung drin. Ebenso bei DLSS...

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck
Caramelito schrieb:
Welches aktuelle Game wäre in 1440p nicht mit höchsten Texturen spielbar? Gibt es Beispiele?

Warum hängt ihr euch immer an der leeren Floskel "aktuelle Games" auf? Nicht das das "Problem" zeitlos ist. Hier ein Jahrealtes Beispiel.
Die Frage ist halt ... würde die Engine einfach nur mehr Streamen, oder die höchste Texturstufe einfach nicht freischalten? Was bedeutet "nicht spielbar".

rottr_2018_07_23_14_19if70.jpg

Beim Vanilla-Release ist noch dieses passiert ....
rottr_2016_06_20_10_22ou4x.jpg
Wurde allerdings irgendwann gefixed.

call_of_dutylbkmf.jpgs1_sp64_ship_2019_02_z7jr7.jpg

ultra_thedivision2_205ek7p.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
ZeroZerp schrieb:
440P (zumindest ist das die Video- Auflösung)/DLSS On/RT auf ULTRA:
Wenn die Optionen gezeigt werden, sieht man dass es 1080p sind.

Aber ja 100FPS sind gut...anhand eines Videos ist das schwer zu sagen....mein Eindruck ist aber, dass die Soldaten die etwas weiter weg sind und auch die Bäume usw mir zu unscharf wären.

Ich bin da aber auch recht empfindlich ;)
 
Zurück
Oben