News DXR mit GeForce GTX: Pascal und Turing ohne RT-Cores können jetzt Raytracing

Teralios

Lt. Commander
Dabei seit
Mai 2008
Beiträge
1.867
@Teralios so stelle ich mir einen sinvollen Austausch in diesem Thread vor.
Ehrlich gesagt, geht es bei euch auch um etwas anderes, als ea z.b. meine Intention war. Ich habe nämlich primär meine Meinung samt einem Argument wieder gegeben. Meinungsfreiheit und so. ;)

Dieser Frage kann ich aber mangels nVidia-Hardware nicht nachgehen, auch weil ich bis auf Metro keines dieser Spiele habe, ich bin also darauf angewiesen, das mir jemand diese Information zur Verfügung stellt.

Am Ende bleiben meine Fragen aber auch jetzt unbeantwortet. ;) Will ich dafür eine Antwort, müsste ich Reverse-Engenering betreiben und da fehlt die Zeit und Lust zu. Dazu müsste ich wirklich auch berufsmäßig da drin sein.

Deswegen, lass uns Streithanseln streiten und überließ es einfach oder pack mich auf Ignore, dann blendet die Software es für dich aus.
 

pietcux

Lieutenant
Dabei seit
Juli 2007
Beiträge
532
Ehrlich gesagt, geht es bei euch auch um etwas anderes, als ea z.b. meine Intention war. Ich habe nämlich primär meine Meinung samt einem Argument wieder gegeben. Meinungsfreiheit und so. ;)

Dieser Frage kann ich aber mangels nVidia-Hardware nicht nachgehen, auch weil ich bis auf Metro keines dieser Spiele habe, ich bin also darauf angewiesen, das mir jemand diese Information zur Verfügung stellt.

Am Ende bleiben meine Fragen aber auch jetzt unbeantwortet. ;) Will ich dafür eine Antwort, müsste ich Reverse-Engenering betreiben und da fehlt die Zeit und Lust zu. Dazu müsste ich wirklich auch berufsmäßig da drin sein.

Deswegen, lass uns Streithanseln streiten und überließ es einfach oder pack mich auf Ignore, dann blendet die Software es für dich aus.
Du kannst aus meinen Angaben zum RTX auf Pascal immerhin kalkulieren, was auf deiner Vega möglich währe, wenn es einen RT fähigen Radeon Treiber gäbe. Rechenleistung ist ja großzügig vorhanden. Also mal Druck auf AMD ausüben statt immer Nvidia zu verdächtigen.
 

Teralios

Lt. Commander
Dabei seit
Mai 2008
Beiträge
1.867
Also mal Druck auf AMD ausüben statt immer Nvidia zu verdächtigen.
Und mit diesem »Ratschlag« zeigst du nur, dass du meine Fragen weder richtig gelesen noch verstanden hast und damit wären wir nun hier wieder am Anfang der Diskussion und würden uns nun anfangen im Kreis zu drehen, vor allem weil ich einmal sehr klar geschrieben habe, welche Fragen ich mir stelle und die haben nur bedingt etwas mit der Rechenleistung zu tun oder wie schnell die aktuellen Spiele auf einer Vega wären - die ohnehin nur Übergangslösung ist bei mir.

Ich bin jetzt etwas fies: Im Endeffekt hast du mir einen Antwort auf eine Frage gegeben, die ich nicht gestellt habe und mir nicht stelle und daher versuchst du nun mein Thema hier in den Urlaub zu schicken, ohne dass du etwas dazu beiträgst. ;)

Die Fragen, die ich mir stelle, kannst du gerne als »Verdächtigungen« diffamieren, ist dein gutes Recht, für mich wiederum sind sie in der aktuellen Marktlage doch relativ relevant. Ich war lange genug als freier Entwickler unterwegs und ebenso habe ich genug Kongresse mit gemacht um zu wissen, dass sich manchmal eben nicht die besten »Wege« durch setzen, sondern die mit dem meisten Kapital dahinter.

FPS und Co sind mir hier aber ehrlich: Herzlich egal! Aktuell gibt es nur die Q2 RT-Version, die ich ja gerne mal spielen würde, der Rest? Na ja … Bis hier wirklich die Effekte in sichtbar guter Form in Spielen implementiert werden, wird es wohl noch eine Zeit dauern.
 

ZeroZerp

Captain
Dabei seit
Okt. 2007
Beiträge
3.680
Zu mal das Thema nicht auf »Urlaub« ist, es geht weiterhin um DXR und für einige wie mich eben darum, ob die RT Cores in der Form zusammen mit RTX einen Weg für RT vorschreiben und ob es ein guter Weg ist oder dazu dient andere ggf. auszubremsen.
Raytracing ist ein Verfahren, wodurch man versucht Eine Szene dadurch physikalisch korrekt zu belichten, indem man Messtrahlen verschickt, die einen Lichtstrahl simulieren sollen.

Da lässt sich nichts ausbremsen. Entweder verschickt man Strahlen und tastet die Szene damit ab, oder nicht.
Dieser Technik gibt es seit 1963. Die Qualität und den Realismusgrad der Szene wird maßgeblich dadurch bestimmt, wie man die Ergebnisse eines Strahls, der auf ein Objekt trifft auswertet und in welcher Dichte man die Strahlen aussendet.

Wird z.B. gewünscht über RT eine Spiegelung oder eine Global Illumination zu berechnen und nicht nur den direkten Lichtanteil, muss ich vom Ort des Aufpralls weitere Strahlen verschiessen, die dann wiederum Erfassen, wass sich auf dem Punkt, wo unser Primärstrahl aufgetroffen ist spiegeln könnte bzw. bei GI, ob an dieser Stelle das Licht nicht nur durch die Sonne beleuchtet wird, sondern eben auch durch andere "indirekte" Dinge.

Raytracing basiert auf einem Brute- Force Ansatz. Das heisst ich muss diese Berechnung MINDESTENS für jeden Bildpunkt einmal durchführen. Je nachdem, wie der Lichtstrahl abprallt oder abgelenkt wird (beim Auftreffen wird ein randomisierter zweiter Strahl von der Aufprallstelle ausgesandt), ist das Ergebnis nicht genau genug bzw. konsistent, also die Gleichung nicht sauber anzunähern.
Das führt das dann oftmals in einem zu hellem oder zu dunklen Pixel im Ergebnis:

773315


Um dieses Rauschen nun wegzubekommen, muss ich in einem leicht anderen Winkel für den schwarzen Punkt erneut einen Strahl ab Aufprallstelle losschiessen.
Je mehr Strahlen ich versende umso genauer wird der Bereich der hinter des ersten Sichpunktes liegt abgetastet und die Wahrscheinlichkeit, dass die Farbe des Pixels zuverlässig bestimmt wird.

Wenn man nun also die Grundlagen der Gleichungen betrachtet, so sieht man sehr schön, dass prinzipbedingt rechentechnisch ein Höllenaufwand betrieben werden muss, um per Raytracing ein sauberes Bild zu generieren.

Dieser diffusen aber die physikalischen Gegebenheiten von Licht am saubersten annähernden Ansatz basiert also auf einer Brute Force- Technik.
Das Wort Brute Force sollte hier die Grundlagen allen Übels ob der Last der Berechnungen schon gut umschreiben: Es lässt sich nicht schummeln bzw. hat mein keine großen Spielräume um Beschleunigungsstrukturen aufzubauen, sollte das Ergebnis am Ende überzeugen wollen.

Was ist nun passiert?
Da man mittels Rastertechnik einigen Problemen nicht wirklich EFFEKTIV beikommen kann (z.B. Spiegelungen, Anzahl an qualitativ hochwertig dynamische Schatten erzeugende Lichtquellen, AO->VXAO kostet um die 30% Performance etc.) und man bemerkt hat, dass die Rechenleistung von Grafikkarten im Allgemeinen in astronomische höhen geraten, hat man sich zusammengesetzt (Microsoft, AMD, Intel, nVidia) und Ansätze diskutiert, wie man einen hybriden Ansatz gestalten könnte.

Daraus entstand DXR als universelle Schnittestelle zum Betriebssystem.
DXR ist nichts anderes als jede andere DX Schnittstelle (9,10,11,12) und dient den Entwicklern dazu immer die standardisierte Aufrufe an Spiele schicken zu können, die alle Spiele gleich interpretieren und beliefern.

Früher musste der Softwareentwickler für jede Grafikkarte, Soundkarte etc. eigene Renderpfade eine eigene Musikausgabe einen eigenen Pfad in seiner Software anlegen.
Das kann er sich jetzt sparen, da es eine Unviersalschnittstelle gibt, die er unbesehen beschicken kann. Diese übersetzt dann im Zusammenspiel DirectX mit den Treibern das ganze so, dass die Hardware, die dahinter betrieben wird das versteht.

Man hat mit den DX Schnittstellen sozusagen einen Hypervisor für Grafik und Sound gebaut.


Nach den Ausführungen, die ich hoffentlich verständlich genug gehalten habe, nochmal zu Deiner Frage, ob die Integration zum Nachteil von irgendjemandem vorgenommen werden kann.

Extrem unwahrscheinlich.
-Weil erstens alle bei der Entstehung von DXR in einem Boot saßen.

-Zweitens das durchführen von Raytracing schon seit Jahrzehnten so gemacht wird und prinzipbedingt so gemacht werden muss. Ein Kompromiss in Sachen Geschwindigkeit dreht auch immer gleichzeitig an der Qualität des gelieferten Bildes (z.B SVxGI der Cryengine).

-Drittens ist der Witz des Bruteforce Ansatzes wie der Name schon sagt, dass Du alle Bildpunkte einfach oder mehrfach beschicken/samplen musst.

Der Rechenaufwand ist also Herstellerunabhängig für alle Produkte, die diesbezüglich an die DXR Schnittstelle andocken sollen gleich.

nVidia ist einfach nur der erste Hersteller, der durch seine Treiber den Karten das Andocken an die DXR Schnittstelle gewährt und zusätzlich mit der RTX Hardware eine Beschleunigereinheit für RT Operationen bereitgestellt hat.

Es ist also vergleichbar wie damals, als AMD die erste Grafikkarte auf den Markt geworfen hat, die DX11.1 kompatibel war. Oder wie Microsoft mit DX7 den Softwareentwicklern hardwareunabhängig eine standardisierte T&L Funktion zur Verfügung gestellt haben.

Grüße
Zero

!Achtung! Die Darstellung der Technik dahinter wurde sehr vereinfacht wiedergegeben und umfasst nicht alle Specials, die es in Sachen Raytracing gibt. Das ist keine tiefgreifende Abhandlung, sondern soll nur aufzeigen, dass der Rechenaufwand bei RT für alle Hersteller der gleiche ist und somit keine unfairen Bedingungen oder Benachteiligungen für andere Parteien auftreten können, die auf den RT Zug aufspringen wollen.
 
Zuletzt bearbeitet:

pietcux

Lieutenant
Dabei seit
Juli 2007
Beiträge
532
Und mit diesem »Ratschlag« zeigst du nur, dass du meine Fragen weder richtig gelesen noch verstanden hast und damit wären wir nun hier wieder am Anfang der Diskussion und würden uns nun anfangen im Kreis zu drehen, vor allem weil ich einmal sehr klar geschrieben habe, welche Fragen ich mir stelle und die haben nur bedingt etwas mit der Rechenleistung zu tun oder wie schnell die aktuellen Spiele auf einer Vega wären - die ohnehin nur Übergangslösung ist bei mir.

Ich bin jetzt etwas fies: Im Endeffekt hast du mir einen Antwort auf eine Frage gegeben, die ich nicht gestellt habe und mir nicht stelle und daher versuchst du nun mein Thema hier in den Urlaub zu schicken, ohne dass du etwas dazu beiträgst. ;)

Die Fragen, die ich mir stelle, kannst du gerne als »Verdächtigungen« diffamieren, ist dein gutes Recht, für mich wiederum sind sie in der aktuellen Marktlage doch relativ relevant. Ich war lange genug als freier Entwickler unterwegs und ebenso habe ich genug Kongresse mit gemacht um zu wissen, dass sich manchmal eben nicht die besten »Wege« durch setzen, sondern die mit dem meisten Kapital dahinter.

FPS und Co sind mir hier aber ehrlich: Herzlich egal! Aktuell gibt es nur die Q2 RT-Version, die ich ja gerne mal spielen würde, der Rest? Na ja … Bis hier wirklich die Effekte in sichtbar guter Form in Spielen implementiert werden, wird es wohl noch eine Zeit dauern.
Ich könnte also hier das Für und Wider des Trampens diskutieren und das wäre in Ordnung wegen der Redefreiheit? Ich fände mich dann schlicht unhöflich gegenüber denen, denen das Thema des Threads wichtig ist. Aber gut so ist es dann eben.
 

Teralios

Lt. Commander
Dabei seit
Mai 2008
Beiträge
1.867
Danke für deinen Versuch der Erklärung. Es geht aber an meinen Fragen weiterhin vorbei, zu dem ich auch weiß, was Ray-Tracing ist und ich kenne sogar sämtliche physikalischen Berechnungsgrundlagen und könnte einen »simplen« Ray Tracer auch programmieren, der wäre aber sehr langsam und auch rudimentär.

Genau so ist der Hybridansatz für Ray-Tracing eigentlich nicht wirklich neu, weil wir in einer Studentengruppe solche Ideen bereits um 2010 entwickelt haben und zwei sogar damit experimentierten entsprechend einzelne Effekte in Raytracing zu lösen und ich geh sogar jede Wette ein, dass viele Studenten und Informatiker solche Ideen auch früher schon mal hatten.

Auch die weiteren Erklärungen sind nett, aber das weiß ich bereits alles. Ich weiß warum DX entstanden ist, OpenGL, was die Vorteile von DX und OpenGL sind, warum man DX12, Vulkan entwickelte und was die Vorteile und Nachteiler verschiedener APIs sind. ;)

Meine Fragen beziehen sich ja »explizit« auf RTX - nicht auf DXR - und die RTCores. Welcher Algorithmus liegt den RTCores zugrunde? Wie arbeitet der Algorithmus? Ist es der technisch aktuell beste Algorithmus?

Für die RTCores ergeben sich dann halt für mich weitere fragen: In wie weit beeinflussen sie die Entwicklung (egal in welche Richtung!)? Könnten sie die Entwicklung besserer Lösungen behindern? Gibt es gar ein Patent auf den Algorithmus durch nVidia usw.

Das sind Fragen, die man sich aktuell bereits stellen kann - man muss nicht. Manche könnte man bereits jetzt beantworten, wenn man einen Quelltext hätte und so den Algorithmus extrahieren könnte. Andere Fragen werden wir erst in der Zukunft beantworten können.

Deswegen noch mal: Danke für den Versuch, das meiste wusste ich bereits.

Ich fände mich dann schlicht unhöflich gegenüber denen, denen das Thema des Threads wichtig ist.
Wenn du denkst, dass Beiträge am Thema vorbei gehen, dann melde sie doch einfach, statt andere an zu giften.

Das Hauptthema hier ist nun, dass nVidia die RTX-Implementierung für Pascal und Turning ohne RTCores und TensorCores freischaltet und ebenso, dass Pascal als auch Turning ohne die RTCores weit mehr Leistung einbüßt als die andere.

Dazu habe ich ein paar Fragen aufgeworfen, was die Implementierung angeht und ob diese sich positiv oder negativ entwickeln könnte.

Wenn du denkst, dass solch eine Bemerkung am Thema vorbei geht, dann melde die entsprechende Beiträge und wenn du denkst, dass die Leute deinem Gefühlswohl abträglich sind, ignoriere sie.

Soviel Wirbel um was? Um ein paar Fragen, die durch die eher »negativen« Erfahrungen mit nVidia gezeichnet sind? Wenn du nVidia unkritisch betrachten möchtest, dann tu es bitte, es ist dein gutes Recht. Mein gutes Recht ist es allerdings nVidias Motivationen zu hinterfragen.

Und um meinen eigenen Ratschlägen zu folgen, pack ich dich genau auf die Ignore.
 

ZeroZerp

Captain
Dabei seit
Okt. 2007
Beiträge
3.680
Danke für deinen Versuch der Erklärung. Es geht aber an meinen Fragen weiterhin vorbei, zu dem ich auch weiß, was Ray-Tracing ist und ich kenne sogar sämtliche physikalischen Berechnungsgrundlagen und könnte einen »simplen« Ray Tracer auch programmieren, der wäre aber sehr langsam und auch rudimentär.
Wie willst Du denn einen "bruteforce"- Ansatz groß schneller machen? Da kochen alle nur mit Wasser.
Da ist der Spielraum für "sophisticated code" relativ begrenzt und die Praxiserfahrung und "Reife" schon allein durch den CGI- Sektor gegeben.

Meine Fragen beziehen sich ja »explizit« auf RTX - nicht auf DXR - und die RTCores. Welcher Algorithmus liegt den RTCores zugrunde? Wie arbeitet der Algorithmus? Ist es der technisch aktuell beste Algorithmus?
Die DX Cores sind fixed Function Einheiten, die die Schnittpunktsuche bzw. das BVH traversal/ray/triangle intersection ab Aufbau der acceleration structure asynchron beschleunigen können.
Die Schaltungslogik und die vollständige Pipeline dahinter bzw. der Algorithmus ist meines Wissens "closed".
Deswegen wird Dir keiner außer die nVidia Entwickler selbst sagen können, was da wie genau abläuft. Schemenhaft wird die Funktionsweise bzw. Ablauf im Whitepaper von Turing skizziert.
https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/technologies/turing-architecture/NVIDIA-Turing-Architecture-Whitepaper.pdf

Das ganze kann aber alles andere als ein Hexenwerk sein, da wie Du ja schon angemerkt hast die Berechnungsgrundlagen seit Jahrzehnten bekannt sind.

Das wird Dir aber dann auch wahrscheinlich schon alles bekannt sein.



Somit sind die Fragen die Du stellst für mich schwer greifbar.

Was heisst für Dich "bester Algorithmus"? Ich gehe mal davon aus, dass die beteiligten keine absichtlich schlechte Implementation durchgewunken haben

Die Einheiten lösen je nach Verfahren (oftmals Monte Carlo) Gleichungen.
Ist die Gleichung Effektiv oder die Beste? Gute Frage.

Nachdem man nun aber seit Jahrzehnten der Computergrafik auf die gleichen Lösungen für RT Aufgabenstellungen zurückgreift, gehe ich davon aus, dass bis jetzt keiner etwas gefunden hat, was das ganze besser machen könnte oder deutlich schneller ablaufen ließe.

Für die RTCores ergeben sich dann halt für mich weitere fragen: In wie weit beeinflussen sie die Entwicklung (egal in welche Richtung!)?
Es sind Hardwarebeschleuniger von für RT notwendigen Berechnungen. Insofern beeinflussen sie nur eines. Die Möglichkeit realtime RT Effekte mit hoher Genauigkeit und einem allgemein anerkannten Verfahren zu in Teilen der notwendigen Berechnungen zu beschleunigen.

Könnten sie die Entwicklung besserer Lösungen behindern?
Wieso sollten sie das tun? Hardwarebasierte Beschleunigung wird ja eben deshalb betrieben, weil es eben die aktuell präsente Lösung deutlich performanter gestaltet.
Derzeit ist lt. Stand der Forschung meines Wissens kein Verfahren näher an der Realität, als die Simulation der Interaktion durch Lichtstrahlen bzw. kommt diesem physikalisch am nächsten.

Prinzipbedingt kann ich mir deshalb keine idealere Lösung vorstellen, den Lichtweg zu berechnen, als diesen nachzuverfolgen.
Genausowenig wie ich mir vorstellen kann, dass man davon abweicht bei der Soundreproduktion künstlich Luftdruckunterschiede herbeizuführen, die die physikalische Grundlage für das Ohr und dessen Wahrnehmung von Sound bilden.

Gibt es gar ein Patent auf den Algorithmus durch nVidia usw.
Nein. Du kannst die Lösung einer seit Jahrzehnten bestehenden Gleichung nicht patentieren lassen.

Deswegen noch mal: Danke für den Versuch, das meiste wusste ich bereits.
Sehr gerne- Du musst schon entschuldigen, dass ich von Adam und Eva angefangen habe.
Ich weiss ja nicht, wie tief Du in der Sache drinsteckst.

Das Hauptthema hier ist nun, dass nVidia die RTX-Implementierung für Pascal und Turning ohne RTCores und TensorCores freischaltet und ebenso, dass Pascal als auch Turning ohne die RTCores weit mehr Leistung einbüßt als die andere.
Da kann ich immernoch nur auf das hier verweisen:
773366


Hier wird relativ genau aufgezeigt, was Turing im Gegensatz zu Pascal anders macht (mixed Worklads FP32 und FP16/INT32 sind mit dieser Architektur möglich) und wie stark die RT Cores einen Teil der notwendigen Berechnungen beschleunigen können.

Grüße
Zero
 
Zuletzt bearbeitet:

Teralios

Lt. Commander
Dabei seit
Mai 2008
Beiträge
1.867
Wieso sollten sie das tun? Hardwarebasierte Beschleunigung wird ja eben deshalb betrieben, weil es eben die aktuell präsente Lösung deutlich performanter gestaltet.
Moment, ich habe nicht pauschal die Hardwarebeschleunigung hinterfragt. Ich »hinterfrage« aber die Grundlage für diese Hardwarebeschleunigung, also den Algorithmus, der dafür Pate gestanden hat.

Nein. Du kannst die Lösung einer seit Jahrzehnten bestehenden Gleichung nicht patentieren lassen.
Ich glaube, ich weiß wovon du schreiben möchtest, aber ich muss es kurz zurecht schieben, sonst verwirren wir andere nur noch mehr: Wir sprechen hier nicht davon, dass man eine Lösung oder eine Gleichung patentieren lässt, sondern den Algorithmus, der eine Gleichung löst.

Und gerade in der Informatik kann man sich ja eben sehr wohl bestimmte Effekte - Monte-Carlo-Prinzip, verschiedene Suchtechniken usw. - zu nutze machen und auch neue Erkenntnisse in einen Algorithmus einpflegen, der dann wesentlich effizienter oder schneller ist. (Mir ist klar, dass es hier auch mathematische Grenzen gibt.)


Hier wird relativ genau aufgezeigt, was Turing im Gegensatz zu Pascal anders macht (mixed Worklads FP32 und FP16 ist mit dieser Architektur möglich) und wie stark die RT Cores einen Teil der notwendigen Berechnungen beschleunigen können.
Das Bild kannte ich noch nicht, für mich ist das Thema »GPU« allgemein halt recht uninteressant.

Es ist aber sehr interessant und ich habe fast den Verdacht, dass bei Turning für DXR erst mal die Int32-ALUs hinzu gekommen sind, man sieht ja gut den Block, den die RT-Cores übernehmen und was da an Leistung auch auf die INT32-ALUs geht und die FP32-ALUs.

Da das immer noch nicht reichte, hat man sich für die RT-Cores entschieden. Na ich bin gespannt, was da noch kommt.

Was heisst für Dich "bester Algorithmus"? Ich gehe mal davon aus, dass die beteiligten keine absichtlich schlechte Implementation durchgewunken haben
Ohne jetzt böse sein zu wollen: Wenn du das denkst, ist das ein wenig naiv. Ich hab leider eine andere Erfahrung gemacht, gerade wenn BWLer mit ihren strategischen Überlegungen mit im Raum sitzen und dann das Ruder an sich reißen.

Deswegen bin ich bei solchen Sachen auch vielleicht über kritisch, wenn ich meine eigenen Erfahrungen und die Geschichte von Unternehmen wie Intel und nvidia mit einfließen lasse - im übrigen war 3dFX damals auch nicht so Sympathie, wie man sie heute gerne hinstellt. ;)
 

ZeroZerp

Captain
Dabei seit
Okt. 2007
Beiträge
3.680
Ohne jetzt böse sein zu wollen: Wenn du das denkst, ist das ein wenig naiv. Ich hab leider eine andere Erfahrung gemacht, gerade wenn BWLer mit ihren strategischen Überlegungen mit im Raum sitzen und dann das Ruder an sich reißen.
Eiei- Da würden ja dann aber wirklich alle "Player" unter einer Decke stecken.
Und wenn dem so ist und alle dicht halten, dann würden wir es niemals erfahren.

Dann müsste es aber für Produkte "Absprachen" geben, denn AMD dürfte ja dann nicht einfach zukünftig mit einer effizienteren Lösung kommen.

Wie gesagt- DXR und deren Implementierung basierend auf Beschleunigungsstrukturen etc. ist ja auf dem Mist aller üblichen Verdächtigen gewachsen. Intel, AMD, nVidia, Microsoft.

Somit ist eine "Verschwörung" zwar nicht unmöglich, aber ich denke dann doch eher unwahrscheinlich... :)

Grüße
Zero
 
Zuletzt bearbeitet:

Teralios

Lt. Commander
Dabei seit
Mai 2008
Beiträge
1.867
Und da sind wir nun bei dem Punkt, der mir »etwas« Kopfzerbrechen bereitet.

Wir wissen, DXR ist die API von MS für RayTracing. RTX ist die treiber- und hardwareseitige Implementierung von nVidia. Jetzt sind für mich folgende Fragen eben vorhanden: Wie abstrackt ist die API - kann man sich ja ansehen. Wie viel Freiheit lässt die API den Grafikkartenherstellern bei der Implementierung? Und wie wirken sich diese Freiheiten am Ende auf die Spieleentwickler aus? Müssen sie um bestimmte Ergebnisse zu erzielen die Eigenheiten der Implementierung der Hersteller beachten oder nicht.

Und genau hier habe ich halt auch durch CUDA, OpenCL und Co bestimmte Erfahrungen gemacht, die mich das »schlimmste« vermuten lassen.

Jetzt klarer?
 

ZeroZerp

Captain
Dabei seit
Okt. 2007
Beiträge
3.680
Und genau hier habe ich halt auch durch CUDA, OpenCL und Co bestimmte Erfahrungen gemacht, die mich das »schlimmste« vermuten lassen.

Jetzt klarer?
Sonnenklar - Den Interpreter bzw. die Abstraktionsschicht habe ich mir ehrlich gesagt noch nie so genau angesehen, da ich tatsächlich eher auf Applikationsebene gearbeitet habe. Falcor, UE4.22, Visual Studio.

Performancetechnisch sah das für mich alles nicht übel aus und kam knapp da hin, was man als Leistungsausblick erhalten hatte. Inwieweit jetzt ein optimiertes Verhalten z.B. für RTX vorliegt, kann man mangels Verfügbarkeit von Alternativen noch nicht bewerten.

Wie heterogen das ganze nutzbar sein wird, werden wir spätestens erfahren wenn der erste Konkurrent mit seinem DXR kompatiblen Produkt auftaucht....

Grüße
Zero
 
Zuletzt bearbeitet:

Selanius

Ensign
Dabei seit
Dez. 2018
Beiträge
153
@ZeroZerp
Bist auf meiner Ignore Liste. Da es dir ja nicht möglich ist meine Posts nicht zu kommentieren. Ich aber nicht bereit bin, länger deinen Unsinn zu lesen. Ist so einfacher für mich.

@pietcux
Jetzt mal ehrlich, wieso sollte man AMD Druck machen bezüglich DXR/RT? Damit sie ebenso eine unausgegorrene Sutsche auf den Markt werfen wie nVidia? Damit AMD Karten Besitzer ebenso Beta-Tester spielen dürfen wie es schon nVidia Karten Nutzer machen?
AMD sagt, sie arbeiten dran und bringen es auf den Markt, wenn sie es für richtig halten. Damit ist im Grunde alles gesagt und jeder naive Post, das dies ja nicht so schwer sein kann und das AMD doch einfach mal das ganze implementieren solle, ist im Grunde BS.
Wenn man nicht akzeptiert, dass AMD eben dieses mal nicht einfach etwas unfertiges auf den Markt wirft, dann muss man sich eben eine nVidia RTX Grafikkarte kaufen um dann in 3 Spielen die RTX Erfahrung machen zu können, mir vernünftigen FPS.
 

ZeroZerp

Captain
Dabei seit
Okt. 2007
Beiträge
3.680
@Selanius
Der Klassiker - So viele Geisterfahrer auf der Autobahn, gelle?

Du hast einfach immernoch nicht begriffen, dass jede Technologie irgendwo seinen Anfang nimmt und sich entwickeln muss.
Wenn also keiner damit anfängt Hardware für RT anzubieten, dann kann auch folglich niemand dafür entwickeln. Wie sollen denn die Hersteller/Programmierer sonst ein Gefühl dafür kriegen, was ihnen da an die Hand gegeben wird bzw. mit welchen Ressourcen sie im Praxiseinsatz rechnen sollen?

Wenn jeder den anderen vorschickt, dass dieser doch mal schön entwickeln möge und man selbst steigt ein, wenn alles perfekt ist, dann gäbe es keine Entwicklung mehr am Markt.

Die Hardware von nvidia ist nicht unausgegoren und es steckt jede Menge know how drin. Die Software muss wie immer nachziehen.

Wer das hier als unausgegoren bezeichnet, leidet unter Realitätsverweigerung:

Das ist Realtime. Das geht Richtung CGI im Kino- Einsatz.

Steck nur weiter Deinen Kopf in den Sand, halt Dir die Ohren zu und sing laut. Deine steilen Thesen werden leider dadurch nicht besser oder richtiger.

Grüße
Zero
 

pietcux

Lieutenant
Dabei seit
Juli 2007
Beiträge
532
@ZeroZerp
Bist auf meiner Ignore Liste. Da es dir ja nicht möglich ist meine Posts nicht zu kommentieren. Ich aber nicht bereit bin, länger deinen Unsinn zu lesen. Ist so einfacher für mich.

@pietcux
Jetzt mal ehrlich, wieso sollte man AMD Druck machen bezüglich DXR/RT? Damit sie ebenso eine unausgegorrene Sutsche auf den Markt werfen wie nVidia? Damit AMD Karten Besitzer ebenso Beta-Tester spielen dürfen wie es schon nVidia Karten Nutzer machen?
AMD sagt, sie arbeiten dran und bringen es auf den Markt, wenn sie es für richtig halten. Damit ist im Grunde alles gesagt und jeder naive Post, das dies ja nicht so schwer sein kann und das AMD doch einfach mal das ganze implementieren solle, ist im Grunde BS.
Wenn man nicht akzeptiert, dass AMD eben dieses mal nicht einfach etwas unfertiges auf den Markt wirft, dann muss man sich eben eine nVidia RTX Grafikkarte kaufen um dann in 3 Spielen die RTX Erfahrung machen zu können, mir vernünftigen FPS.
Also gut, soll AMD seine RT Lösung bringen wenn sie richtig gut performt, macht ja auch Sinn. Ich habe halt die Nvidia Lösung freudig gekauft und bin mit dem Resultat zufrieden. DLSS hat mich auch komplett überzeugt. Da ich weder Mathematiker noch Informatiker bin kann ich das Ganze einfach nutzen ohne es zu analysieren. Ich hätte zu Beispiel überhaupt kein Interesse an Q2 mit Raytracing auch nicht ohne.
 

ZeroZerp

Captain
Dabei seit
Okt. 2007
Beiträge
3.680
@pietcux

Während einige mit einem internen Kampf um die Vernunft und das Geld versuchen, sozusagen in einer Trockenübung zu verstehen, wie Raytracing in Spielen wirkt, nutzen es die anderen einfach schon, profitieren von einer neuen Grafikqualität und haben einfach Spaß damit.

Zerpflückt wird es nämlich nur, weil man versucht die Schwächen künstlich aufzublasen, um sich selbst zu beruhigen/bestätigen, dass man nichts verpassen würde.... Auf Nachfrage hätten es alle gerne. Nur nicht "so".

Ansonsten müsste man ja mal etwas Geld in sein Hobby investieren.

Kann jeder für sich selbst enstscheiden.

Grüße
Zero
 
Zuletzt bearbeitet:

Selanius

Ensign
Dabei seit
Dez. 2018
Beiträge
153
Ist doch auch ok, wenn für dich bei den RTX Karten sowohl der Preis als auch die Leistung passen und du als Spieler der 3 Spiele für dich RT als gut umgesetzt siehst, ist doch alles in Ordnung. Keiner hat gesagt du darfst dir keine RTX Karte kaufen und ebenso hat keiner gesagt, das du keinen Spaß mit den RT Features in den 3 Spielen haben darfst. Und wenn dich DLSS sogar auch noch komplett überzeugt. Dann ist das doch noch besser.

Es ändert aber halt nichts daran, das dies eben nicht jeder so sieht. Und für viele Kritiker sind eben weder der Preis noch die Umsetzung/nicht Umsetzung etwas wofür man nVidia feiern sollte (was aber sehr viele nVidia Jünger eben wieder machen). Soll man diese Kritikpunkte jetzt einfach ignorieren, damit nVidia glücklich ist? Soll man einfach hinnehmen wenn immer wieder in Threads für RTX missioniert wird, obwohl da noch so vieles nicht Rund läuft (und nVidias trotzdem einen Batzen voll Geld für haben will)?

Wenn einem Kritik nicht gefällt, dann soll er sie nicht lesen, oder die Kritiker auf Ignore setzen, weil dann lebt es sich besser in der eigenen kleinen Filterblase.
 

ZeroZerp

Captain
Dabei seit
Okt. 2007
Beiträge
3.680
Wenn einem Kritik nicht gefällt, dann soll er sie nicht lesen, oder die Kritiker auf Ignore setzen, weil dann lebt es sich besser in der eigenen kleinen Filterblase.
Na dann viel Spaß in Deiner eigenen wie Du es nennst "kleinen Filterblase".

Dann tu hier aber nicht so, als ob Du hier ernsthaft diskutieren wollen würdest.

Wie man anhand Deiner Beiträge sehr schön erkennen kann, rennst Du, obwohl man versucht Dir auf argumentativem und faktenbasiertem Wege zu begegnen immer wieder mit dem Kopf gegen die Mauer, weil Du Deine Meinungen basierend auf ausgedachten Indizien, Vermutungen und Unterstellungen als allgemeingültigen Fakt durchsetzen willst.
Alles was nicht Deinem Weltbild entspricht, wird dann kurzerhand auf "ignore" gesetzt.

Und dann anderen unterstellen, dass sie nicht kritikfähig wären....

Grüße
Zero
 

Elverado

Cadet 4th Year
Dabei seit
Jan. 2018
Beiträge
113
Also ich find's erstmal ganz gut, dass es integriert wurde für Pascal-Karten. Effektiv nutzbar ist das natürlich nicht, aber mal ausprobierbar. Dass das jetzt auch nicht aus lauter Menschenliebe gemacht wurde, ist auch klar, Nvidia ist ein Unternehmen und man schlägt so zwei Fliegen mit einer Klappe: Bei willigen Käufern schafft man Anreize von GTX auf RTX umzusteigen und bei Spieleentwicklern Anreize aufgrund der höheren potenziellen Nutzerbasis für Raytracing.
Mir persönlich fehlt so ein wenig der Nutzen, da ich kein Spiel besitze/in naher Zukunft anschaffen werde, das Raytracing unterstützt. Aber so in ein paar Jahren (vllt. 5, vllt. etwas mehr, vllt. etwas weniger) wird das ganze ausgereifter und auch verbreiteter sein, dass sich (für mich) ein näherer Blick lohnen wird. Dann wird es auch keine >700€ kosten, um ordentliche Effekte flüssig darstellen zu können.
Raytracing ist auf jedenfall eine relevante/wichtige Zukunftstechnik, die man aktuell ja schon in einer etwas "ungeschliffenen" Form schon bewundern kann. Das wichtige bei der aktuellen Turing-Generation ist, dass damit der erste Schritt gemacht wurde. Der Fortschritt erledigt dann den Feinschliff.
Der breiten Masse (wie auch mir) wird halt einfach diese "Rohform" noch zu teuer/ineffizient sein. Aber für Interessierte spricht ja prinzipiell nichts dagegen sich eine RTX-Karte einzubauen.
 
Top