Test Battlefield V mit DXR: Update beschleunigt Raytracing massiv

Esenel schrieb:
Aber aber aber es darf einfach nicht spielbar sein!

Ich schaue noch was mir am Besten taugt.
Die Beobachtung heute ist insofern interessant, als dass ja meine Hardware keine andere ist. Auch der Grafikkartentreiber ist noch der alte.

Ingame hatte ich 2x die Aufforderung irgendetwas aktualisieren zu müssen.
Ich denke fast, dass die da Serverseitig irgendwas gemacht haben, bzw dass das Ruckeln, das ich vorher hatte, vielleicht doch irgendwas mit der Synchronisation mit den Servern zu tun hatte.

Nach einer halben Stunde argwöhnischen Glotzens auf den Frametimeschrieb, habe ich aber das Spiel dann einfach mal gespielt, ohne auf den technischen Firlefanz zu achten.
Und da ich keinen Anspruch eines Elite- Progamers mehr an mich stelle, hatte ich einfach meinen Spaß damit.
Das Spiel ist alles andere als schlecht. Wenn die noch ein wenig an der Balance einiger Dinge schrauben, ein richtig runder multiplayer- Shooter mit einer wirklich überragenden Atmosphäre.

Und apropos Pfützen und Raytracing. Als ich bei Regen unter einer Brücke durchgekrochen bin, hinter einem Kollegen her und ich habe auf der Oberfläche seines nassen Mantels schwache Spiegelungen der Umgebung gesehen... Das war schon beeindruckend, wie "real" das aussah. Und da habe ich jetzt auch erst begriffen, wie weit die dieses Thema eigentlich getrieben haben.
Das hat mich wirklich beeindruckt.
 
  • Gefällt mir
Reaktionen: Hias_L, Unnu und Esenel
pietcux schrieb:
Dann kannst du es für dich testen und erneut bewerten. viel Spaß dabei. Wobei es dann ja für dich irgendwie Geldverschwendung ist 1200/1300 €, für eine Technik die du sehr gering schätzt, auszugeben. Da reicht im Grunde doch was du hast noch eine Weile.
Das beste an RTX ist das man es ausschalten kann.

Für maximale VR Auflösung ist selbst ne 2080ti grad mal befriedigend, ich brauch die Performance.

Ich achte nicht auf irgendwelche Werbe-Slogans, und nichts anderes ist RTX... Marketing Propaganda.
Vielleicht in 8 Jahren wenn die RT Cores wirklich die berechnungen durch führen können ohne 30% frameeinbrüche für paar kleine details die eh kaum auffallen, zu verschwenden.
 
m.Kobold schrieb:
Das beste an RTX ist das man es ausschalten kann.

Für maximale VR Auflösung ist selbst ne 2080ti grad mal befriedigend, ich brauch die Performance.

Ich achte nicht auf irgendwelche Werbe-Slogans, und nichts anderes ist RTX... Marketing Propaganda.
Vielleicht in 8 Jahren wenn die RT Cores wirklich die berechnungen durch führen können ohne 30% frameeinbrüche für paar kleine details die eh kaum auffallen, zu verschwenden.

Problem wird nach dem Kauf einer 2080Ti sein, dass deine CPU und dein RAM viel zu langsam für diese Grafikkarte ist.
 
m.Kobold schrieb:
Das beste an RTX ist das man es ausschalten kann.

Lach.... Die Frage ist wie lang noch. Und dann wirst auch Du, der sich mit Händen und Füßen gegen DXR gewehrt hat, mit ner Grafikkarte, die doch damals so performant war und 6FPS dastehen.

Du hast immernoch nicht begriffen, dass RTX hauptsächlich eine Beschleunigungstechnologie ist. Und es die zukünfte Art und Weise des Gamedesigns und dessen Aufwand signifikant mitbestimmen wird.

Für Dich nochmal was (auch wenn ich weiss, dass Du das nicht liest), was ein wenig einfacher gehalten ist:
https://www.fullexposure.photography/nvidia-turing-rtx-raytracing-explained/

Für maximale VR Auflösung ist selbst ne 2080ti grad mal befriedigend, ich brauch die Performance.
Genau mit diesem Ausspruch disqualifizierst Du Dich doch selbst. Also wenn eine Karte einen Haufen Technologie GERADE zum Beschleunigen von VR hat, doch dann die RTX.

Variable Rate Shading, Per Pixel Mapping, Single Pass Stereo 2.0 (MVR), SMP, DLSS, Deeplearning driven motion Interpolation, Mesh Shader, natives Foveated Rendering (für Eye Tracking) etc. etc.

Glaubst Du wirklich, dass Du innerhalb der nächsten 10 Jahre ein Grafikkartenkonstrukt sehen würdest, was auf altbewährte Weise die Shadingleistung verfünffacht, was wir gerade für VR dringend brauchen würden?

Wie stellst Du Dir das vor? 30.000 Shader mit 3000 Gigabyte GB/Sek. Bandbreite aus einem Grafikspeichercluster in 2NM Technik und 2,2GHz Takt?
Wie soll da Deiner Meinung nach eine Lösung aussehen?

Ohne Technologiewechsel geht es nicht. Wer das nicht einsieht, lebt hinter dem Mond und weigert sich physikalische und technische Barrieren anzuerkennen.

Ich achte nicht auf irgendwelche Werbe-Slogans, und nichts anderes ist RTX... Marketing Propaganda.
Das waren Shader und Cuda- Cores vor einigen Jahren auch. Da haben "Leute wie Du" genau das gleiche postuliert.

Vielleicht in 8 Jahren wenn die RT Cores wirklich die berechnungen durch führen können ohne 30% frameeinbrüche für paar kleine details die eh kaum auffallen, zu verschwenden.
Ich möchte Dir wirklich mal ans Herz legen, wenn Du schon in wirklich jeden Raytracing- Thread das gleiche schreibst, nicht immer aufs neue zu beweisen, dass Du Dich 0 mit der Materie auseinandergesetzt hast und Dich mal ein wenig informierst, was DXR ist, was RTX ist, was es kann, welche Aussichten durch die Technologie bestehen und warum wir es brauchen.

Gerade wenn Dir zukünftig deutliche Leistunggsteigerungen wichtig sind, ohne zehn Jahre warten zu müssen, solltest Du dann begreifen, wohin die Reise gehen muss.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Palatas, Oneplusfan, Hias_L und eine weitere Person
ZeroZerp schrieb:
Ist halt hier ne Community man lehrt und lernt. Wie vorhin so schön gesagt wurde, wofür ist so ein Forum sonst da?
Zudem gibt es ja immer wieder positive Erlebnisse, wo die User den Wolf, den man sich hier manchmal erklärt, dann doch zu schätzen wissen.

Aus was für einem Grund auch immer, kann ich es nicht ertragen, wenn man mitbekommt, dass sich eine Masse an Leuten auf das falsche Boot begibt, nur weil nicht einer mal dazwischengeschossen hat und sie drauf hingewiesen hat, dass es garnicht in die gewünschte Richtung segeln wird.
Zudem liebe ich einen vernünftig geführten technischen Diskurs, bei dem auch ich schon so manches gelernt hab.
Deswegen versuche ich in Threads, in denen Dinge behandelt werden, die mir wichtig sind, in genau diese Richtung zu schubsen.


RTX ist ein Markenname, ein Technologiename oder Synonym, in welchen NVIDIA die in ihren Augen wichtigen und neuen Kerntechniken zusammenfassen.

DXR ist die allgemeingültige und für alle andockbare API, die den Treibern standardisierte Instruktionen übergibt.
Der Treiber von NVIDIA wiederum übersetzt die Instruktionen an die entsprechenden Schnittstellen der GPU die wiederum auf den RTX genannten Technologien bzw. dem Framework von NVIDIA basieren und die das ganze dann an die entsprechenden Hardware- Gewerke verteilen.

Genauso wie AMDs Treiber DXR Befehle annehmen können, die dann wiederum von deren eigenen Technologien verwurstet werden können (wenn zukünftig unterstützt)

Wäre es eine DXR Extension wäre RTX z.B. nicht auf OptiX oder Vulkan lauffähig.

Mir gefällt Computerbase Forum vorallem wegen der ausgereiften Anwenderoberfläche. Verglichen mit dem krüppligen PCGAMESHARDWARE Forum der auch nicht richtig auf Mobiles funktioniert und vielen anderen Unzulänglichkeiten hat... , aber mit den Mitglieder werde ich auch schon etwas warm.

Ganz nette Gesellen hier drin.

Zweitens, RTX.
Eine absolut akzeptable Aussage.
Ergänzung ()

FCK-THIS schrieb:
Das Problem scheint in deinem Fall eindeutig vor dem Bildschirm zu sitzen :rolleyes:
Dunkel und blaulastig soll das Bild sein und er meint es liegt an der Grafikkarte ...
->Hauptsächlich meine ich in Spielen ist es dunkler/blaustichiger.

Habe gerade heute nochmal nach kontrolliert.
Und die Texturen dünken mich auch ein wenig unschärfer auch ohne Nutzung von post-AA.

Ich hätte es gerne als Hirngespinnst abgetan wie du, aber es ist Tatsache.
Der Unterschied ist minim aber für mich klar vorhanden.

Beispiel: Shadow of the TombRaider. Beim Benchmark klar zu sehen wenn man sich drauf konzentriert. Die Haut von Lara scheint sehr grobe farbliche Übergänge zu haben (wie 16bit). Ich weiss nicht wieso aber das es bei AMD mir nicht aufgefallen ist, das weiss ich.
Bei Anthem ist mir auch eine Stelle mit minder Texturqualität aufgefallen. Kein BUG!
...jetzt stell ich mal die Texturequalität auf hoch in den "old-school" Treibermenue von NV. Mal sehen ob das einen Unterschied macht.
 
Zuletzt bearbeitet:
Wäre hier im Forum mal einer so gut und könnte testen, ob die Einstellung Resolution Scale bzw. Auflösungsskala den selben Performanceeinfluss hat, wie die native Auflösung?

Sprich einfach mal 4K auf 100% Auflösungsskala mit DXRUltra laufen lassen und einmal 1080P mit 200% Auflösungsskala DXR Ultra.
An sich sollte die Performance ja gleich bleiben...

Hat sich erledigt... Anscheinend sind 200% bei Auflösungsskala nicht = Doppelt im Sinne von Breite mal Höhe
 
Zuletzt bearbeitet:
Pleasedontkill schrieb:
Mir gefällt Computerbase Forum vorallem wegen der ausgereiften Anwenderoberfläche. Verglichen mit dem krüppligen PCGAMESHARDWARE Forum der auch nicht richtig auf Mobiles funktioniert und vielen anderen Unzulänglichkeiten hat... , aber mit den Mitglieder werde ich auch schon etwas warm.

Ganz nette Gesellen hier drin.

Zweitens, RTX.
Eine absolut akzeptable Aussage.
Ergänzung ()


->Hauptsächlich meine ich in Spielen ist es dunkler/blaustichiger.

Habe gerade heute nochmal nach kontrolliert.
Und die Texturen dünken mich auch ein wenig unschärfer auch ohne Nutzung von post-AA.

Ich hätte es gerne als Hirngespinnst abgetan wie du, aber es ist Tatsache.
Der Unterschied ist minim aber für mich klar vorhanden.

Beispiel: Shadow of the TombRaider. Beim Benchmark klar zu sehen wenn man sich drauf konzentriert. Die Haut von Lara scheint sehr grobe farbliche Übergänge zu haben (wie 16bit). Ich weiss nicht wieso aber das es bei AMD mir nicht aufgefallen ist, das weiss ich.
Bei Anthem ist mir auch eine Stelle mit minder Texturqualität aufgefallen. Kein BUG!
...jetzt stell ich mal die Texturequalität auf hoch in den "old-school" Treibermenue von NV. Mal sehen ob das einen Unterschied macht.

Würden Texturen auf Nvidia Grafikkarten schlechter aussehen oder grundsätzlich mit Nvidia Grafikkarten nur das kleinste Problem bestehen, würde der Shitstorm nicht lange warten.
Komischerweise bist du der einzige mit Problemen.

Es muss an deinen Einstellungen, dem Bildschirm oder tatsächlich an einer teildefekten Grafikkarte liegen.
Das kann dir mit einer Nvidia, einer AMD oder einer Intel Grafikkarte passieren, deshalb so einen Müll von sich zu geben:

„Habe eine R9 390 und habe zur GTX1080 gewechselt. Ich glaube ich verkaufe diesen NV Scheiss. Zu wenig Performance gain und schlechtere Qualität.“

ist einfach nur unnötig und an Schwachsinn kaum zu übertreffen.

Das Problem sind nicht Nvidia Grafikkarten. Das Problem liegt bei dir ;)
Ohne die geringste Ahnung zu haben es als Tatsache abzustempeln, dass es an der GTX 1080 liegen soll und alle Nvidia Grafikkarten „Scheiss“ wären ... tut mir Leid, aber dazu fällt mir nicht mehr viel ein :rolleyes:

Und was hast du an „Performance gain“ erwartet?
Eine Vega 64, das Beste was AMD aktuell zu bieten hat, hätte dir exakt den selben „Performance gain“ gegeben. Und was an der Qualität besser sein soll, kannst du uns gerne einmal erklären :rolleyes: Hättest du dich vorher informiert, hättest du das Upgrade vielleicht gleich lassen können. Eine AMD Grafikkarte hätte aber keinen deiner angesprochenen Punkte besser gemacht.
Möchtest du mehr „Performance gain“ musst du tiefer in die Tasche greifen, AMD ist dann allerdings aktuell keine Option mehr.

Auch wenn wenn man dir nach deiner vorherigen Aussage nicht helfen sollte - verbaue die GTX 1080 mal bei einem Bekannten mit anderer Hardware, Bildschirm etc.
Treten dann weiterhin die selben Fehler auf, ist die Grafikkarte defekt. Für solche Fälle gibt es dann eine Garantie/Gewährleistung.
Aber immer daran denken, nur da du schlechte Erfahrungen gemacht hast, heißt das nicht grundsätzlich, dass der Hersteller zu meiden wäre.
Die RMA Quoten von beiden Herstellern von dedizierten Grafikkarten sind nämlich nahezu identisch. Wobei gerade Pascal wohl vergleichsweise eine besonders niedrige RMA Quote hat.
 
Zuletzt bearbeitet:
FCK-THIS schrieb:
Würden Texturen auf Nvidia Grafikkarten schlechter aussehen oder grundsätzlich mit Nvidia Grafikkarten nur das kleinste Problem bestehen, würde der Shitstorm nicht lange warten.
Komischerweise bist du der einzige mit Problemen.

Es muss an deinen Einstellungen, dem Bildschirm oder tatsächlich an einer teildefekten Grafikkarte liegen.
Das kann dir mit einer Nvidia, einer AMD oder einer Intel Grafikkarte passieren, deshalb so einen Müll von sich zu geben:

„Habe eine R9 390 und habe zur GTX1080 gewechselt. Ich glaube ich verkaufe diesen NV Scheiss. Zu wenig Performance gain und schlechtere Qualität.“

ist einfach nur unnötig und an Schwachsinn kaum zu übertreffen.

Das Problem sind nicht Nvidia Grafikkarten. Das Problem liegt bei dir ;)
Ohne die geringste Ahnung zu haben es als Tatsache abzustempeln, dass es an der GTX 1080 liegen soll und alle Nvidia Grafikkarten „Scheiss“ wären ... tut mir Leid, aber dazu fällt mir nicht mehr viel ein :rolleyes:

Und was hast du an „Performance gain“ erwartet?
Eine Vega 64, das Beste was AMD aktuell zu bieten hat, hätte dir exakt den selben „Performance gain“ gegeben. Und was an der Qualität besser sein soll, kannst du uns gerne einmal erklären :rolleyes: Hättest du dich vorher informiert, hättest du das Upgrade vielleicht gleich lassen können. Eine AMD Grafikkarte hätte aber keinen deiner angesprochenen Punkte besser gemacht.
Möchtest du mehr „Performance gain“ musst du tiefer in die Tasche greifen, AMD ist dann allerdings aktuell keine Option mehr.

Auch wenn wenn man dir nach deiner vorherigen Aussage nicht helfen sollte - verbaue die GTX 1080 mal bei einem Bekannten mit anderer Hardware, Bildschirm etc.
Treten dann weiterhin die selben Fehler auf, ist die Grafikkarte defekt. Für solche Fälle gibt es dann eine Garantie/Gewährleistung.
Aber immer daran denken, nur da du schlechte Erfahrungen gemacht hast, heißt das nicht grundsätzlich, dass der Hersteller zu meiden wäre.
Die RMA Quoten von beiden Herstellern von dedizierten Grafikkarten sind nämlich nahezu identisch. Wobei gerade Pascal wohl vergleichsweise eine besonders niedrige RMA Quote hat.

Mein Gott, du solltest echt nicht zu spähter Stunde noch so was rein drücken kurz vor dem Schlafen gehen.
Weiss garnicht warum du dich angesprochen fühlst, ich suche nach Anhaltspunkte die mein persönliches Gefühl bestätigt.
Nachdem ich verstanden habe, dass du so etwas nicht sehen kannst darfst du dich wieder zurücklehnen. Danke.

So etwas wäre auch nicht das erste Mal. Weiss noch genau als dies NVidia schon mal zu ATI Zeiten durchgezogen hat. Damals war es einfach brutal offensichtlich. Das haben hier anscheinend einige verpasst.

Hier mehr Zielführenderes (Beispiel "Doom"):
Ich selbst sehe da keinen Unterschied, die Grafik ist einfach zu bunt, fast schon in die Richtung Comic...

Zitat aus den Kommentaren:
"Definitely not an nvidia fanboy. But seems every time I upgrade graphics cards I hop over from nvidia to AMD back and forth. And I thought I was crazy but radeon cards always had more punchy and vibrant textures. Nvidia run super fast but I feel like they automatically downgrade a lot of settings for you so you can be happier with more frames. Thus thinking the card is better, but from an artists point of view I believe AMD has the better image. (Hope it isn't placebo)

Antwort: You are exactly right. Ive been testing this. Had 2 1080tis in sli (nightmare setup by the way) went down to single ti.. Then i got a founders fe on sale for under 400. The experience was so much better! Looked and felt so much smoother.. I got rid of the 1080ti's. Less frame rate but... Vega at 1440p loomed better than 1080ti at 4k... Ati is definately rendering objects at farther distances. Textures are replaced in a faster and more seemless way and nvidia just looks worst. Period. And no ones talking about this. Its sad. Shows the state that were in where anyone can pull whool over our eyes. You want a game that makes it apparent. Play dragons quest. Looks and feels 100% better on amd."



...am Ende kann es auch einfach irgend eine Texturecompression sein die mir im Auge stört.
Dann wüsste ich das einfach gerne.
Die Texture Qualität Einstellung in den NV Settings macht keinen sichtbaren Unterschied, umgestellt auf...
1544496188930.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pleasedontkill und Esenel
Ändert nur nichts an der schlechten Darstellung in zb Doom.

Noch Eins:
AMD Vs. Nvidia Image Quality - Does AMD Give out a BETTER Picture..?!

 
  • Gefällt mir
Reaktionen: Pleasedontkill
@janeeisklar
Ergo- Wenn man sich die Videos so ansieht, gibt es bis auf das von mir oben erwähnte Setting keinen Sieger.
Hätte mich auch gewundert.

Hier mal ein Video Vega 64 DXR Off gegen 2080 TI DXR Ultra
Fast gleichstand (0-15%)

Das heisst, dass wenn man nach einigen Kommentaren im Forum hier geht, dass mit der aktuellen DXR-Performance das Spiel "unspielbar" wäre, das Ding auf einer Vega 64 grundsätzlich wohl auch unspielbar ist....

Da merkt man mal wieder, wie vermessen derlei Argumentationsweise ist.

Und hier mal BF V mit einem hochgezüchteten System und 4K:

Das sollte doch auch wirklich als spielbar gelten...

Grüße
Zero
 
Zuletzt bearbeitet:
janeeisklar schrieb:
Ändert nur nichts an der schlechten Darstellung in zb Doom.

Noch Eins:
AMD Vs. Nvidia Image Quality - Does AMD Give out a BETTER Picture..?!


Super endlich brauchbares!

Und auch Er erzählt von einem Blaustich und dem möglichen Einfluss von Compressionstechniken.
Muss wohl Hellseher sein?

@FCK-THIS empfehle ich den Besuch beim Optiker.
Ergänzung ()

ZeroZerp schrieb:
@Pleasedontkill

NVIDIA stellt in seinen Grafikkarten normalerweise den Modus auf "Limited Range RGB". Das bedeutet, dass auf den Karten nicht der volle Farbraum zur Verfügung steht (hat auf einigen Displays Vorteile), nimmt jedoch ein wenig Kontrast weg.

Mit dieser Prozedur kannst Du den vollen Farbraum aktivieren, falls Du das nicht schon ausprobiert hast:
https://pcmonitors.info/articles/correcting-hdmi-colour-on-nvidia-and-amd-gpus/

Danke dir auch. ...aber sag mir mal im Ernst, WTF!!? ....und welche Vorteile konnte eine einschränkung des Farbraums für uns haben?
Da beschleicht mich gerade ein Gedanke warum HDR bei NV so mies läuft bei AMD jedoch fast keinen Einfluss haben soll.

Ich stells sofort um und checke nach ob es das ist.
 
Zuletzt bearbeitet:
@ZeroZerp


Beides unspielbar.
Da nicht Drölftausend FPS in der Anzeige stehen ist es natürlich unspielbar.

Aber zwei sehr schöne Videos.


Ich freue mich schon auf die nächsten Patches, wenn das Ganze noch flotter wird :-)


Aktuell spiele ich aber wieder auf DX12 RTX Off, da ich so 150 -180 fps avg habe. Je nach Map.
Ist schon auch ganz nett.
 
  • Gefällt mir
Reaktionen: .Sentinel.
ZeroZerp schrieb:
@janeeisklar
Ergo- Wenn man sich die Videos so ansieht, gibt es bis auf das von mir oben erwähnte Setting keinen Sieger.
Hätte mich auch gewundert.

Hier mal ein Video Vega 64 DXR Off gegen 2080 TI DXR Ultra
Fast gleichstand (0-15%)

Das heisst, dass wenn man nach einigen Kommentaren im Forum hier geht, dass mit der aktuellen DXR-Performance das Spiel "unspielbar" wäre, das Ding auf einer Vega 64 grundsätzlich wohl auch unspielbar ist....

Soviele von den Kommentaren gibt es überhaupt nicht mehr, dass man sich da nochmal speziell darüber beschweren müsste. Seit dem letzten Patch ist es ja wesentlich besser geworden und für meine Verhältnisse ist BFV sogar mit der 2070 auf 1080p spielbar mit RTX-ON.

Aber: Du sagst fast Gleichstand. Aber tatsächlich nur fast. Im Durchschnitt, ausser der letzten und der ersten Szene, sehen wir eher so um die 10% Differenz. Ausserdem sind beide Karten übertaktet. Bei der Vega eigentlich nur der Speicher. Bei der 2080Ti hingegen auch der core um die 10% wie mir scheint (jedenfalls im Vergleich zu dem was CB beim Test hat).

Weiterhin wird mit DX12 getestet, wo doch DX11 ohne RTX bei BFV leider der schnellere Pfad zu sein scheint.

Und, tja, wenn man 2-3x soviel zahlen muss um ein paar Reflexionen in BFV zu sehen und gleichzeitig etwas weniger Performance zu haben als bei einer 1080/Vega64? Das muss man schon selber wissen, ob sich das lohnt.

Und gerade dein Video zeigt für mich wie bedeutungslos diese Effekte im Endeffekt noch sind. (So schlecht sieht die Alternative ja nicht aus) Egal wie interessant die Technik ist. Bis jetzt hat man noch sehr wenig davon überhaupt darin zu investieren, vor Allem, wenn man nicht gerade BFV zockt. Es fragt sich wie viele Titel rauskommen, die überhaupt RTX unterstützen, bis dann die 7nm RTX chips kommen.
 
Sun-Berg schrieb:
Weiterhin wird mit DX12 getestet, wo doch DX11 ohne RTX bei BFV leider der schnellere Pfad zu sein.

Und gerade dein Video zeigt für mich wie bedeutungslos diese Effekte im Endeffekt noch sind. (So schlecht sieht die Alternative ja nicht aus)

DX11 und 12 nimmt sich von den FPS eigentlich nichts mehr.

DX 11 ist noch einen tick smoother von den Frametimes, ABER leider funktionierts nur mit Future Frame Rendering was den Input Lag erhöht.

Ja RTX auf Low und Medium ist für die Katz.
Auf Ultra sieht das schon wieder ganz anders aus. Ein paar Posts früher hab ich ein Vergleichs gif.
Die "Bildqualität" ist da definitiv auf nem neuen Niveau.
 
  • Gefällt mir
Reaktionen: Sun-Berg
Sun-Berg schrieb:
Soviele von den Kommentaren gibt es überhaupt nicht mehr, dass man sich da nochmal speziell darüber beschweren müsste. Seit dem letzten Patch ist es ja wesentlich besser geworden und für meine Verhältnisse ist BFV sogar mit der 2070 auf 1080p spielbar mit RTX-ON.

Aber: Du sagst fast Gleichstand. Aber tatsächlich nur fast. Im Durchschnitt, ausser der letzten und der ersten Szene, sehen wir eher so um die 10% Differenz. Ausserdem sind beide Karten übertaktet. Bei der Vega eigentlich nur der Speicher. Bei der 2080Ti hingegen auch der core um die 10% wie mir scheint (jedenfalls im Vergleich zu dem was CB beim Test hat).

Weiterhin wird mit DX12 getestet, wo doch DX11 ohne RTX bei BFV leider der schnellere Pfad zu sein scheint.

Und, tja, wenn man 2-3x soviel zahlen muss um ein paar Reflexionen in BFV zu sehen und gleichzeitig etwas weniger Performance zu haben als bei einer 1080/Vega64? Das muss man schon selber wissen, ob sich das lohnt.

Und gerade dein Video zeigt für mich wie bedeutungslos diese Effekte im Endeffekt noch sind. (So schlecht sieht die Alternative ja nicht aus) Egal wie interessant die Technik ist. Bis jetzt hat man noch sehr wenig davon überhaupt darin zu investieren, vor Allem, wenn man nicht gerade BFV zockt. Es fragt sich wie viele Titel rauskommen, die überhaupt RTX unterstützen, bis dann die 7nm RTX chips kommen.

Seit einer Weile habe ich Tomb Raider Shadow of... ,der versprochene Patch lässt jedoch auf sich warten und würde ich auch nicht mehr damit in diesem Jahr rechnen.

Die gezeigten Schatten sahen damals in der Demo noch weit unbedeutender aus als Spiegelungen. Wenn es wenigstens einfach wäre zu implementieren. Sieht nicht so aus.
 
Pleasedontkill schrieb:
Seit einer Weile habe ich Tomb Raider Shadow of... ,der versprochene Patch lässt jedoch auf sich warten und würde ich auch nicht mehr damit in diesem Jahr rechnen.

Die gezeigten Schatten sahen damals in der Demo noch weit unbedeutender aus als Spiegelungen. Wenn es wenigstens einfach wäre zu implementieren. Sieht nicht so aus.

Du bist auch nur am jammern, oder? :-D
 
  • Gefällt mir
Reaktionen: FCK-THIS und Pleasedontkill
@Esenel:

Ich hatte mir deine Bilder bis jetzt nicht richtig angeschaut. Und du hast Recht, auf Ultra sieht man den Unterschied zwischen ON und OFF viel besser.

edit: Also nochmal zum Video oben.

Mit RTX-Ultra (-20-30% zu Medium) und ohne OC der 20180Ti (-10%) und mit DX11 bei der Vega64, würde das Ganze schon anders aussehen. Man kann sich seine Benchmarks so zurechtlegen wie es einem passt. Also sollte man nicht zuviel darauf geben.

Schlussendlich ist die ganze Vergleicherei eh für die Katz. Wenn es anständig läuft und gut ausschaut kann man losspielen und sein Spiel geniessen. Darum geht es ja schliesslich. ;)
 
Zuletzt bearbeitet:
Esenel schrieb:
Du bist auch nur am jammern, oder? :-D

Ja eigentlich schon (ist mir auch bewusst) , wobei ich doch auch mal letztens was sehr positives fallen gelassen habe und ich finde, dann hat es doch echt Gewicht wenn es von mir kommt ;-)
....
Darf nicht zu viel erzählen wegen NDA.
Nur so viel, es handelt sich um Anthem und das bekommt von mir ein Like :daumen:
 
  • Gefällt mir
Reaktionen: Esenel
@ZeroZerp
Du bist unglaublich naive was nvidia features angeht... du glaubst anscheinend wirklich alles womit nvidia ihre Produkte bewirbt.

Anscheinend bist du noch recht unerfahren im PC bereich, sonst wüßtest du das viele Features von Nvidia nur Papiertiger sind... und das du mir unterstellst das ich mich nicht auskennen würde ist echt lächerlich.

Ich wette du weißt noch nicht mal wie 2002 die Realtime Raytracing Geschichte in der Universität Saarland überhaupt begonnen hat... bevor nvidia damals das Projekt aufgekauft hat und unterverschluss gehalten hat...

Und jetzt Ploppen bestimmt bei dir 3 Fragezeichen übern Kopf auf, weil du keinen blassen Schimmer hast wovon ich da reden.

Es ist ein schlechter witz was Nvidia aus der damaligen Entwicklung gemacht hat.
Man kann von der heutigen RTX Technologie nur gehypt sein wenn man von
der Materie wirklich null ahnung hat.

@Esenel
Irgendwas Limitiert doch immer... mal Ram, mal CPU, mal GPU... und zur Zeit gibt es doch nur Skylake refresh in der 4. Runde... da lohnt es noch nicht so wirklich aufzurüsten.

Zumal ich keine Spectre Patches auf den System habe, stehe ich CPU Performance mäßig noch relative gut da...

 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben