Test Battlefield V mit DXR im Test: Die Strahlen sind los

Für mich bestätigt sich das Raytracing dieser Generation als Marketing-Gag und Argument zur Abzocke.

Raytracing schön und gut, dass diese Technik für Licht- und Reflexionsberechnung überlegen ist, das ist bekannt.

Aber nach wie vor ist die Rohleistung viel zu gering, um dies bei hohen Frameraten ohne massive Einbrüche einsetzen zu können.

Insgesamt zu sehen, was die Aufgerufenen Preise für eine Frechheit sind; aber bei dieser Markstellung kein Wunder.
Intel hat sich ja jahrelang bei CPUs ähnlich verhalten, wenn auch mehr mit Schwerpunkt auf Stillstand.
 
  • Gefällt mir
Reaktionen: MX04HD
In einer Zeit in der wir von 4K Gaming sprechen, wer braucht da noch groß Kantenglättung?

greetz
hroessler
 
maxpayne80 schrieb:
Aber nach wie vor ist die Rohleistung viel zu gering, um dies bei hohen Frameraten ohne massive Einbrüche einsetzen zu können.
Das ist doch schlicht nicht wahr. Mit einer TI sind selbst in 4K ausreichende FPS möglich, um Spiele, die keine FPS Shooter sind, dahingehend zu zocken. In FHD oder QHD sowieso. Bis vor einem halben Jahr war zocken in 4k auch ohne DRX in in vielen Games nicht wirklich möglich, die Leistung dafür hat an sich erst die 2080 TI mitgebracht, mit abstrichen die 1080 TI.

Ich verstehe die Logik hinter solchen Aussagen schlicht nicht, denn das 4k Gaming in Ultra Settings nicht hohe FPS erreicht hat, war auch vor DRX schon so und es ist ja nicht so, dass man BV5 ohne spielen könnte und dann selbst in 4k massig FPS hat.

hroessler schrieb:
In einer Zeit in der wir von 4K Gaming sprechen, wer braucht da noch groß Kantenglättung?

Noch so eine in ihrer Pauschalität so unsinnige Aussage. Kantenglättung ist nicht allein von der Pixelanzahl abhängig sondern von der Pixelanzahl relativ zur Größe des Displays, sprich DPI. Und mit einem entsprechennd großen Display ist Kantenglättung auch in 4k noch ein aktuelles Thema...
 
Ich würde mal sagen da hat Nvidia zuwenig RT Cores verbaut oder die RT Cores sind einfach zu schwach ! Die Performance einbrüche sind einfach zu extrem, so das RT sich lohnen würde.
 
anexX schrieb:
Wie verhält sich das eigentlich im NV-Link mit RT ? Werden da die RT Cores beider Karten genutzt ? Davon würde ich mal gern nen Test mit RT ON sehen.

Wenn Wolfgang mal Langeweile hat könnte er ja mal zwei 2080ti's connecten und mal schauen was rum kommt.

Soweit ich weiß, gibt es in BF V noch keinen SLI Support.

Edit:
Wenn das hier stimmt, scheint das auch für DX12 (somit auch RT) nicht zu kommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: anexX
denke es kommt massiv drauf an was und wie ich DXR in Zukunft einsetze. Über die Spiegelungen in BF eher uninteressant. Da mir aber in genug Titeln wie ACO, Witcher usw ~30-40 FPS ausreichen gehe ich von aus dass man da sehr sehr geile Sachen mit anstellen könnte. Oder eben auch eher minimalistisch wie "Portal".
Ergänzung ()

IronAngel schrieb:
Ich würde mal sagen da hat Nvidia zuwenig RT Cores verbaut oder die RT Cores sind einfach zu schwach ! Die Performance einbrüche sind einfach zu extrem, so das RT sich lohnen würde.

aha, und wie will man mehr Leistung reinpumpen. Nvidia spendiert deinem genannten schon gut 30 und mehr % der Die.
Die Performance ist absolut gut und da wo man sie bei RT maximal erwarten konnte. In 4K würde ich sogar sagen besser als gedacht.
 
  • Gefällt mir
Reaktionen: pietcux
Mustis schrieb:
Das ist doch schlicht nicht wahr. Mit einer TI sind selbst in 4K ausreichende FPS möglich, um Spiele, die keine FPS Shooter sind, dahingehend zu zocken.

Ok, hast du für diese Aussage auch einen Test und ein Spiel (Singleplayer) der das belegt das man nicht nur mit 20 oder 25 FPS rumgurkt? :confused_alt:
 
matraj63 schrieb:
Soweit ich weiß, gibt es in BF V noch keinen SLI Support.

Edit:
Wenn das hier stimmt, scheint das auch für DX12 (somit auch RT) nicht zu kommen.

SLI funktioniert auch mit DX12 und RT.
Man arbeitet derzeit daran und soll zu einem späteren Datum kommen.

Aber ja mGPU wird es für DX12 nie geben( unabhängig von SLI ), auch wenn es theoretisch möglich ist.
Das zu implementieren ist viel zu aufwändig.
 
ZeroZerp schrieb:
Jetzt gibt es also die neue Generation mit RTX und eine verbilligte Generation ohne RTX. Also genau das was Du forderst.
Nein, das stimmt so nicht. Ich schrieb nicht umsonst
Capthowdy schrieb:
Hätte nVidia die neuen Karten mit und ohne RTX im Angebot

Um mal beim 4K Beispiel zu bleiben: nachdem 4K TVs auf dem Markt waren, gab es trotzdem noch neue FHD TVs und nicht nur den alten Kram zu besseren Preisen. Ich fordere also die Leistung einer 2080 Ti ohne die neuen Features zu besseren Preisen. Genau das liefert nVidia nicht und genau deswegen braucht sich niemand über den Shitstorm zu wundern. Die Leute sollen etwas bezahlen das sie (noch) nicht haben wollen und wenn man sich weigert, bekommt man die (ohnehin mageren) 30% Leistungsplus eben auch nicht. Wo ist da jetzt die Auswahl frage ich dich? Sofern ich die schnellste Karte haben will, habe ich keine. Eine GTX 2080 Ti für ~800-1000€ hätte sicherlich einen ordentlichen Absatz, nämlich von allen die nicht bereit sind für (momentan) nutzlose Features 300-500€ extra zu zahlen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LordLaden
gerzerk schrieb:
Das glaubst Du doch nicht ernsthaft. Preise werden noch immer von den Händlern gemacht und die verlangen ihr Geld pro Leistung. Weshalb sollte also eine 2070 günstiger zu haben sein, als eine gleich schnelle 1080, RT hin oder her
So was liest sich einfach nur grotesk. Wenn alle so verkehrt denken würden, wie du es hier tust, hätten wir Grafikkartenpreise in der Grössenordnung von Einfamilienhäusern. Mir ist durchaus bewusst, dass die Händler einen grossen Einfluss auf den Endpreis haben, dennoch ist es Nvidias Schuld, weil sie die Absurden UVP erst eingeführt haben.

Die neue Midrange Karte, welche die alte High End Karte ablöst muss günstiger sein als die eben erwähnte High End Karte. Wie sollte es anders sein?
 
OZZHI schrieb:
So was liest sich einfach nur grotesk. Wenn alle so verkehrt denken würden, wie du es hier tust, hätten wir Grafikkartenpreise in der Grössenordnung von Einfamilienhäusern. Mir ist durchaus bewusst, dass die Händler einen grossen Einfluss auf den Endpreis haben, dennoch ist es Nvidias Schuld, weil sie die Absurden UVP erst eingeführt haben.

Die neue Midrange Karte, welche die alte High End Karte ablöst muss günstiger sein als die eben erwähnte High End Karte. Wie sollte es anders sein?
Das ist eben genau der Irrglaube. Was wir in der IT die letzten jahre erleben durften war eher Grotesk und widerspricht eigentlich den gängigen Marktmechanismen.

Schneller, Sparsamer, kleiner und günstiger. Das war ein Zyklus, den wir kurzzeitig erleben durften, weil die Zusatzleistung mit relativ wenig Mitteln und ohne große Innovation einhergehen konnte.

Aus physikalische gründen klappt das nicht mehr. Und somit nimmt es jetzt einen eher den anderen Verlauf.
Mehr Leistung=unverhältnismäßig zu betreibender Aufwand=teurer.

Gewöhnt Euch dran...

Einfaches Beispiel: Man konnte lange Zeit die Shaderzahl einfach verdoppeln.
Von 100 auf 200, von 200 auf 400 etc.
Dazu noch 50% mehr Takt, weil schon immer der bessere Fertigungsprozess zur Verfügung stand.

Bring jetzt mal ne Karte mit 8000 Shadern raus, die sauber arbeitet und keine Bandbreitenengpässe bekommt und mit 3,5GHz läuft und jetzt stell Dir mal vor, wer das bezahlen soll nebst dessen, dass die Anzahl der Cores immer mieser nach oben skaliert....
 
Zuletzt bearbeitet:
@Häschen
Danke, SLI für DX12 kommt also noch und mGPU hatte ich fälschlicherweise mit SLI gleichgesetzt...wieder etwas schlauer.
 
Capthowdy schrieb:
Ich fordere also die Leistung einer 2080 Ti ohne die neuen Features zu besseren Preisen. Genau das liefert nVidia nicht und genau deswegen braucht sich niemand über den Shitstorm zu wundern

Vielleicht wäre es eine Lösung gewesen eine separate RT Karte, also eine die ausschließlich die RT Effekte berechnet, auf den Markt zu bringen - sofern sowas per NVLink überhaupt möglich ist, so tief stecke ich in der Technik nicht drin.
Aber bei den ollen Voodoo Karten hat es ja auch funktioniert.
 
  • Gefällt mir
Reaktionen: Capthowdy
cookie_dent schrieb:
Vielleicht wäre es eine Lösung gewesen eine separate RT Karte, also eine die ausschließlich die RT Effekte berechnet, auf den Markt zu bringen - sofern sowas per NVLink überhaupt möglich ist, so tief stecke ich in der Technik nicht drin.
Aber bei den ollen Voodoo Karten hat es ja auch funktioniert.
Schöner Gedanke, geht aber nicht, weil die Cores alle voneinander und vor allem vom schnellen Datentransfer unter den Funktionseinheiten abhängig sind. Deshalb hat nVidia die gesamte Speicherachtiektur umgekrempelt.

Die Information kann man nicht einfach über den PCIe Bus schicken.

Die alten reinen 3D Beschleuniger waren vollständige Grafikkarten, deren Signal über einen zweifach Aus/Eingang durchgeschleift wurde....

Grüße
Zero
 
Könnte man nicht einfach eine Bridge entwickeln, die die Datenübertragung entsprechend schnell ermöglicht? Zumindest fände ich das Konzept deutlich interessanter, da man so wohl deutlich mehr Cores verbauen und eine deutlich bessere RT Leistung erreichen könnte.
 
Capthowdy schrieb:
Könnte man nicht einfach eine Bridge entwickeln, die die Datenübertragung entsprechend schnell ermöglicht? Zumindest fände ich das Konzept deutlich interessanter, da man so wohl deutlich mehr Cores verbauen und eine deutlich bessere RT Leistung erreichen könnte.
Gute Frage, aber wenn ich bedenke, dass die 2080er Karten 600Gigabyte die Sekunde in der Gegend Hin- und Hertransferieren stelle ich mir das als eine teure Angelegenheit vor ein störunanfälliges Interface zu entwickeln, was auf längere Strecken solche Datenmengen transferiert.

Unmöglich sicherlich nicht. Aufwändig und sehr teuer (was den ganzen Plan ja dann wieder platzen lassen könnte) schon...

Die fest verdrahteten RT Einheiten sind relativ dumm. Die schiessen wirklich nur die Strahlen auf die Szenengeometrie. Im Anschluss wird ein Shader getriggert in dem hinterlegt wird, was passiert ist.
Hat der Strahl was getroffen oder ist er ins Leere gegangen. Danach durchlaufen die Shader für den Ray eine Hit- oder eine Miss- Routine die entscheidet, wie es weitergeht.

Da findet also Dauergequatsche zwischen den Einheiten statt. Diese örtlich/räumlich zu trennen geht zwangsweise mit heftigen Latenzen einher, was die Leistung in den Keller sinken liesse....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Capthowdy
hroessler schrieb:
In einer Zeit in der wir von 4K Gaming sprechen, wer braucht da noch groß Kantenglättung?

Nun, wenn du den letzten schäbigen Rest samt flimmern endgültig loswerden willst, muss das sein. :D

Stand jetzt müssten dann die Quadro Modelle zum Gaming mit DXR besser geeignet sein, das sie mehr Recheneinheiten dafür haben oder nicht?
 
maxpayne80 schrieb:
Für mich bestätigt sich das Raytracing dieser Generation als Marketing-Gag und Argument zur Abzocke.

Die Pfützen und Spiegelungen darin sahen in Mafia III nicht soo viel schlechter aus. Ganz ohne unverschämten 1300€ Aufpreis für Krüppel-Hardware die nicht mal derzeit aktuelle Titel (mit den beworbenen Features) halbwegs performant wiedergeben können.

Für mich sind die 2080 Karten reine Beutelschneiderei für Leute die Geld nicht selbst verdienen müssen, oder bereits zuviel davon haben.
So wie jetzt ist Gebrauchswert nahe 0, spätestens beim nächsten Grafikkracher mit RT brauchst Du dann wieder ne neue Karte, die auch kann was sie soll.
 
ZeroZerp schrieb:
Gute Frage, aber wenn ich bedenke, dass die 2080er Karten 600Gigabyte die Sekunde in der Gegend Hin- und Hertransferieren stelle ich mir das als eine teure Angelegenheit vor ein störunanfälliges Interface zu entwickeln, was auf längere Strecken solche Datenmengen transferiert.

Ok, Danke für die Erläuterung, das ist dann selbst für NVLink zuviel. Da ist glaub ich bei 25 GB/Sek. Schicht im Schacht.
 
Zurück
Oben