News Battlefield V auf Turing: Durch DLSS angeblich mit Raytracing so schnell wie ohne

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.630
Wenn sich die RTX 2060 auf dem Niveau der GTX 1070 Ti [teils sogar GTX 1080] einpendeln sollte, kein schlechter Deal für 350,— Euro.

400,— Euro fände ich schon wieder zu viel, denn selbst ein RX VEGA 56 [z.B. Sapphire Pulse RX VEGA 56 für 389,— Euro] bekommt man mit UV+OC auf das Niveau einer RX VEGA 64 [und somit GTX 1080.]

Natürlich ist eine RTX 2060 viel effizienter, aber mehr als 350,— Euro halte ich dennoch nicht für angemessen.

Hinzu kommt, wenn da nicht die 3, 4 und 6GB VRAM wären.

Liebe Grüße
Sven
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: zhompster, Neo772™, InvalidTexture und 4 andere
Ich weiß ja nicht... DLSS finde ich eigentlich ganz gut, aber so spontan würde ich mal vermuten, dass ~1800p zu 4k hochgerechnet wesentlich besser/unauffälliger skalieren, als 720-900p zu 1080p.

Irgendwann lassen sich fehlende Bildinformationen schlicht nicht mehr wegretuschieren.

Tests werden genaueres zeigen, aber ich bin zunehmend skeptisch.

PS.: Könnte @CB eigentlich mal einen umfangreicheren Test zu DLSS und den Alternativen machen?
Also mal 4k DLSS mit 1800p vergleichen? Und dazu noch 4k mir 90% Scaling in den Ingame Options.

Würde ja gerne mal sehen, ob Nvidia da wirklich ein großer Wurf gelungen ist oder die Marketing Abteilung nur kreativ war.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DerMuuux, Qualla, zhompster und 12 andere
  • Gefällt mir
Reaktionen: itdummy, Sebbi, bertlinger und eine weitere Person
Bin nicht so überzeugt davon, Auflösungen "heimlich" zu verringern und dann zu versuchen, diese mit KI-DeepLearning-Hokuspokus hochzuschummeln.

Es ist gar nicht lange her, da hat man versucht, intern höher aufzulösen und das dann runterzuskalieren - brachte einen tollen Qualitätsschub mit sich und nannte sich, glaube ich, Supersampling.... wirkte jedenfalls ehrlicher als DLSS...
 
  • Gefällt mir
Reaktionen: MeisterOek, fullnewb, zhompster und 19 andere
Wenn die 2060 wirklich so performt wie die 1080 und 350€ kostet, dann erschliessst sich für mich der Sinn einer wesentlich teureren 2070 nicht mehr wirklich. Darüber wird dann erst die 2080 wieder intrressant.

Ich bin auf erste Tests mit BFV RTX und DLSS @ 1080p gespannt. Viel wichtiger wäre allerdings, wenn endlich auch noch andere Spiele das Zeug unterstützen. Bis dahin bleibt es eine Techdemo und kein Kaufgrund.
 
  • Gefällt mir
Reaktionen: schkai, qappVI, xsodonx und eine weitere Person
Alleine die nicht deterministische Herangehensweise von DLSS macht mir das Feature unsympathisch. Probieren, Vergleichen und Herumfummeln für jeden einzelnen Titel unter Berücksichtigung von Treiberversionen und Patchlevel bevor angefangen werden kann zu spielen ist eine Tätigkeit, die mir einfach kein Spass macht.
 
  • Gefällt mir
Reaktionen: zhompster, simosh, yummycandy und 8 andere
Mit einer 2060 für 350$ gibt es dann die 2050ti für 300$ und die 2050 für 250$?
Und alles darunter überlässt man AMD?
 
  • Gefällt mir
Reaktionen: simosh, qappVI und SVΞN
In FHD ohne Raytracing ~90FPS
Mit DLSS und Raytracing ~88FPS
Berechnen die das Bild für DLSS jetzt schon in 720p um das dann auf FHD zu skalieren???
 
  • Gefällt mir
Reaktionen: simosh
Langsam werde ich echt sauer. Das Spiel hat Tonnen von anderen Bugs und Problemen die erstmal behoben werden sollte. Dice get your shit done und zwar das wirklich wichtige.
 
  • Gefällt mir
Reaktionen: paccoderpster, Darkblade08, Kalsarikännit und 10 andere
@Tobias123 Stimme da vollkommen zu.

Dies ist auch (einer der ü+e) Grund für mich nahezu immer eine nicht ganz offizielle Version vorzuhalten.
GTAIV hat sich bspw. regelmäßig selbst zerbombt wenn es ein Update gab'. Die nicht offizielle .exe interessiert das 0. Seinerzeit hatte ich auch mit bf3 die Erfahrung gemacht, dass Origins/EAs Matchmaking derart krüppelig war, dass nur ein "Workaround" ohne Battlelog (Menü console ingame "connect IP") mich das Game noch hat spielen lassen.

Ja und ja, ich nutze zu 95% nicht offizielle Gameversionen, habe die offizielle aber dennoch. Die anderen 5 sind "Demos" die es so nicht gibt, mich aber in der Kaufentscheidung stark unterstützen.
Diverse Spiele sind aus einigen imaginären Wunschlisten rausgeflogen obwohl sie mich schon stark interessierten. Am Beispiel ist TestDriveUnlimited2 zu nennen.
Selbst nach Windows(neu-)installationen muss nahezu immer nur "redist" neu installiert werden und die inoffizielle Variante geht - die offzielle findet trotz korrekter Pfadangabe seine 140GB (BF3) nicht mehr und läd die erneut herunter, witzigerweise ebenfalls langsamer als zippy/mega/gdrive oder andere noch dunklere Vertreter.

Solange grau weißer ist als weiß bleibe ich bei grau. Konsequent geht sicher anders, aber naja.
 
  • Gefällt mir
Reaktionen: Tobias123 und Pleasedontkill
cunhell schrieb:

das glaube ich nicht. Ich hab auch Interviews mit den Grafikengine-Entwicklern von Battlefield gesehen. Die Entwickler können sich doch nicht so reinlegen lassen. Sie haben bisher für das Denoising bei RTX Compute Shader statt der eigentlich dafür vorgesehenen Tensor Cores genutzt. Dass die aber jetzt dauerhaft beim Denoising unberücksichtigt bleiben, macht Sinn, da sie nun künftig für DLSS genutzt werden. Für mich klingt das so, als sei DLSS schon von Anfang an geplant gewesen.

Und warum könnte es nicht auch sein, dass auch RT Cores schon in der Titan V enthalten waren und nur nicht genannt wurden? ;) Tensor Cores hatte sie ja auch schon. Eventuell wollte Nvidia noch etwas warten, bevor sie die große Revolution des Hybrid-Renderings verkündeten. Selbst jetzt gibt es mit Battefield V lediglich einen einzigen Titel mit DXR.
 
Zuletzt bearbeitet: (typo)
  • Gefällt mir
Reaktionen: domian
Tobias123 schrieb:
Probieren, Vergleichen und Herumfummeln für jeden einzelnen Titel unter Berücksichtigung von Treiberversionen und Patchlevel bevor angefangen werden kann zu spielen ist eine Tätigkeit, die mir einfach kein Spass macht.
Das machst ja auch du nicht. Und mittelfristig wird ein allgemein funktionierendes Neuronales Netz eingesetzt werden, dass immer funktioniert.

Marflowah schrieb:
Bin nicht so überzeugt davon, Auflösungen "heimlich" zu verringern und dann zu versuchen, diese mit KI-DeepLearning-Hokuspokus hochzuschummeln.
Das ist als würdest du dich beschweren, dass LODs eingesetzt werden, prebaked scenes eingesetzt oder Polygonzahl bei Hauptcharakteren höher ist als bei unwichtigen NPCs. Es wird sowieso schon ohne Ende Hokus Pokus betrieben. Am Ende geht es nur darum, zu vermeiden, dass es jemand bemerkt. Das war in der ersten Generation von neuen Techniken noch nie perfekt. Warte 5 Jahre und es ist Standard und niemand redet mehr darüber. Dafür haben wir dann alle 8K.
 
  • Gefällt mir
Reaktionen: Mort626, psYcho-edgE und Luzifer71
Marflowah schrieb:
wirkte jedenfalls ehrlicher als DLSS...
Downsampling, Supersampling, Upscaling, etc. gibt es schon sehr lange. Antialiasing ist im Grunde auch ähnlich. Was DLSS anders macht ist, was über einen Supercomputer läuft und der Algorythmus, der daraus erstellt wird. DLSS wird leider falsch vermarktet. Das Problem ist, dass man das Bild hier als 4k verkauft, welches halt "nur" in WQHD berechnet wurde. Hätte man DLSS als Kantenglättung für WQHD verkauft, die nicht so extrem viel Leistung zieht (, wie z.B. Supersampling) und ein sehr gutes Bild unter WQHD-Auflösung auf 4k-Monitoren erzeugt, wäre das komplett anders augenommen worden.
 
  • Gefällt mir
Reaktionen: CLK, HageBen, USB-Kabeljau und eine weitere Person
Sun-Berg schrieb:
Wenn die 2060 wirklich so performt wie die 1080 und 350€ kostet, dann erschliessst sich für mich der Sinn einer wesentlich teureren 2070 nicht mehr wirklich. Darüber wird dann erst die 2080 wieder intrressant.

Derzeit sieht es so aus dass die 2060 auf dem Niveau einer 1070/1070Ti liegt. Nur in eher seltenen Ausreißern kommt sie in den Bereich einer 1080. DasMonty hat dazu gestern ein Video gemacht, dort sind auch Benchmarks zu sehen.


Persönlich würde ich derzeit warten, die NAVIs stehen auch noch vor der Tür und was man da lesen kann ist schon heftig. Ob die Voraussagen stimmen ist natürlich fraglich. Aber wenn die Gerüchte stimmen, soll der NAVI 10, Radeon RX3080, mit 8GB GDDR6 und 150 Watt TDP bis zu 15% Mehrleistung zur Vega 64 bringen. Und das Ganze für 250 Dollar. Den Preis halte ich für unrealistisch, wobei man aber bedenken muss dass AMD kein Raytracing bietet mit dem Chip. Wobei derzeit Raytracing aber auch eher ein Nischenprodukt bleiben wird, bei der Leistung die das verbrät.

 
  • Gefällt mir
Reaktionen: Sun-Berg
Anstatt diesem müll sollten sie einfach endlich GPU's auf den Markt bringen die 4k@60FPS Rendern können und nicht etwas "entwickeln" das es "simuliert aber doch nicht ganz so gut aussieht"
 
  • Gefällt mir
Reaktionen: MeisterOek, Mr_Funkyman, olligo und 5 andere
Zurück
Oben