News Battlefield V auf Turing: Durch DLSS angeblich mit Raytracing so schnell wie ohne

Das was hier angegeben wird ist nichts anderes als checkerboarding
Kleinere auflösung hochskallieren ohne zu interpolieren
Könnte man auch als Super sampling bezeichnen nur ohne das bild vorher höher berechnet wird
Das Deep learning ist mehr marketing als wahrheit
Der Ursprung ist das denoising was wirklich mit deep learning verwendet wird
Also DLSS nur mit RT
daher machte s bei einer kleinenren gpu als der rtx2080 kein Sinn
Siehe performance verlust in 4k
 
Muss man für Dlss ein dauerhafte internetverbindung zu den Grünen haben ?
 
  • Gefällt mir
Reaktionen: Coeckchen und Odessit
In den letzten Jahren erlebten wir zwar eine stetige Erhöhung an fps um und bei 50% bei jeder neuen Generation, aber technologisch "Neues" gab es nicht. Raytracing und DLSS ist zumindest mal eine neue, spannende Facette. Die 2000er NVidia GPU Käufer sind an der Stelle auch early adopter und finanzieren diese Ecntwicklung mit, ob nun gewollt oder ungewollt. Ich bin sehr gespannt, in welcher Form AMD hier (re)agieren wird.
 
  • Gefällt mir
Reaktionen: Odessit, Kaleo Meow und Luzifer71
Creeed schrieb:
DasMonty hat dazu gestern ein Video gemacht, dort sind auch Benchmarks zu sehen.

oh man, was für eine Clickbait-Mist. Sorry, aber der nimmt einfach den Artikel von Videocardz und verwurstet daraus sein Video mit mindestens 10 Minuten blabla, um entsprechend viel Werbung schalten zu können. Unterirdisch.

Da hättest du hier bei Computerbase auch einfach auf die "Quelle:" klicken können. Die hat "DasMonty" übrigens nicht mal verlinkt unter seinem Video.
 
  • Gefällt mir
Reaktionen: MeisterOek, zhompster, paulemannsen und 13 andere
Dai6oro schrieb:
Langsam werde ich echt sauer. Das Spiel hat Tonnen von anderen Bugs und Problemen die erstmal behoben werden sollte. Dice get your shit done und zwar das wirklich wichtige.

Z.B.?
Ich spiele zugegebenerweise erst ~50h, aber wirkliche Bugs sind mir bis jetzt noch nicht über den Weg gelaufen.
Und das ist nur eine schwammige Aussage, weil ich keine Absolutismen verwenden will.
De facto fällt mir aber gar keiner ein.
 
  • Gefällt mir
Reaktionen: Mort626, GERmaximus, Neo772™ und eine weitere Person
Wenn sie DLSS jetzt auch für 1080p bringen, erwarte ich aber auch, dass sie den Algorithmus für 1440p User fit machen, denn 1440p war nach 4K wenn überhaupt eine zusätzliche Option.
Ergänzung ()

Bulletchief schrieb:
Z.B.?
Ich spiele zugegebenerweise erst ~50h, aber wirkliche Bugs sind mir bis jetzt noch nicht über den Weg gelaufen.
Und das ist nur eine schwammige Aussage, weil ich keine Absolutismen verwenden will.
De facto fällt mir aber gar keiner ein.

Alleine die Bugs, wenn man versucht mit Space über ein Hindernis zu klettern und er dann einfach verbuggt den Vorgang abbricht und mehrere Anläufe dafür benötigt. Der Netcode ist auch komplett für die Tonne. Gibt noch wesentlich mehr Probleme...
 
Das ist mal echter Humor. 1080p dank skaliertem 640*480 jetzt fast so schnell wie 1080p. Und bitte nur die Reflexionen ansehen! Im restlichen Bild gibt es nichts zusehen! Da gibt es keinen Qualitätsverlust! Ehrlich, KI und so!

2020 kommt übrigens Turing 2 mit patentierter 24K@1000Hz Vollshitdeluxe Interpolation.
 
  • Gefällt mir
Reaktionen: baizer, zhompster, paulemannsen und 14 andere
Wenn ich das alles so lese stellt sich mir die Frage ob nvidias Architektur (Maxwell, Pascal, Turing sind ja nicht die gigantischen Unterschiede) eigentlich am Ende ist und durch Raytracing einfach ein neues Feature drangeflanscht wurde und das Deep Learning usw das ganze kompensieren soll.
 
  • Gefällt mir
Reaktionen: GERmaximus und Odessit
Laphonso schrieb:
In den letzten Jahren erlebten wir zwar eine stetige Erhöhung an fps um und bei 50% bei jeder neuen Generation, aber technologisch "Neues" gab es nicht. Raytracing und DLSS ist zumindest mal eine neue, spannende Facette. Die 2000er NVidia GPU Käufer sind an der Stelle auch early adopter und finanzieren diese Ecntwicklung mit, ob nun gewollt oder ungewollt. Ich bin sehr gespannt, in welcher Form AMD hier (re)agieren wird.

Kann man auch anders sehen. Innovation entsteht nicht durch Monopol und Intel Nvidia hatten jetzt lange ein Quasimonopol was Spielen angeht. Wer dennoch dem Monopolisten Geld in den Rachen wirft wird wie bisher die Innovation verhindern und keinesfalls finanzieren. Gut, was will der Nutzer sonst kaufen, verständlich warum bisher viel zu Intel und Nvidia gegriffen wurde.
Das Problem ist nur, dass anstatt Innovation viel Marketing gemacht wird bei einem Monopol. Intel hat bezüglich der Sicherheitsprobleme erstmal das Marketing hochgefahren und nicht die Fehler schnell behoben! Bei Nvidia könnte es sein, dass das Raytracing mit RT und 2XXX Karten Marketing ist anstatt Innovation.
 
Ich möchte mal in den Raum stellen, dass es keinen KI Algorithmus von NVIDIA gibt. Es ist eine simple (state of the art) Interpolation. Das ist halt gerade Hip aber warum hinterfragt diese Aussage eigentlich keiner? Ist noch keinen Journalisten aufgefallen, wie Mau die Papers auf dem Gebiet aussehen bzw dass das erst in den Kinderschuhen steckt. Z.b. Deep Learning für physikalische Simulationen wie Wasser. Aber "Deep Learning" ist kein "KI". Und "Deep Learning" ist das, was NVidiA maximal benutzt.
 
  • Gefällt mir
Reaktionen: baizer, Mort626, zhompster und 10 andere
How to Kill Battlefield:

Man implementiere proprietäre nVidia Kacke und vernachlässige das zügige beheben (der Witz war gut) von Problemen des Spiels.

Just nVidia, DICE and EA bullshit things.
 
  • Gefällt mir
Reaktionen: paulemannsen, Odessit, John Reese und eine weitere Person
Poney schrieb:
Kann man auch anders sehen. Innovation entsteht nicht durch Monopol und Intel Nvidia hatten jetzt lange ein Quasimonopol was Spielen angeht. Wer dennoch dem Monopolisten Geld in den Rachen wirft wird wie bisher die Innovation verhindern und keinesfalls finanzieren. Gut, was will der Nutzer sonst kaufen, verständlich warum bisher viel zu Intel und Nvidia gegriffen wurde.
Das Problem ist nur, dass anstatt Innovation viel Marketing gemacht wird bei einem Monopol. Intel hat bezüglich der Sicherheitsprobleme erstmal das Marketing hochgefahren und nicht die Fehler schnell behoben! Bei Nvidia könnte es sein, dass das Raytracing mit RT und 2XXX Karten Marketing ist anstatt Innovation.
Also ich kann BF V mit Raytracing spielen, das ist kein Marketing sondern ein reelles Feature.

Das Problem ist eher, dass AMD seit 2012 (?) keine Top End GPU mehr stellt und dadurch auch NVIdias Gysnc so platziert werden konnte, weil alle Nvidia GPU Käufer diese Technik mitgekauft haben, und damit war die Monitorauswahl direkt mal forciert.

Das Quasimonopol ist also entstanden, weil die besten und schnellsten GPUs seit 5 Jahren von Nvidia kommen.
Einige vergessen gerne die Kausalitätskette.

Es wäre schön, wenn AMD wie im Ryzenbeispiel auch im GPU Markt direkt mal Nvidia umgrätscht wie sie es mit Intel gemacht haben bei den CPUs.
Aber dazu müssen sie dann auch mal an der 2080TI vorbei oder eine 2080 Leistunung bringen, die deutlich unter dem Preis von Team Green liegt. Denn die 2080 hat on top nämlich die Turing Features als selling point.

Monopole entstehen also auch, wenn die Konkurrenz in bestimmten Segmenten einfach nicht abliefert und kein Angebot (!) stellt.
 
  • Gefällt mir
Reaktionen: Lübke82, xamoel, t3chn0 und 3 andere
Dai6oro schrieb:
Langsam werde ich echt sauer. Das Spiel hat Tonnen von anderen Bugs und Problemen die erstmal behoben werden sollte.

Harsiesis schrieb:
How to Kill Battlefield:

Man implementiere proprietäre nVidia Kacke und vernachlässige das zügige beheben (der Witz war gut) von Problemen des Spiels.

habt ihr schon mal daran gedacht, dass ein Entwickler der Grafikengine nicht der richtige Mann, für die Behebung von Bugs oder dem Netcode ist? Genauso wenig, wie derjenige, der dafür der richtige Mann ist, sich wohl mit der Grafikengine so im Detail beschäftigt.
 
  • Gefällt mir
Reaktionen: Mort626, derSafran, Lübke82 und 2 andere
160 Watt sind mir persönlich zu viel für eine Mittelklasse Grafikkarte. Es soll Leute geben die ihre Stromrechnung selber zahlen müssen.
 
DLSS klingt schon klasse, voll so mit "Deep Learning" und "Super" ist es auch noch, keine Rede von Upscaling. :heilig:
 
  • Gefällt mir
Reaktionen: paulemannsen, cbmik und Recharging
Redirion schrieb:
oh man, was für eine Clickbait-Mist. Sorry, aber der nimmt einfach den Artikel von Videocardz und verwurstet daraus sein Video mit mindestens 10 Minuten blabla, um entsprechend viel Werbung schalten zu können. Unterirdisch.

Da hättest du hier bei Computerbase auch einfach auf die "Quelle:" klicken können. Die hat "DasMonty" übrigens nicht mal verlinkt unter seinem Video.

Muss dir ja nicht gefallen, aber viele wollen Videos statt lesen. Eine Krankheit der Moderne.
 
  • Gefällt mir
Reaktionen: paulemannsen
Wieso verlinkt ihr "In Final Fantasy XV hat DLSS einen mittelmäßigen Eindruck hinterlassen" mit ner Notiz zu ner Grafikkarte, wo überhaupt nichts dazu steht? Wieder auf Klicks aus?
 
Redirion schrieb:
habt ihr schon mal daran gedacht, dass ein Entwickler der Grafikengine nicht der richtige Mann, für die Behebung von Bugs oder dem Netcode ist?

Ach nein? Die Probleme liegen doch in der Frostbyte Engine! Und die Frostbyte Engine ist nun mal die Grafikengine.

Aber anstatt zuerst die Fehler zu beheben bastelt man Zeugs rein das A: nicht richtig funktioniert B: den wenigsten etwas bringt und C: Sicher noch mehr Fehler hervor rufen wird.
 
Zurück
Oben