• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test F1 23 im Benchmark-Test: Hohe Framerate, viele Optionen und wenige Bugs

incurable schrieb:
Nee, liegt daran, dass AMD in diesem Fall nicht genug Geld auf den Tisch gelegt hat, damit dieser Vergleich zukünftig nicht mehr gezogen werden kann.
Diese Zeilen hier stellvertretend für alle Leute die eine Diskusion zwischen DLSS und FSR Qualität führen......

Mal ganz ehrlich, wer würde ernsthaft!?! erwarten, das eine Technik die mit speziellen Teilen (Tensorcores) einer GPU arbeitet nicht besser ist - als eine die auf generalisierte Einheiten (Shader) setzen muss, die eben damit nicht speziell für den einen Zweck gebaute Technik nutzen (kann)?

Die spezialisierte Variante wird - sofern der Hersteller der Software was von dem Kram versteht - immer die Nase vorn haben.
Ist das schlimm? Ich sage nein. Wer sich bewusst für eine günstigere GPU entschieden hat, muss eben sehr wahrscheinlich für das eingesparte Geld Abstriche machen..........Wo ist da eigentlich das Problem, wenn man die Konsequenzen seiner eigenen freien Entscheidung tragen muss?

Es steht allen frei, bei welchem Hersteller sie für wieviel Geld ihre GPUs kaufen (oder eben auch nicht) wollen.

Wer die max. Quali (in den Tests führt da eben so ziemlich überall DLSS) will muss, sehr wahrscheinlich zu NVIDIA greifen, ob einem der Preis passt oder nicht.....
 
  • Gefällt mir
Reaktionen: .Sentinel., Gschaftlhuaba und Legalev
w0wka schrieb:
Für Leute mit einer schwachen GPU sicher interessant. Da interessiert auch nicht ob die Version von Nvidia oder AMD besser aussieht. Man ist froh, wenn es vernünftig läuft.
Hmm? Mit einer Schwachen GPU bist du bei 1080p und auf 1080p hoch skalieren sah doch mit beiden Verfahren eh ziemlich grenzwertig aus. Wer 4k mit DLSS macht, der hat keine Schwache GPU mehr.
Ergänzung ()

Supie schrieb:
Ist das schlimm? Ich sage nein. Wer sich bewusst für eine günstigere GPU entschieden hat, muss eben sehr wahrscheinlich für das eingesparte Geld Abstriche machen..........Wo ist da eigentlich das Problem, wenn man die Konsequenzen seiner eigenen freien Entscheidung tragen muss?
Gilt umgekehrt übrigens auch, wer sich bewusst dafür entscheidet eben viel Geld für Tensor und RT Cores auszugeben, muss sich nicht wundern, wenn ein recht großer Teil der GPU ungenutzt bliebt, weil die Software die man dann benutzt gerade kein RT oder AI Upscaling verwendet, besonders dann, wenn die Verwendung im Mainstream Preisbereich ohnehin oft nur wenig bis gar keine Vorteile bringt.

Ich muss gestehen, ich finde FSR gerade deswegen interessant, weil ich dafür nicht mit Silicon bezahlen muss.
4060 mit deutlich kleinerem Chip und ohne RT/Tensor Cores und entsprechend kleinerem Preis und 4050 Benennung wäre für mich eine Attraktivere Karte.
Bei einer 4090 hingegen, da machen sich imho die RT und Tensor Cores sicher wirklich gut.
 
Zuletzt bearbeitet:
@Supie
Dieses "Abstriche machen" ist aber mitunter sehr subjektiv. Es ist klar wenn man immer in der Landschaft steht und sucht sieht man Unterschiede, aber die sind teilweise so minimal das es beim aktiven Spielen kaum bis gar nicht auffällt.

Sonst hast du schon alles gesagt, was ich auch von Anfang an dachte. Spezielle Technik = bessere Ergebnisse
Wobei beide Hersteller natürlich unterschiedliche Ausgangspositionen haben. NV kann versuchen es mit speziellen Technologien zu machen, weil sie auch die Man Power dazu haben und die Position am Markt. AMD muss (bisher zumindest) einen offenen/-ren Weg gehen, weil sie die beiden Dinge eben nicht haben und eine breitere/einfachere Unterstützung brauchen. Etwas ähnliches sieht man auch gerade bei Intel, wobei die ein bisschen den Mittelweg wählen.

Unterstützung = Ich komme mit einem Koffer voller Geld und mache dir ein unwiderstehliches Angebot. (egal welcher Hersteller)
 
.Sentinel. schrieb:
Dann dann mal raus mit den Beweisen und Fakten! Und natürlich der offiziellen Stellungnahme von NVIDIA dazu wo sie reumütig zu ihren Missetaten stehen.

die stellungnahme von nvidia gibts natürlich nicht. hier der rest:

https://www.techpowerup.com/105329/hack-released-to-enable-physx-on-windows-7-with-ati-gpu-present
techpowerup artikel über die geknackte nvidia softwaresperre um mit einer radeonkarte wieder eine gtx karte als physX karte nutzen zu können - ging vorher, ging ab treiber xy nicht mehr. ab da nur noch gpu beschleunigtes physx ohne radeon im PC - da gibts wenn überhaupt den software/cpu fallback.

hier noch der fall assassins creed dx 10.1:

https://techreport.com/news/ubisoft-comments-on-assassins-creed-dx10-1-controversy-updated/
https://www.anandtech.com/show/2536/6

anandtech schreibt:

Reading between the lines, it seems clear that NVIDIA and Ubisoft reached some sort of agreement where DirectX 10.1 support was pulled with the patch. ATI obviously can't come out and rip on Ubisoft for this decision, because they need to maintain their business relationship. We on the other hand have no such qualms. Money might not have changed hands directly, but as part of NVIDIA's "The Way It's Meant to Be Played" program, it's a safe bet that NVIDIA wasn't happy about seeing DirectX 10.1 support in the game -- particularly when that support caused ATI's hardware to significantly outperform NVIDIA's hardware in certain situations.

hier ein paper von amd/laylah mah zur GCN architektur - interessant seite 60-63
http://laylamah.com/wp/?page_id=134

1.jpg2.jpg3.jpg4.jpg

TLDR: sub pixel tessellation, also tessellation mit polygonen, die kleiner als ein pixel sind, verstopft bei GCN die render-pipeline, was zu einem extremen leistungseinbruch führt. sub pixel tessellation bringt auch optisch überhauptkeinen nutzen mehr - das ist einfach nur unnötige geometrielast.

hier ein artikel über crysis 2 - teil von nvidias TWIMTBP programm:

https://hothardware.com/news/indept...-shows-highly-questionable-tessellation-usage

hier ein hardwareluxx artikel über tressFX vs hairworks (tessellation, faktor 64 als standard) in witcher 3 vs tombraider:

https://www.hardwareluxx.de/index.p...d-tressfx-und-nvidia-hairworks-im-detail.html

nvidia schreibt über die gtx580:
Für DirectX 11 entwickelt
GeForce GTX 580 liefert massive DirextX 11 Tesselation-Leistung für extrem realistische Spiele mit verblüffend detaillierten Umgebungen und Charakteren.
https://www.nvidia.de/content/EMEAI/newsletters/nov10/DE/corporate-de-09112010.html

die strategie für nvidia ist klar: eigene gpus auf tessellation optimieren und spiele aus partnerprogrammen (gameworks und TWIMTBP) mit tessellation überschwemmen. die gameworks toolbox besteht hauptsächlich aus tessellationsbasierten effekten, bspw. hairworks.

wenn jetzt gleich der einwurf kommt "radeons konnten einfach keine tessellation" kommen jetzt direkt 2 gegenbeispiele:

https://www.pcgameshardware.de/Snip...ecials/Technikanalyse-und-Benchmarks-1127251/

hier schlägt die r9 290X sogar die titan.

und hier das erste spiel mit tessellation überhaupt und die radeons sind vorne:

https://www.tomshardware.com/reviews/aliens-vs-predator-directx-11-benchmark,2606-6.html

alle folgenden titel im gameworks oder TWIMTBP programm werden allerdings auf radeons unterdurchschnittlich laufen, wie bspw. ghost recon wildlands, batman arkham city - alle tessellationsverseucht.

das zieht sich durch wie ein roter faden.

gleichzeitig hat nvidia sich bei EPIC in die unreal engine eingekauft und das ding quasi zur hausengine gemacht. ergebnis heute ist, dass reviewer, bspw. steve von hardware unboxed, bei unreal engine spielen erst einmal grundsätzlich von einer schlechten radeon performance ausgeht, was in 9 von 10 fällen dann auch so eintritt. es gibt spiele in der unreal engine, die auf radeons auch gut laufen, aber in der regel ist unreal engine pro nvidia - wo das herkommt, kann sich ja jeder selber denken.

hier noch ne präsentation von nvidia aus 2011 zur unreal engine kooperation mit EPIC - das wort "tessellation" fällt hier das erste mal direkt in der ersten zeile der ersten liste auf seite 2.
https://www.nvidia.com/content/pdf/gdc2011/gdc2011epicnvidiacomposite.pdf

mit turing bringt nvidia aus dem nichts das thema raytracing auf den tisch und richtet ab da die eigenen gpus strikt auf raytracing aus, inkl. dedizierter hardwareeinheiten speziell für raytracing und pusht auf softwareseite rt-core/cuda beschleunigtes raytracing und AI. wo haben wir dedizierte hardwareeinheiten für eine spezielle rendertechnik schon mal gesehen? achja stimmt, bei der gtx580 mit extra einheiten für die tessellation.
 
  • Gefällt mir
Reaktionen: ThreepQuest64, surtic und .Sentinel.
.Sentinel. schrieb:
So wird es ja gerade von der AMD Fraktion im Starfield FSR/DLSS Thread gefordert, da sonst der Anschein, Vorwüfe und Indizien null und nichtig sind, wenn es nicht von offizieller Stelle eingeräumt wird.
Dort steht ja der verdacht im Raum, dass AMD mit dem Geldkoffer konkurrenztechnologien bzw. deren Implementation gezielt behindert.
WTF O.o
Jede/r mit einem bisschen Menschenverstand sollte wissen, dass es da nie eine offizielle Erklärung geben wird. Firmen geben nie zu das sie was durch die Hintere-Seitentür gemacht haben, höchstens vor Gericht.

Da kann man einfach nicht mit zweierlei Maß messen.
 
  • Gefällt mir
Reaktionen: ThreepQuest64 und .Sentinel.
Apocalypse schrieb:
Gilt umgekehrt übrigens auch, wer sich bewusst dafür entscheidet eben viel Geld für Tensor und RT Cores auszugeben, muss sich nicht wundern, wenn ein recht großer Teil der GPU ungenutzt bliebt, weil die Software die man dann benutzt gerade kein RT oder AI Upscaling verwendet, besonders dann, wenn die Verwendung im Mainstream Preisbereich ohnehin oft nur wenig bis gar keine Vorteile bringt.
Dann weiss das der halbwegs informierte Nutzer vor allem hier in den Foren, wo allent halben über diese Dinge gemotzt, diskutiert, gelästert wird, das manchmal das Silizium nicht voll genutzt wird.

Und DLSS ist ja gerade dazu das es auch im Mainstream passabel läuft......

Wie heisst es so schön: Besser haben und nicht brauchen, als brauchen und nicht haben.....
 
duskstalker schrieb:
die stellungnahme von nvidia gibts natürlich nicht. hier der rest:
Dann beruht das alles auf reiner Spekulation und Hörensagen und somit ist NVIDIA, wenn wir den anderen Thread nehmen sowieso raus.

duskstalker schrieb:
https://www.techpowerup.com/105329/hack-released-to-enable-physx-on-windows-7-with-ati-gpu-present
....- ging vorher, ging ab treiber xy nicht mehr. ab da nur noch gpu beschleunigtes physx ohne radeon im PC - da gibts wenn überhaupt den software/cpu fallback.
nvidia dazu:
"PhysX is an open software standard any company can freely develop hardware or software that supports it. NVIDIA supports GPU accelerated PhysX on NVIDIA GPUs while using NVIDIA GPUs for graphics. NVIDIA performs extensive Engineering, Development, and QA work that makes PhysX a great experience for customers. For a variety of reasons - some development expense some quality assurance and some business reasons NVIDIA will not support GPU accelerated Physx with NVIDIA GPUs while GPU rendering is happening on non- NVIDIA GPUs."
NVIDIA hat AMD oder den Software- Enwticklern also nicht verboten PhysX für deren Hardware anzupassen

duskstalker schrieb:
hier noch der fall assassins creed dx 10.1:

Klar- Hat Ubisoft entfernt, weil es Fehler gab und zudem garnicht offiziell suppportet wurde (verstecktes Feature):

Ubisoft: Die erwähnte Wiederverwendung des Z-Buffers beschleunigt das Spiel. Die Leistungssteigerung, welche in der Retailversion beobachtet werden konnte, ist jedoch nicht exakt so zu beziffern, da die Implementierung fehlerhaft war und ein Teil der Rendering-Pipeline somit nicht funktionierte. Diese Optimierung tritt nur zutage, wenn Anti-Aliasing zugeschaltet wird, ansonsten sind die Arbeitsabläufe für DirectX 10 und 10.1 gleich.

PCGH.de: Warum entfernt ihr die Unterstützung für DirectX 10.1 wieder?

Ubisoft: Weil unsere ursprüngliche Implementierung auf DirectX-10.1-Karten unglücklicherweise fehlerhaft war mussten wir sie entfernen.


duskstalker schrieb:
hier ein artikel über crysis 2 - teil von nvidias TWIMTBP programm:
...
Logo- Alles schon x- Mal durchgekaut und die Anschukdigungen "debunked".
https://www.computerbase.de/forum/t...n-der-pc-sie-denn-packt.1988479/post-25011923

duskstalker schrieb:
das zieht sich durch wie ein roter faden.
Ein roter Faden auf Spekulationen, Unterstellungen, Halbwahrheiten und sogar blankem Unsinn.

duskstalker schrieb:
gleichzeitig hat nvidia sich bei EPIC in die unreal engine eingekauft und das ding quasi zur hausengine gemacht. ergebnis heute ist, dass reviewer, bspw. steve von hardware unboxed, .... - wo das herkommt, kann sich ja jeder selber denken.
Ja- Dass AMD ihre Hardware, bevor sie sie ausliefert wohl nicht auf der Unreal- Engine testet, oder sie nicht dafür optimiert. Aber stimmt- Man hatte keine Zeit die Karten darauf zu optimieren. Gibt es sie doch erst seit 1998.

duskstalker schrieb:
mit turing bringt nvidia aus dem nichts das thema raytracing auf den tisch und richtet ab da die eigenen gpus strikt auf raytracing aus, inkl. dedizierter ... hja stimmt, bei der gtx580 mit extra einheiten für die tessellation.
Stimmt- Man stand mit der Schießpistole neben dem Entwickler und hat ihn gezwungen hohe Tesselationsfaktoren einzubauen. Natürlich hat man den Usern keine Option gelassen um diese auszustellen und natürlich hatte AMD keine Möglichkeit, die Faktoren treiberseitig auf ihre Hardware anzupassen.

Oh- Wait?

Das schöne ist, selbst wenn das alles gestimmt hätte. Ist jetzt alles legitim und von der AMD Userschaft abgesegnet, seitem solch potenzielles Verhalten von AMD in Starfield und anderen Produkten in Sachen DLSS gutgeheissen wird.

....und von den von mir geforderten Beweisen fehlt natürlich mal wieder jede Spur... und die Anschuldigungen sind von den Herstellern und Entwicklern logisch und nachvollziehbar für jeden widerlegt.

Alles Anschuldigungen, Spekulationen usw. usf, die nur dann gelten sollen, wenn es gegen den Klassenfeind geht....

Fresh-D schrieb:
WTF O.o
Jede/r mit einem bisschen Menschenverstand sollte wissen, dass es da nie eine offizielle Erklärung geben wird. Firmen geben nie zu das sie was durch die Hintere-Seitentür gemacht haben, höchstens vor Gericht.

Da kann man einfach nicht mit zweierlei Maß messen.

Genau meine Meinung. Die Firmen sollen es einfach generell im Ansatz schon unterlassen, die Spieleentwicklung in einer Richtung negativ zu beeinflussen, sollten sie es denn getan haben.
Das sollte Markenunabhängig gelten und das sollte so auch eigentlich jeder User sehen...

Es ist eine Sache eigene Technologie zu fördern und gut dastehen zu wollen, aber etwas anderes Konkurrenztechnologien per Geldzahlung oder Partnerschaft ausschließen zu wollen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso
Können wir das Thema um AMD, Nvidia, FSR, DLSS und jetzt auch noch die Vergangenheit mit PhysX bitte sein lassen? Darum geht es hier nicht wirklich, zumal das Spiel alles an Upsampling unterstützt, was es gibt. Danke :)
 
  • Gefällt mir
Reaktionen: ThreepQuest64, zazie, EmilEsel und 4 andere
  • Gefällt mir
Reaktionen: zazie, surtic und Apocalypse
troyan schrieb:
Mal eine ernsthafte Frage:
Wieso wird bei Raytracing nie die maximale Qualität verwendet, aber bei anderen Spielen - z.B. The Last of Us - dagegen schon?

The Last of Us hat kein RT 😅
 
Hab mir jetzt Mal EA play für ein Monat geholt um dieses Spiel und Jedi survivor zu spielen.
F1 2020 habe ich seeeehr viel online gezockt.

Gibt schon viel neues beim 23er. Am Anfang war ich bissi erschlagen.
Mir kommt halt trotzdem vor, die haben mehr Zeit in den in-game shop investiert, als in die Technik.... :/
Aber ist schon cool sich neue Schuhe kaufen zu können 😃 lol
 
  • Gefällt mir
Reaktionen: Volvo480
Lord B. schrieb:
In der Cockpitperspektive mit Raytracing hoch spiegeln die Flächen stärker als jemals in der Realität, das mag ich an Raytracing eben nicht, diese übertriebene Darstellung von spiegelnden Oberflächen, diese sind oft einfach "drüber".
Dann stell nicht auf hoch.
 
@feidl74 Steht nicht im Bericht, dass DLSS3 eben nicht unterstützt wird?
 
dlss lässt sich aber aktivieren, muss ja nicht das 3.0 aktiv sein. heist frame generation, nur mit dlss 3.0? wenn ja scheint es ja noch implementiert zu werden, sonst gabe es ja die function nicht.
 
feidl74 schrieb:
wenn ja scheint es ja noch implementiert zu werden, sonst gabe es ja die function nicht.
Im Artikel heißt es ja:
Die neueste Version vom Rennspiel bietet Nvidia DLSS 2, AMD FSR 2.2 und Intel XeSS – theoretisch auch DLSS 3, doch ist Frame Generation derzeit noch deaktiviert.
Einfach mal den Artikel lesen, auf den sich dieser Thread bezieht ;)
 
paganini schrieb:
Danke für den Test! Schade aber wieder keine 4090 dabei. Klar man kann sich das auch dazurechnen aber sie gehört halt (meiner Meinung nach) zu jedem Test, denn ich will das Beste von AMD im Benchmark sehen und das Beste von Nvidia
Warum sollte diese Karte explizit mit dabei sein?
Um dann eventuell einen 400er FPS- Balken im Diagramm zu sehen?
Wenn schwächere Karten das Spiel stemmen, dann sind die fast High- End- Karten in meinen Augen überflüssig.

Übrigens: dann könnte ich auch fordern, daß noch Karten 3 Generationen vorher getestet werden, da laufen bestimmt noch mehr von als 4090
 
  • Gefällt mir
Reaktionen: ThreepQuest64 und Legalev
@halbtuer2
Du hast es nicht wirklich verstanden worauf ich hinauswollte. Vielleicht besser mal alles lesen ;-)
 
Wenn du ironisch sein wolltest, dann solltest du es auch besser sein, daß hörte sich mehr nach dem an, was ich damit meinte.
Aber hey, kriegen wir uns nicht in die Köppe wegen einer Grafikkarte 😉
 
Hab mir das Spiel am WE gekauft. Das zwingt meine 4090 in die Knie, dank der Engine. Weiß jemand, wann DLSS 3 Frame Generation endlich nachgereicht wird?
 
Zuletzt bearbeitet:
Zurück
Oben