Test Gaming-Grafikkarten 2024 im Test: GeForce-, Radeon- & Arc-Benchmarks im neuen Testparcours

Kothie schrieb:
Ich bewundere deine Objektivität, sachlichen Argumente und deine korrekte Einstellung:D
Der Marktanteil von Nvidia bei Gaming-Grafikkarten liegt heute bei ca. 85%... Das wahre Kräfteverhältnis zwischen Nvidia und AMD (Gaming-Performance, Features) sehe ich aktuell bei ca. 60/40. Im Jahr 2020 hätte ich sogar 55/45 gesagt. Meine persönliche Einschätzung ist unter objektiven Gesichtspunkten äußerst realistisch. Also warum glaubst du ist die Realität derart verzerrt? An der Vernunft des Menschen kann das jedenfalls nicht liegen. Im Jahr 2010 lagen die Marktanteile übrigens noch bei ca. 50/50... Die Welt hat sich also auch in Bezug auf Grafikkartenverkäufe (auch wenn es erst einmal absurd klingt) in keine gute Richtung entwickelt. Eher in Richtung einer Dystopie, wo Menschen nur noch die werbepräsentere Marke kaufen.

Edit:
Ich habe meine Aussage zum Kräfteverhältnis zwischen Nvidia und AMD mittlerweile korrigiert: es ist 55/45.
 
Zuletzt bearbeitet:
TigerherzLXXXVI schrieb:
Also warum glaubst du ist die Realität derart verzerrt?
Weil das Kräfteverhältnis bezüglich Performance und Features ja nicht direkt mit den Marktanteilen korreliert.

Wenn du sagst es liegt aktuell bei 60/40 und das würde absolut jeder so sehen, dann müsste die Verteilung am Markt bei 100/0 liegen, denn wer würde sich denn für die 40 entscheiden?
Der Marktanteil von AMD kommt ja gerade von denen, die trotzdem der Meinung sind dass es für sie die bessere Karte ist.


Bei ca 50/50 lagen die Marktanteile übrigens zuletzt 2004/2005.
Dann kam die HD2000, die soweit ich mich erinnere starke Verbrauchs- und Hitzeprobleme hatte.
Mit den 5000-7000ern hatte man sich dann auch lange bei 35-40% gehalten, die R200er kamen dann verspätet und waren auch länger nicht gut lieferbar und liefen sehr heiß.

Da sieht man dann eine starken Einbruch, von dem man sich bisher nicht erholt hat, vor Allem weil Nvidia zur gleichen Zeit mit Maxwell und besonders Pascal sehr gute Karten hatte.
IMG_3388.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
Taxxor schrieb:
Du kannst doch weiterhin bei RT Lite bleiben, wenn dir die Bildraten dann zu gering werden oder du mit der DLSS Stufe nicht runter möchtest
Ich habe Cyberpunk damals mit meiner 6700XT und auf dem anderen PC mit einer 3060 ti gespielt. Bei FullHD auf der 6700XT sank die Bildrate auf teils unter 20 fps mit RT. Das Wasser sah deutlich besser aus. Die Beleuchtung in Innenräumen auch "anders". Aber von besser kann keine Rede sein. Da wurden manchmal Strahlen auf Material gespiegelt, wo es gar keinen Sinn macht. Wirkte eher wie eine Machbarkeitsstudie. Dafür einen Einbruch der fps auf 30% hinzunehmen ist absolut inakzeptabel. Aus dem Elfenbeinturm-PC mit der 4090 mag alles hinnehmbar sein. Für den durchschnittlichen Nutzer nit seiner maximal 3070 nicht.
Anderes Beispiel: Witcher 3. Mit der 3060 ti sinken die fps mit RT von ~ 80 auf ~40. Teilweise sind die Unterschiede selbst mit einer Lupe nicht zu erkennen.
 
Zuletzt bearbeitet:
marakuhja schrieb:
Aus dem Elfenbeinturm-PC mit der 4090 mag alles hinnehmbar sein. Für den durchschnittlichen Nutzer nit seiner maximal 3070 nicht.
Ich habe auch mit der 6800XT, als FSR rein kam, mit RT Medium gespielt und die ~45 FPS hingenommen, ein Einbruch von ca 50% ggü dem Raster Ultra Preset.

Davor hatte ich ne Weile ne 2080Ti hier, die ist ja ca auf dem Level der 3070, damit ging auch höheres RT mit DLSS Balanced bei knapp 60FPS
 
Taxxor schrieb:
Ich habe auch mit der 6800XT, als FSR rein kam, mit RT Medium gespielt und die ~45 FPS hingenommen, ein Einbruch von ca 50% ggü dem Raster Ultra Preset.
Ein Shooter mit 45 fps ist für mich unspielbar. Die 6700 XT ist zudem noch deutlich schwächer.
 
TigerherzLXXXVI schrieb:
Der Marktanteil von Nvidia bei Gaming-Grafikkarten liegt heute bei ca. 85%... Das wahre Kräfteverhältnis zwischen Nvidia und AMD (Gaming-Performance, Features) sehe ich aktuell bei ca. 60/40. Im Jahr 2020 hätte ich sogar 55/45 gesagt. Meine persönliche Einschätzung ist unter objektiven Gesichtspunkten äußerst realistisch. Also warum glaubst du ist die Realität derart verzerrt? An der Vernunft des Menschen kann das jedenfalls nicht liegen. Im Jahr 2010 lagen die Marktanteile übrigens noch bei ca. 50/50... Die Welt hat sich also auch in Bezug auf Grafikkartenverkäufe (auch wenn es erst einmal absurd klingt) in keine gute Richtung entwickelt. Eher in Richtung einer Dystopie, wo Menschen nur noch die werbepräsentere Marke kaufen.
Ich habs mit 5700XT und 6700XT probiert, ich konnte die drölftausend Fehlermeldungen - wegen eines unerwarteten Systemfehlers wurden die Radeon WattMan Standardeinstellungen wiederhergestellt nicht mehr sehen, bin freiwillig von der 6700Xt ( 12 GB ) auf 3060TI ( 8 GB )umgestiegen und siehe da, seitdem läuft alles.
Jetzt habe habe ich die 4070TI, die für dich nur Dumme kaufen und bin zufrieden
 
Zuletzt bearbeitet:
marakuhja schrieb:
Ein Shooter mit 45 fps ist für mich unspielbar. Die 6700 XT ist zudem noch deutlich schwächer.
Wie gesagt, es muss ja niemand die Settings auf Maximum drehen, für viele sieht ein Spiel aber rein gefühlt schon schlecht aus, wenn sie es auf Medium stellen müssen, selbst wenn es damit immer noch besser aussehen würde als andere Spiele auf Max.
 
Selbst wenn die 4080 Super die 5% Rückstand auf die 7900XTX aufholen und 1150€ kosten sollte, ist sie immer noch 200€ teurer.
Da würde ich eher die 4070Ti Super nehmen wenn sie für 850€ zu haben wäre.

Bin aufjedenfall schon mal auf die Tests gespannt und die realen Preise, befürchte aber die bleiben zu lange zu hoch...es wird wohl beim typischen "Nvidia" Aufpreis bleiben
 
Zuletzt bearbeitet:
Die Preise sind beschissen, konnte zum Glück meine 5700XT für 850 Euro verkaufen, mein Pech habe mir dafür ne 6700Xt gekauft (100 Euro Taschengeld blieben übrig) und habe gemeint es wird besser, ist ne gute Karte, aber wie gesagt, diese Fehlermeldungen mit Wattman trieben mich zur Weißglut.
 
Kothie schrieb:
Jetzt habe habe ich die 4070TI, die für dich nur Dumme kaufen und bin zufrieden
Meine Aussage gilt für die Gamer, welche die Karte als sichere Investion in die Zukunft sehen. Und das wird höchstwahrscheinlich die Mehrheit sein. Das Problem ist jedoch, dass die RTX 4070 Ti für ihre Leistungsklasse zu wenig Videospeicher besitzt. Das heißt aber nicht, dass sie generell unbrauchbar ist.

Als WQHD-Gamer wird man mit 12GB im AAA-Segment vermutlich noch gerade so für die Zukunft gerüstet sein. Wobei ich persönlich hier bereits etwas Sorge hätte. Für 4K reichen 12GB jedenfalls nicht mehr, dass zeigen aktuelle Titel deutlich. Natürlich kann man für 4K die Grafiksettings entsprechend herunterregeln. Aber das sollte eigentlich nicht Sinn und Zweck der Sache sein.

Außerdem kostet die RTX 4070 Ti eine ganze Stange Geld. Schon 2021 hat man für unter 500€ (UVP!) eine Grafikkarte mit 12GB bekommen. Dazu zählt etwa die RTX 3060... Heute bekommt man bei Nvidia selbst für stolze 900€ (UVP) nur 12GB. Allein schon wegen dem Preis sollte einen die Speicherausstattung als Gamer abschrecken. NORMALERWEISE. Daher spreche bei den Großteil der Käufer über "Dummheit".
Ergänzung ()

lubi7 schrieb:
Da würde ich eher die 4070Ti Super nehmen wenn sie für 850€ zu haben wäre.

Bin aufjedenfall schon mal auf die Tests gespannt und die realen Preise, befürchte aber die bleiben zu lange zu hoch...es wird wohl beim typischen "Nvidia" Aufpreis bleiben
850€ für die 4070 Ti Super wären bezogen auf einen aktuellen GPU-Preisvergleich interessant. Ich glaube jedoch, dass sie sich eher bei 1000€ einpendeln wird.

Die offizielle UVP der normalen RTX 4070 Ti liegt bei 899€. Die neue RTX 4070 Ti Super wird höchstwahrscheinlich eine höhere UVP besitzen. Zumindest war es damals bei den Super-Modellen von RTX 2000 so. Und Nvidia kennt seine Kunden genau. Das heißt sie können problemlos die neue 4070 Ti im Preis anheben und die Leute werden sie dennoch kaufen.
 
Zuletzt bearbeitet:
TigerherzLXXXVI schrieb:
850€ für die 4070 Ti Super wären bezogen auf einen aktuellen GPU-Preisvergleich interessant. Ich glaube jedoch, dass sie sich eher bei 1000€ einpendeln wird.

Die offizielle UVP der normalen RTX 4070 Ti liegt bei 899€. Die neue RTX 4070 Ti Super wird höchstwahrscheinlich eine höhere UVP besitzen. Zumindest war es damals bei den Super-Modellen von RTX 2000 so. Und Nvidia kennt seine Kunden genau. Das heißt sie können problemlos die neue 4070 Ti im Preis anheben und die Leute werden sie dennoch kaufen.

Wie so oft, steht und fällt mit der Konkurrenz, zu RTX2000 Zeiten hatte AMD in High-End nicht deswegen konnte Nvidia verlangen was sie wollten.

Diesmal ist es anders, die 4090 ausgenommen. In Rasterleistung ist AMD mir der 7900XTX ind XT deutlich schneller oder günstiger und deshalb im Zugzwang und senkt die UVPs teils deutlich
https://www.computerbase.de/2023-12...0-super-rtx-4070-ti-super-und-rtx-4080-super/
 
lubi7 schrieb:
Wie so oft, steht und fällt mit der Konkurrenz, zu RTX2000 Zeiten hatte AMD in High-End nicht deswegen konnte Nvidia verlangen was sie wollten.
Es gab damals aber auch noch die RTX 2060 Super und RTX 2070 Super, die sich mit der RX 5700 XT (und RX 5700) duelliert haben. In dieser Leistungsklasse war AMD nach langer Zeit wieder konkurrenzfähig. Und Nvidia hat nur wegen RX 5000 die Super-Modelle gebracht.
 
TigerherzLXXXVI schrieb:
Das wahre Kräfteverhältnis zwischen Nvidia und AMD (Gaming-Performance, Features) sehe ich aktuell bei ca. 60/40.
Wäre das Kräfteverhältnis durch die Bank derart deutlich also 60 zu 40, sind das 50%.
Niemand rationales würde eine Radeon kaufen, wenn das zuträfe.
Das Kräfteverhältnis ist mit AMDs Vorteilen bei Preis und Speicher relativ ausgeglichen, zumindest solange man DLSS außen vor lässt.
TigerherzLXXXVI schrieb:
Also warum glaubst du ist die Realität derart verzerrt?
Die Realität ist nicht verzerrt. Nvidia hat durch die Bank in Leistung und Features abgeliefert und AMD hechelt hinterher. AMD spielt die zweite Geige, konnte das früher ohne RT und Upscaler gut abfedern, aktuell geht das nicht.
Eine einfache Erklärung warum Marktanteile sind wie sie sind.
TigerherzLXXXVI schrieb:
Meine Aussage gilt für die Gamer, welche die Karte als sichere Investion in die Zukunft sehen.
Eine sichere Investition in die Zukunft bei Grafikkarten ist in etwa so wie Tiefkühlware in den Kühlschrank zu legen und zu erwarten, dass die sich lange hält. Die eine Karte hat viel V-ram, aber weniger RT Leistung und schlechteres Upscaling, irgendwo müssen Abstriche gemacht werden. Wer Regler bedienen kann kommt mit 4070Ti und 7900XT also mit beiden zurecht.
TigerherzLXXXVI schrieb:
Für 4K reichen 12GB jedenfalls nicht mehr, dass zeigen aktuelle Titel deutlich.
Ist wie so häufig falsch. Spiele in denen der Speicher für die volle Dröhnung jetzt nicht mehr ohne Problemchen reicht, kannst du an einer halben Hand abzählen, abgesehen davon spielt kaum jemand mit den 12GB Karten in 4K, weil dafür die Leistung nicht langt.
TigerherzLXXXVI schrieb:
Daher spreche bei den Großteil der Käufer über "Dummheit".
Das ist etwa das stetige Niveau deiner Beiträge. Wer nicht deiner Meinung und deinen alternativen Fakten hörig ist, wird in diese Kategorie einsortiert.
TigerherzLXXXVI schrieb:
850€ für die 4070 Ti Super wären bezogen auf einen aktuellen GPU-Preisvergleich interessant. Ich glaube jedoch, dass sie sich eher bei 1000€ einpendeln wird.
Die Karte hat laut MLID und Industriequellen eine UVP von 799 Dollar, wird also unter 900 Euro in D kosten.
TigerherzLXXXVI schrieb:
Es gibt genügend Gründe, die für eine RX 7900 XTX sprechen:
  • bessere Rasterleistung
  • Raytracing ist mir relativ egal
  • mehr Videospeicher
  • günstigerer Preis
  • FSR tut seinen Job auch (vor allem in 4K)
Also fallen die Vorteile der Nvidia Karte völlig unter den Tisch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tr8or und Taxxor
TigerherzLXXXVI schrieb:
Jedoch ist DLSS längst nicht perfekt. Besonders im Veröffentlichungszeitraum eines Spiels verursacht der Algorithmus noch deutlich häufiger störende Bildfehler.
Das saugst du dir aus den Fingern, oder?
TigerherzLXXXVI schrieb:
Generell scheint DLSS etwas fehleranfälliger für gewisse Bildfehler (z.B. Smearing) zu sein als FSR.
Das Smearing tritt meines Erachtens auffällig nur bei niedrigen Faktoren auf, ansonsten nicht.
Und in Relation ist das nicht der Rede wert.
TigerherzLXXXVI schrieb:
Zudem liefert DLSS in der Regel das deutlich weichere Bild. Letzteres ist aber sicherlich Geschmacksache.
Weicher? Oftmals dennoch schärfer.
Ein aktueller Vergleich zwischen WQHD FSR Ultra Performance und DLSS Ultra Performance, damit du nochmal siehst wovon wir sprechen.
Oben DLSS Ultra Performance unten FSR Ultra Performance.Das ist ein Unterschied wie Tag und Nacht.

TigerherzLXXXVI schrieb:
Der größte Schwachpunkt von FSR ist sicherlich die durchweg schlechtere Bildstabiltät im Vergleich zu DLSS, vor allem bei niedrigeren Qualitätsmodi und in Auflösungen unterhalb von 4K.
In 4K ist das auch so, da DLSS mit 4K Performance so gut aussieht wie FSR Q in 4K.
46% mehr Leistung umsonst. Der Nachteil von FSR ist in keiner Auflösung zu kaschieren, es sei denn Äpfel und Birnen werden verglichen.

Beleg: Siehe DLSS Performance vs FSR Quality

DLSS Performance statt FSR Quality bringt mir +46% Leistung. Das heißt, die RTX 4080 ist in diesem Szenario mit RT ohne Frame Generation bei vergleichbarer Optik mehr als doppelt so schnell wie die 7900XTX bei weniger Verbrauch. Was heißt das? Der Griff zur teureren RTX 4080 mit "nur" 16GB lohnt sich, generell der Griff zu Nvidia im Moment, da DLSS so viel besser als FSR ist.

Darum ist der Marktanteil von AMD so niedrig und das zurecht.
Pumpe ich die Auflösung auf 4K auf und verwende FSR Q und DLSS Q, sieht man kaum einen Unterschied, das wäre aber zugunsten AMD verdreht, da DLSS Performance zwischen 30 bis 50% mehr FPS bringt und dieselbe Optik. In dem Vergleich oben siehst DLSS Performance sogar noch stabiler aus und das Laufen durch den Wald ist angenehmer als FSR Qualität.

Ich kann zu FSR und DLSS auch noch hunderte Beispiele bringen, es verhält sich ähnlich, je nachdem wie es implementiert wurde. Es gibt auch seltene Beispiele in denen FSR näher an DLSS herankommt (Avatar: Pandora), aber dennoch fehlt noch ein ganzes Stück.
AMD User sollten unbedingt XeSS nutzen, wenn verfügbar. Das ist zwar auch schlechter als DLSS aber nicht so viel wie FSR.

Was heißt das unterm Strich? Deine Ansichten sind nicht objektiv(ganz objektiv ist niemand), ansonsten wärst du längst auf den vorherigen Post zu DLSS vs FSR eingegangen und hättest dies mit Beispielen widerlegt.
Ob FSR zufriedenstellende Ergebnisse liefert, liegt im Auge des Betrachters. Wenn nur FSR zur Verfügung steht, dann ja, zumindest in Q, ausgehend von 4K. In QHD oder Full HD habe ich es früher mangels Leistung zwangsweise immer auf den Radeon VII genutzt, es ist besser als nichts aber in Relation in meinen Augen schrecklich und ein Notnagel.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tr8or und Taxxor
NVidias DLSS 3 hat aber Probleme mit Ghosting, die meiner Meinung nach "Immersion" Breaking sind. Da sind die Probleme von FSR 2 dann doch eher klein.

Avatar:

Klar, ich kaufe mir nen teuren Monitor mit S-IPS oder gar OLED mit kurzen Reaktionszeiten um dann bei Einsatz von DLSS wieder alles ad absurdum zu führen. Ich verzichte daher freiwillig auf DLSS. DLSS ist für mich daher schlicht und ergreifend kein Kaufargument.

Und da Raytracing zu viel Leistung braucht und DLSS quasi zwingend braucht, sind bis auf die RTX 4090 sämtliche NVidia Karten für mich unkaufbar da mit Raytracing ohne DLSS zu lahm. Klammert man konsequenterweise Raytracing als Kaufargument aus, bietet AMD bei allen NVidia Karten bis einschließlich der RTX 4080 ein besseres Pendant zum günstigeren Preis mit mehr VRAM. Und ich denke, ich bin nicht der einzige der so denkt. Daher geht auch der Marktanteil von AMD hier im Forum nach oben. Denn hier werden noch am ehesten "informierte" Entscheidungen getroffen. Laut letzter Umfrage von letztem Monat steht es NVidia 52% zu 43% AMD.


Außerdem: NVidias Umsetzung von FSR sieht anders aus als die Umsetzung durch AMD. Hätte ich zwar auch nicht erwartet, scheint aber so zu sein:
 
Traxton schrieb:
NVidias DLSS 3 hat aber Probleme mit Ghosting, die meiner Meinung nach "Immersion" Breaking sind. Da sind die Probleme von FSR 2 dann doch eher klein.

Avatar:
Wenn man bedenkt, dass das Ghosting sofort verschwindet, sobald die Kamera auch nur ansatzweise bewegt wird, sieht das einfach nach einem Fehler bei der Implementierung aus, höchstwahrscheinlich einfach nur eine Variable falsch gesetzt.

Ich musste gerade selbst noch mal das Spiel anmachen und mir die Szene anzuschauen, weil mir das in bisher ~15 Stunden noch nie aufgefallen ist, weil die Kamera dafür für ca 1s 100% still gehalten werden muss und das hab ich scheinbar bisher nie gemacht^^
Das Flimmern von FSR fällt mir dafür ständig auf.
 
Zuletzt bearbeitet:
Traxton schrieb:
NVidias DLSS 3 hat aber Probleme mit Ghosting, die meiner Meinung nach "Immersion" Breaking sind. Da sind die Probleme von FSR 2 dann doch eher klein.
Für Avatar gibt es schon einen Fix bezüglich des Ghostings von manchen kleinen Objekten, wenn man still steht. Kann ich gerne verlinken. Im Vergleich zu der geringeren FSR Qualität ist das aber dennoch Pille-Palle.
Entweder man hat den Nvidia DLSS Inspector installiert und ändert dort die Parameter, oder man installiert dieses Tool und nutzt eine ältere DLSS Version.

Ich werde später Vergleichsvideos erstellen, damit du DLSS und FSR vergleichen kannst.

Traxton schrieb:
Und da Raytracing zu viel Leistung braucht und DLSS quasi zwingend braucht, sind bis auf die RTX 4090 sämtliche NVidia Karten für mich unkaufbar da mit Raytracing ohne DLSS zu lahm.
Du nimmst also ein recht seltenes Phänomen und überträgst das generell auf alle Spiele mit DLSS?
Muss man nicht verstehen an dieser Stelle. Dann nehme ich FSR2 in Formel 1 her, das stärker flimmert als Nativ und erkläre das zum generellen Zustand.
https://www.computerbase.de/2023-07...tt_dlss_2_ist_in_f1_23_klar_besser_als_fsr_22
FSR 2.2 hat in dem Rennspiel mit massivem Flackern bei der Darstellung von Zäunen oder Zaun-ähnlichen Objekten zu kämpfen, das sogar intensiver als mit dem spieleigenen TAA ausfällt. Bereits F1 22 zeigt denselben Effekt. Warum AMDs Upsampling damit derart zu kämpfen hat, ist unklar. Für gewöhnlich gibt es diesen Effekt (wenn überhaupt) in deutlich reduzierter Form.
Traxton schrieb:
Klammert man konsequenterweise Raytracing als Kaufargument aus, bietet AMD bei allen NVidia Karten bis einschließlich der RTX 4080 ein besseres Pendant zum günstigeren Preis mit mehr VRAM.
Blendet man alle Vorteile des einen Herstellers aus ergibt sich das, korrekt.
Traxton schrieb:
Und ich denke, ich bin nicht der einzige der so denkt.
Und auch längst nicht der einzige der bei diesen Vergleichen mehr als die Hälfte an Fakten ausblendet um zu seiner Meinung zu gelangen.
Traxton schrieb:
Daher geht auch der Marktanteil von AMD hier im Forum nach oben. Denn hier werden noch am ehesten "informierte" Entscheidungen getroffen.
Dein DLSS Hate hat nichts mit Informiertheit zu tun.
Traxton schrieb:
Außerdem: NVidias Umsetzung von FSR sieht anders aus als die Umsetzung durch AMD.
Nein.
 
Zuletzt bearbeitet:
TigerherzLXXXVI schrieb:
Es muss einen Grund geben, warum ausgerechnet bei Digital Foundry, die Grafikenthusiasten schlecht hin, Avatar: Frontiers of Pandora auf Platz 1 und CP2077 mit Path-Tracing auf Platz 3 in Sachen Spielegrafik steht.

Nochmal zum Mitschreiben für dich: Avatar hat gegen CP2077 gewonnen, weil das Spiel die deutlich besseren Texturen und Geometriedetails hat. Diese "Vorteile" gibt es also doch...
Ja, der Grund wird im Video auch genannt: hauptsächlich da CP2077 bereits in Vorjahren gewonnen hatte, wurde den anderen beiden Titeln der Top 3 der Vortritt gelassen.

Ab Minute 55 in dem Video wird mehrfach erwähnt, dass ihnen die Festlegung der Top3-Reihenfolge sehr schwer gefallen ist; bei 58:30 und 60:30 wird sogar explizit erwähnt, dass sie CP2077 als älteren und bereits ausgeezeichneten Titel aus "DF-politischen Gründen" nicht zum wiederholten Male auf Platz 1 oder 2 heben wollten.

 
Zuletzt bearbeitet:
Geht's jetzt vielleicht wieder ein wenig sachlicher weiter, ja? Ich hoffe schon, geht ja auf keine Kuhhaut mehr dieses gegenseitige Recht-haben-wollen, Fanboy-Framing und Sticheleien auf persönlicher Schiene. Macht das doch per PN, wenn es so erquickend ist.
 
Cohen schrieb:
Ja, der Grund wird im Video auch genannt: hauptsächlich da CP2077 bereits in Vorjahren gewonnen hatte, wurde den anderen beiden Titeln der Top 3 der Vortritt gelassen.

Ab Minute 55 in dem Video wird mehrfach erwähnt, dass ihnen die Festlegung der Top3-Reihenfolge sehr schwer gefallen ist; bei 58:30 und 60:30 wird sogar explizit erwähnt, dass sie CP2077 als älteren und bereits ausgeezeichneten Titel aus "DF-politischen Gründen" nicht zum wiederholten Male auf Platz 1 oder 2 heben wollten.
Selbstverständlich war es eine schwierige Entscheidung für DF. Alle drei Titel sehen insgesamt fantastisch aus.

Beim Timestamp 56:30 ist John Linneman jedoch der Meinung, dass die beiden anderen Spiele für ihn grafisch noch einen kleinen Schritt weiter gehen als CP2077 mit Path-Tracing.
 
Zurück
Oben