Test Gaming-Grafikkarten 2024 im Test: GeForce-, Radeon- & Arc-Benchmarks im neuen Testparcours

TigerherzLXXXVI schrieb:
Cyberpunk 2077 wurde damals auch mit Hinblick auf die bald erscheinende RTX 3000 Generation entwickelt.
Das halte ich zwar für einen Fehlschluss, da alle anderen Karten die damals breit am Markt gewesen sind ebenfalls nur 8GB hatten, aber bitte. Das Spiel wurde für 8GB entwickelt und ist daher mit einem 3 Jahre später erscheinenden Game nicht zu vergleichen.
TigerherzLXXXVI schrieb:
Dass dich persönlich die vergleichbar eher maue Texturqualität nicht weiter stört tut nichts zur Sache.
Natürlich stört mich eine schlechte Texturqualität, genauso wie schlechte Beleuchtung oder fehlende Plastizität.
Die Texturqualität in Cyberpunk ist für heutige Verhältnisse immer noch stark, für ein mittlerweile altes Game.
TigerherzLXXXVI schrieb:
Man kann ruhig ein Texturvergleich sämtlicher in diesem Zeitraum erschienenen Spiele anstellen. Da wird Cyberpunk nicht mehr so gut da stehen.
Die Texturqualität hat auch nach wie vor überhaupt nichts mit RT oder Pathtracing zu tun.
TigerherzLXXXVI schrieb:
Übrigens hatten beinahe sämtliche AMD-Grafikkarten von damals (bis auf die x600er Serie) mindestens 12GB...
Es gab zum Release des Spiels keine einzige Karte mit 12GB von AMD und kaum jemand hatte eine aktuelle Ampere Nvidia Karte...
TigerherzLXXXVI schrieb:
Meine Kommentare mögen dir nicht gefallen
Die gefallen mir nicht, weil sie immer auf ein AMD. vs. Nvidia Bullshit-Bingo hinauslaufen und es nie um die Tech an sich geht. Dir geht es darum wer den längsten in Disziplin XY hat. Und wenn das bei RT Nvidia ist, dann agitierst du dagegen an, vermischst Sachverhalte und stellst Zusammenhänge völlig falsch dar.

Du bist sogar so verzweifelt, dass 4 Jahre alte Spiele bemüht werden, um schlechte Texturen mit Raytracing in Verbindung zu bringen um einfach irgendetwas negatives zu sagen.
 
  • Gefällt mir
Reaktionen: Apocalypse
Quidproquo77 schrieb:
Die Texturqualität hat auch nach wie vor überhaupt nichts mit RT oder Pathtracing zu tun.
In Zusammenhang mit Cyberpunk 2077 aber schon. Jede Wette, dass man die Texturqualität für das Spiel extra "optimiert" hat, damit später RT Ultra etwa mit einer RTX 3070 (8GB) überhaupt möglich wurde... Wir können ja mal einen eigenen Thread aufmachen, der sich allein mit der Technik von Cyberpunk 2077 auseinandersetzt. Hundertprozentig musste CDPR das Spiel für die später erscheinenden Ampere-Modelle auslegen und schauen, wo man bei der Spielegrafik mit gleichzeitig aktivierten Raytracing (Ultra) an Videospeicher gezielt einspart.
 
Casillas schrieb:
Willst du jetzt tatsächlich diskutieren, ob Texturen oder Beleuchtung für die Grafik eines Spiels wichtiger ist?
Nein, ich sage beides ist gleich wichtig.
 
Norebo schrieb:
Texturen, Texturqualität, Farbbrillianz und Auflösung sind die Träger der BQ!
Taxxor schrieb:
Was bringen mir die besten Texturen, wenn die Beleuchtung kacke ist?
Casillas schrieb:
Willst du jetzt tatsächlich diskutieren, ob Texturen oder Beleuchtung für die Grafik eines Spiels wichtiger ist?
Taxxor schrieb:
Nein, ich sage beides ist gleich wichtig.
Ok. War jetzt aus dem Verlauf nicht zweifelsfrei zu erkennen.
 
  • Gefällt mir
Reaktionen: TigerherzLXXXVI
TigerherzLXXXVI schrieb:
Das wäre aber die gleiche Diskussion wie fehlendes "RT Ultra" in Avatar. Man hätte doch in Cyberpunk 2077 eine noch höhere Texturqualität für RX-6000-Karten anbieten können.
Ja warum denn nicht? Ich habe absolut gar nichts gegen optionale Settings, wenn die Texturqualität dadurch steigt. Die Frage ist nur ob man das auf die Allgemeinheit ohne Hinweis dann loslässt, weil dann das Spiel unspielbar vor sich hin ruckelt. Natürlich müssen sich die Texturen dann optisch lohnen, also nicht so wie in Far Cry 6, wo der Effekt ausblieb.
TigerherzLXXXVI schrieb:
Und wieder einmal hast dich als waschechter Nvidia-Jünger geoutet.
Taxxor hat es ja schon vorhergesehen.:p

TigerherzLXXXVI schrieb:
Es muss einen Grund geben, warum ausgerechnet bei Digital Foundry, die Grafikenthusiasten schlecht hin, Avatar: Frontiers of Pandora auf Platz 1 und CP2077 mit Path-Tracing auf Platz 3 in Sachen Spielegrafik steht.
Ja, weil Spielegrafik ein Gesamtkonstrukt ist, das sich nicht ausschließlich auf einen einzigen Aspekt reduziert.
Hättest du das Video angeschaut, würdest du das dort auch genauso hören, vor allem in Bezug auf die prozedurale Generierung der Vegetation und die Open World. Hast du aber nicht.
TigerherzLXXXVI schrieb:
Gewonnen hat Avatar jedenfalls nicht aufgrund der RT-Implementierung.
Richtig, würde man nur die Beleuchtung, Verschattung, Spiegelung und Co werten, wäre Avatar ein durchschnittlicher Titel, aber es gibt wesentlich mehr Aspekte.
TigerherzLXXXVI schrieb:
Diese "Vorteile" gibt es also doch...
Ich habe nie die Meinung vertreten, dass es diese Vorteile nicht gibt. Aber schöne Erfindung von dir.
 
Quidproquo77 schrieb:
Du bist sogar so verzweifelt, dass 4 Jahre alte Spiele bemüht werden, um schlechte Texturen mit Raytracing in Verbindung zu bringen um einfach irgendetwas negatives zu sagen.
Nein. Dir passt es einfach nur nicht, wenn man Argumente gegen Nvidia anbringt, die nicht in dein eigenes Weltbild passen. Es ist schon merkwürdig, dass du auffällig oft meine Kommentare Satz für Satz auseinander nimmst und etwas entgegnen musst. Hinterfrage dein eigenes Verhalten. Ich denke nicht, dass all meine Argumente kompletter Nonsens sind.
 
Casillas schrieb:
Willst du jetzt tatsächlich diskutieren, ob Texturen oder Beleuchtung für die Grafik eines Spiels wichtiger ist?
Der einzige der versucht beides miteinander aufzuwiegen und zu vergleichen ist doch Tigerherz.
Fällt dir das nicht auf?
 
  • Gefällt mir
Reaktionen: Apocalypse
Quidproquo77 schrieb:
Ich habe nie die Meinung vertreten, dass es diese Vorteile nicht gibt. Aber schöne Erfindung von dir.
Es ist wirklich kaum zu glauben, mit welchen Mitteln hier diskutiert wird. Ich leide garantiert nicht unter Realitätsverlust und weiß genau, dass diese Aussage von dir kam. Schließlich ist es ja gerade auch erst wenige Minuten her. Merkwürdiger Weise ist genau dieser Satz nun nicht mehr in deinen Kommentaren zu finden... Ich bin schon etwas schockiert, aber wirklich wundern tut es mich ehrlich gesagt nicht. Eigentlich wollte ich sowieso nicht mehr mit dir herumdiskutieren, von daher ist das jetzt der beste Grund es einfach sein zu lassen.
 
Zuletzt bearbeitet:
Wieso muss das hier immer in so einem "Quote-Porno" ausarten? 😂
 
  • Gefällt mir
Reaktionen: Apocalypse
TigerherzLXXXVI schrieb:
Na klar, lese dir deinen eigenen Beitrag einmal aufmerksam durch.
TigerherzLXXXVI schrieb:
(...)Etwa weniger Geometriedetails oder SD-Texturen auf Cyberpunk 2077 Niveau. (...)
Dein Argument ist, Nvidia "hätte" die Texturdetails in Avatar auf das Niveau von Cyberpunk von vor etwa 4! Jahren gesenkt, zusätzlich behauptest du, Nvidia hätte mit ihrer Partnerschaft auch damals schon für Karten mit wenig Speicher optimiert, obwohl zum Release und Entwicklungszeitraum außer der Radeon VII und 2080TI keine Karten mit mehr als 8GB zur Verfügung standen.

Das sind weder Fakten, noch logische Überlegungen. Das sind gestreute Gerüchte wie es die Boulevard-Presse macht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse
Quidproquo77 schrieb:
Der einzige der versucht beides miteinander aufzuwiegen und zu vergleichen ist doch Tigerherz.
Fällt dir das nicht auf?
Du siehst doch in meinem Beitrag #364 das er in den aufeinanderfolgenden Antworten bzw. Zitaten gar nicht nicht mit drin war.

Und sonst. Wer im Glashaus sitzt sollte nicht mit Steinen werfen.
 
TigerherzLXXXVI schrieb:
Ich leide garantiert nicht unter Realitätsverlust und weiß genau, dass diese Aussage von dir kam.
Dann bitte, zitiere sie.
TigerherzLXXXVI schrieb:
Schließlich ist es ja gerade auch erst wenige Minuten her. Merkwürdiger Weise ist genau dieser Satz nun nicht mehr in deinen Kommentaren zu finden...
Klingt sehr plausibel...
Dasselbe haben wir schon zuletzt diskutiert, wo du damit ankamst, dass Digital Foundry ja Avatar knapp vor Alan Wake gesetzt hatte und das der Beweis schlechthin sei, dass PT unwichtig sei und darauf habe ich genau das gleiche wie heute gesagt. Dass Texturen, Geometrie und Co genauso wichtig sind und man die Grafik nicht auf Pathtracing oder "UltraRT" reduzieren kann.
Sprich das exakte Gegenteil deines Vorwurfs.

So einen Kommentar kann es ergo von meiner Seite nicht geben und damit ist die Diskussion wieder an einem Punkt angekommen wo ich aufhöre.
 
TigerherzLXXXVI schrieb:
In Zusammenhang mit Cyberpunk 2077 aber schon. Jede Wette, dass man die Texturqualität für das Spiel extra "optimiert" hat, damit später RT Ultra etwa mit einer RTX 3070 (8GB) überhaupt möglich wurde... Wir können ja mal einen eigenen Thread aufmachen, der sich allein mit der Technik von Cyberpunk 2077 auseinandersetzt. Hundertprozentig musste CDPR das Spiel für die später erscheinenden Ampere-Modelle auslegen und schauen, wo man bei der Spielegrafik mit gleichzeitig aktivierten Raytracing (Ultra) an Videospeicher gezielt einspart.
Statt so etwas zu behaupten bring Beweise.... da du ja 100% sicher bist müsste sich ja genug Beweise finden lassen.

Aber allein das du deine Meinung als Fakten darstellt, ohne es zu wissen zeigt ja, es wäre eine Diskussion nach Bauchgefühl und nicht Fakten. Seit trump ist das sehr beliebte im Internet geworden
 
  • Gefällt mir
Reaktionen: MrHeisenberg
Easy1991 schrieb:
Statt so etwas zu behaupten bring Beweise.... da du ja 100% sicher bist müsste sich ja genug Beweise finden lassen.

Aber allein das du deine Meinung als Fakten darstellt, ohne es zu wissen zeigt ja, es wäre eine Diskussion nach Bauchgefühl und nicht Fakten. Seit trump ist das sehr beliebte im Internet geworden
Zum Beispiel hat der CB-Test der RTX 4060 ergeben, dass die 8GB der Grafikkarte in 1080p + RT Ultra bereits zu wenig sind. Nvidia selbst sagt sogar, dass das (durch VRAM-Mangel hervorgerufene) Problem mit DLSS Performance "behoben" wird. Das heißt folglich: höhere DLSS Qualitätsmodi benötigen bereits mehr Videospeicher als 8GB... Und dabei besitzen Geforce-Karten schon die beste Speicherverwaltung von allen Herstellern.

Die Fähigkeit 1 und 1 zusammen zu zählen überlasse ich dir. Natürlich kannst du dich auch davor streuben logische Schlussfolgerungen zu ziehen. Es liegt an dir. Es wird immer Leute geben, welche Fakten niemals anerkennen und die Wahrheit mit allen Mitteln bekämpfen werden.
 

Anhänge

  • Screenshot_20240104_173437_Chrome.jpg
    Screenshot_20240104_173437_Chrome.jpg
    859,6 KB · Aufrufe: 47
Zuletzt bearbeitet:
TigerherzLXXXVI schrieb:
Das wäre aber die gleiche Diskussion wie fehlendes "RT Ultra" in Avatar. Man hätte doch in Cyberpunk 2077 eine noch höhere Texturqualität für RX-6000-Karten anbieten können.
Auch RX 6000 Karten waren zum geplanten Release noch nicht draußen, im Gegenteil Nvidia hatte zu der Zeit insgesamt mehr VRAM mit der 1080Ti und 2080Ti.

Zum Release von Avatar gibt es hingegen 2 Nvidia Generationen sowie eine AMD Generation, die zu guten FPS mit RT Ultra in der Lage sind, vor allem da man ja auch FG Implementiert hat
 
Zuletzt bearbeitet:
Taxxor schrieb:
Auch RX 6000 Karten waren zum geplanten Release noch nicht draußen, Nvidia hatte insgesamt mehr VRAM zu diesem Zeitpunkt mit der 1080Ti und 2080Ti.
Und Crysis (2007) hat sich mit seinen Hardwareanforderungen damals auch an die alten Grafikkartengenerationen gerichtet... Alles nur faule Ausreden von Leuten, die Nvidia aus mir unerfindlichen Gründen bis zum Messer verteidigen.

Lies dir bitte meinen Kommentar gleich über deinen eigenen durch (zum Thema: RTX 4060 in CP2077 mit 1080p + RT Ultra). Natürlich wirst du auch das vehement abstreiten.
 
TigerherzLXXXVI schrieb:
Und Crysis (2007) hat sich mit seinen Hardwareanforderungen damals auch an die alten Grafikkartengenerationen gerichtet... Alles nur faule Ausreden von Leuten, die Nvidia aus mir unerfindlichen Gründen bis zum Messer verteidigen
Du bist doch in erster Linie derjenige der abfeiert dass bei Avatar genau das mit RT gemacht wurde was du Cyberpunk bei den Texturen vorwirfst.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und MrHeisenberg
MalWiederIch schrieb:
Jetzt fängt es wieder an mit den Spielen die einem nicht im Parkour passen oder dass RT plötzlich wieder irrelevant ist, um die eigene Wahl zu rechtfertigen :p
Naja ich hab ne 4090 und schalte Raytracing eigentlich immer ab und denke mir nur was für ein Depp ich war voreilig gehandelt zu haben und nicht auf die RX 7900 XTX gewartet zu haben, die mir mehr als gereicht hätte.

Meiner Meinung nach ist es einfach so:
Solange Raytracing so einen starken Performancehunger hat, ist es für mich persönlich komplett irrelevant.

Sollte die nächste oder übernächste Grafikkarte von AMD deutlich besser sein als die 4090 werde ich sie durch diese ersetzen.
Ich wünschte, es gäbe performante Grafikkarten von AMD oder auch Nvidia, die komplett auf Raytracing verzichten und damit auch nicht unnötig den Preis in die Höhe treiben. Einfach für Leute, die gute Rasterisierung in 4K haben wollen aber denen Raytracing absolut egal ist.
 
  • Gefällt mir
Reaktionen: Chismon und TigerherzLXXXVI
Taxxor schrieb:
Du bist doch in erster Linie derjenige der abfeiert dass bei Avatar genau das gemacht wurde was du Cyberpunk vorwirfst
Und was genau soll das sein?

Beim Thema CP2077 ging es mir darum aufzuzeigen, dass das Spiel "SD-Texturen" verwendet, nur weil Nvidia-Grafikkarten zu wenig Videospeicher haben. Der CB-Test zur RTX 4060 bestätigt meine These. Du kannst ja auch Wolfgang zu diesen Sachverhalt ansprechen...

Bei Avatar würde eine noch höhere RT Qualitätsstufe die Bildrate deutlich senken, da bereits das permanente "RT Lite" die Grafikkarten insgesamt sehr fordern. Das Spiel wäre mit der gleichen Raytracingqualität (oder sogar Path-Tracing) wie in CP2077 deutlich anspruchsvoller für die Hardware als der CDPR-Titel selbst.
 
TigerherzLXXXVI schrieb:
Und was genau soll das sein?
Bei Cyberpunk als Nvidia Titel bemängelst du schlechtere Texturen weil Nvidia Karten weniger VRAM haben.

Bei Avatar als AMD Titel gibts weniger RT weil AMD Karten weniger RT Performance haben.

Eines stört dich, das andere nicht.

Genau wie bei Cyberpunk diejenigen mit weniger VRAM die Texturen reduzieren können, können bei Avatar diejenigen mit weniger RT Performance die RT Qualität reduzieren.

Genau wie du bei Cyberpunk sagen kannst „Warum nicht höhere Textursettings für Karten die damit umgehen können“, kann man exakt das gleiche bezüglich Avatar und RT sagen.

Und da kommt wieder der Veröffentlichungszeitraum ins Spiel: Zum geplanten Release von Cyberpunk gab es weit weniger Karten mit >8GB VRAM als es zum Release von Avatar RT-starke Karten gab.

TigerherzLXXXVI schrieb:
Bei Avatar würde eine noch höhere RT Qualitätsstufe die Bildrate deutlich senken, da bereits das permanente "RT Lite" die Grafikkarten insgesamt sehr fordern.

Es scheint dir überhaupt nicht in den Sinn zu kommen dass man nur wenn Avatar höhere RT Settings bieten würde, diese nicht unbedingt nutzen muss, um sich dann über zu schlechte Performance aufzuregen.

Das sage ich dir jetzt schon zum 3. mal.

Selbst wenn Avatar Pathtracing bieten würde und man mit ner 4080 nur unter Verwendung von DLSS Balanced in 1440p auf 60 FPS kommen würde, oder alternativ mit FSR und FG arbeiten müsste, es würde absolut nichts daran ändern, dass du mit deiner Karte auch weiterhin mit den RT-Lite Settings spielen könntest, die es aktuell gibt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse und Quidproquo77
Zurück
Oben