• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Counter-Strike 2 im Test: 28 Grafikkarten im Benchmark

EDIT für alle Verwirrten durch meinen Post: gemeint ist die 3070. Also nicht die 4070. Sorry :D

Bin erschrocken, wie schlecht das Spiel für AMD-Karten optimiert ist. Ryzen-CPUs gehen hier extrem gut ab, aber bei den GPUs scheints deutlich weniger optimal zu laufen. Meine 6700XT ist unverhältnismässig langsamer als die 4070. 50% langsamer als es ideallerweise sein sollte...
Die Tendenz geht in die Richtung, dass die 4070 der 6700XT davonläuft. Früher hats besser ausgesehen für die AMD-Karte. Denke, AMD fokussiert sich da eher auf die 7000er-Karten bei der Optimierung und die alte Gen hat das Nachsehen...
6700XT und 4070 jagen mal im selben Revier....nahmen sich im Schnitt sonst nicht viel...., aber die Zeiten scheinen vorbei zu sein. Natürlich auch spieleabhängig, aber wenn ich mir die letzten Spiele-Reviews so anschaue, dann sieht man die 4070 der 6700XT deutlich davonziehen...

Ein weiteres Argument für die 4070 Super in meinen Augen als preislich attraktive Karte, wenn das nächste GPU-Upgrade anstehen sollte. 7700XT, 6800, 7800XT, 7900GRE auch ganz gute Karten für den Preis, aber men man für die nächsten Spiele bisschen Leistung für Raytracing-Effekte mitbringen möchte, dann sehe ich die 4070 Super als aktuell rundeste Option. Wenn man die Leistung braucht und auf Raytracing verzichten kann bzw. es nicht komplett damit übertreiben möchte, dann ist die 7900 GRE auch eine sehr gute Wahl mit einer starken Rasterizing-Leistung. Ich warte mit meinem Upgrade ab, bis die 8000er und 5000er draussen sind.
Hoffentlich zu humanen (aktuellen) Preisen, ohne dass es weitere Preisaufschläge gibt....

Aber klar, wenn die Herstellungskosten der Karten steigen, dann werden die Kosten einfach auf den Kunden weitergereicht. Davon mal ab versucht dann Nvidia in seiner marktbeherrschenden Stellung die Preise so anzuheben, dass die gute Marge weiterhin erhalten bleibt und solange die Karten zu den geforderten Preisen Abnehmer finden, geht das Preis-Spielchen weiter. Erst wenn der Absatz zu sehr unter dem teuren Preis leidet, wird man den Preis nach unten korrigieren. Wäre natürlich hilfreich, wenn AMD eine starke Konkurrenz zu Nvidia darstellt. Aber für die kommende Gen (8000er) scheint sich AMD vom High-End-Segment verabschiedet zu haben und überlässt Nvidia den Markt für potentielle 5080/5090-Käufer...

Der Mittelklassen-GPU-Mainstream-Ansatz von AMD ist ja an sich nicht verkehrt, aber es wäre schon traurig anzuschauen, wenn Nvidia mehr High-End-GPUs verkauft bekommt als AMD Mittelklasse-GPUs....
 
Zuletzt bearbeitet:
5hred schrieb:
Meine 6700XT ist unverhältnismässig langsamer als die 4070.
4060 Ti 12% vor der 6700 XT in 1440p, ist nichts sonderlich Ungewöhnliches.

Die Engine ist immer noch völliger Mist, die Frame Times werden mit Reflex oder in-game fps Limiter extrem fett und es mikroruckelt entsprechend abartig. Ich habe in Fortnite mit reduzierten Details und TSR dynamic Scaling einen viel glatteren Graphen und es fühlt sich auch viel direkter an...
 
Würde mir einen Vergleich mit Linux und Vulkan als API wünschen. Dann haben wir auch Vergleichsdaten (API und OS).

Ich werde den Verdacht nicht los, dass sich Valve mit Direct3D11 (Vorstellung 2008) und der ewigen Shaderkompiliererei sich Probleme eingetreten hat. Mit Direct3D12 und Vulkan hätte man zumindest APIs die ähnliche Ansätze verfolgen. Jetzt bastelt Valve Erweiterungen an Vulkan dran (GPL und Konsorten) um das zu verbessern.

Ein Zen3+ mit RDNA2 bekommt bei mir mit 2560x1440 im Laptop stabile 60 fps (niedrige Einstellungen). Gerade bekommen als CS:GO unter Linux durch CS2 ersetzt wurde, also fehlt mir ein Vergleich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Jok3er
5hred schrieb:
Bin erschrocken, wie schlecht das Spiel für AMD-Karten optimiert ist. Ryzen-CPUs gehen hier extrem gut ab, aber bei den GPUs scheints deutlich weniger optimal zu laufen. Meine 6700XT ist unverhältnismässig langsamer als die 4070. 50% langsamer als es ideallerweise sein sollte...
Die Tendenz geht in die Richtung, dass die 4070 der 6700XT davonläuft. Früher hats besser ausgesehen für die AMD-Karte. Denke, AMD fokussiert sich da eher auf die 7000er-Karten bei der Optimierung und die alte Gen hat das Nachsehen...
6700XT und 4070 jagen mal im selben Revier....nahmen sich im Schnitt sonst nicht viel...., aber die Zeiten scheinen vorbei zu sein. Natürlich auch spieleabhängig, aber wenn ich mir die letzten Spiele-Reviews so anschaue, dann sieht man die 4070 der 6700XT deutlich davonziehen...

Naja die 6800 xt rasiert doch schon , man spielt cs ja hauptsächlich in niedrigen Auflösung das Spielt.
 
  • Gefällt mir
Reaktionen: hanjef
OK, 6800XT performt ganz gut für ihr Alter. Da sieht die neue GRE bisschen schlecht aus.
Aber wenn man bedenkt, dass die 6800XT so im 4070 Ti-Revier wildert, dann sollte die auch so performen.
Im Verlgleich dazu verliert die 6700XT gegenüber der 4070 schon zu sehr...
 
5hred schrieb:
OK, 6800XT performt ganz gut für ihr Alter. Da sieht die neue GRE bisschen schlecht aus.
Aber wenn man bedenkt, dass die 6800XT so im 4070 Ti-Revier wildert, dann sollte die auch so performen.
Im Verlgleich dazu verliert die 6700XT gegenüber der 4070 schon zu sehr...
1714406370662.png

Tut sie das wirklich ?

Die RTX 4070 wildert eher bei der 6800 xt
 
Ich Spiele mit Vulkan, einfach in den Startoptionen "-vulkan" eingeben.

Das Spiel ist nicht gut optimiert, aber die X3D CPUs führen in den 1% lows die Benchmarktabelle an.

Selbst ein 5800X3D ist schneller als ein 14900k.

Für die, die keine X3D CPU mal austesten ob es mit vulkan besser läuft
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: flaphoschi
@Jok3er die meisten test die ich mir gerade auf youtube gebe, zeigen genau das gegenteil





von 8 videos zeigt 1 video postiven effekt, also wäre ich mit der Empfehlung echt vorsichtig
 
  • Gefällt mir
Reaktionen: hanjef
@Easy1991

Habe es mal abgeändert. Kommt wohl auf das System an.

Was ich noch seltsam finde.

Das Fehlen von DLSS 3.5 und FSR 3.0 sowie Intels XeSS. Jede noch so kleine Spieleschmiede bekommt das hin, aber nunja.

So Richtig zufriedenstellend lief das Spiel in DX11 erst in 720p und alles auf Low Details.
 
Ich bin wahrscheinlich die große Ausnahme, aber ich hab die fps auf 64 limitiert. Damit ist wahrscheinlich FPS = Tick. Fühlt sich für meine Verhältnisse hinreichend flüssig an, pacing Probleme nehme ich nicht war, und für ein paar Runden Casual Deathmatch abends reicht's allemal, um in die top 5 zu kommen im Schnitt.

Mit FPS Limit auf 128 hab ich jetzt keinen großen Unterschied gemerkt (bei 60hz Screen), kann aber auch am Alter liegen ;)

Klar, hätte ich 144hz capable HW würde ich es auf jeden Fall ausprobieren, aber das aktuelle Spielerlebnis (Casual) passt halt voll
 
And then there is me, playing CS2 on 4:3 stretched 1280x960 on full hd screen :freak::D
 
Martinipi schrieb:
AMD hat mit den X3D Cores mit mehreren CCD die gleichen Probleme, kein Grund sich deshalb irgendwie überlegen zu fühlen...
Nicht spezifisch bezogen auf x3d sondern generell auf cpus mit mehreren ccds. Da werden threads des Spiels zwischen ccd1 und ccd2 hin und her geswitched und es gibt micro stuttering bzw. 1% Lows Einbrüche. Selbiges passiert wohl bei intel zwischen p und e cores. Würde ich u.a. daher nie kaufen.
fox40phil schrieb:
Was mich bei CS2 richtig nervt sind diese plötzlichen Hänger / "Mikroshutter" / "lags"...
Vor allem wenn die Gegner bzw. andere Spieler in die Nähe kommen... hängts häufig kurz.
Ergänzung ()
Das hat mein 5950x auch, trotz 4090 und ca 240fps. Ich zocke in 4k mit allem max, 4xmsaa. Interessanter Weise hat das 7945hx Laptop dieses Verhalten nicht bzw. kaum.

Wenn ich aber am Desktop bin, habe ich mit der 4090 eine echte Heizung von unten. Im Winter ok,im Sommer nicht so.

Da kommt das Laptop ins Spiel, es wäre so toll, wenn valve dlss eingebaut hätte! Einfach um Energie zu sparen trotz hoher Auflösung, Details und fps. 170w zieht auch die mobile 4090 und erreicht dann ca 180fps. Wegen hoher VRAM Temps habe ich die nun auf 120hz mit vsync limitiert. Aber es fühlt sich ne Ecke weniger flüssig an als 180fps zuvor. Es braucht DLSS!!
 
  • Gefällt mir
Reaktionen: fox40phil
Easy1991 schrieb:
Die RTX 4070 wildert eher bei der 6800 xt
Aus Sicht der FPS schon, seitens TDP wiederum nicht. Klar könnte einem bei den aktuellen Strompreisen das egal sein, wenn es um Abwärme geht, wiederum nicht.

Nein, bei Multi-GPU, war es mir einst, ehemals egal.
Jok3er schrieb:
Ich Spiele mit Vulkan, einfach in den Startoptionen "-vulkan" eingeben.
Ich hatte festgestellt, das man mitunter weniger FPS generiert, aber das Spiel an sich "gefühlt" schmeidiger läuft?

@Wolfgang
Habt ihr Interesse dem eventuell nach zu gehen?

Könnte sich ja auf wie folgt, auswirken;
Die Redaktion geht sogar so weit und empfiehlt mindestens 144 FPS für ein gutes Spielerlebnis. Denn selbst wenn die Framerate auf immer noch hohe 120 FPS fällt, hat dies bereits deutlich spürbare negative Auswirkungen auf den Spielfluss

Gruß Fred.
 
@DarkHazard wieso undervolteste du die Karte nicht einfach im sommer ? oder begrenzt ihr die TDP, wir bei 170w trotzdem mehr Leistung haben als dein lappy, der bestimmt laut noch dazu ist ^^
 
FR3DI schrieb:
Aus Sicht der FPS schon, seitens TDP wiederum nicht. Klar könnte einem bei den aktuellen Strompreisen das egal sein, wenn es um Abwärme geht, wiederum nicht.

Die RX 6000 reihe kam 2020, das die RTX 4000 serie mehr Frames per watt liefert ist doch jedem klar, auch hat 5hred nie gesagt das es um die TDP geht sondern um leistung, verstehe jetzt nicht deinen punkt dabei ^^
 
stevo6077 schrieb:
da cs2 sehr stark im competitive bereich liegt und die mehrzahl der spieler 4:3 stretched/blackbars spielt wären auflösungen wie 1024x768, 1280x960 oder sogar 1440x1080 auch relevant mMn
Jo, dann müsste man aber einen cpu Test machen und weniger einen Grafikkartentest.
 
  • Gefällt mir
Reaktionen: stevo6077 und RedSlusher
prayhe schrieb:
Du glaubst auch dass die Pros zum Spaß alle mit 24 Zoll Monitoren rumgurken, wenn es auf den Turnieren um siebenstellige Preispools geht? Auf so einem Niveau kannst du davon ausgehen, dass an allen Stellen breits optimiert wurde. Fazit ist nunmal offensichtlich, dass größer in dem Fall nicht gleich besser ist. Auf >30 Zoll CS zu spielen hätte ich persönlich auch keinen Bock. Gibt nicht umsonst einige Pros, die eine Resolution mit Blackbars spielen, damit man im Augenwinkel weniger Ablenkung hat. Das wird halt nur schlimmer bei großen Monitoren.

Das 24 Zoll Argument ist rein rechnerisch bzw. geometrisch ebenfalls nonsense. Sorry.

Wie "groß" das Display ist oder genauer gesagt, wie viel Grad deines Sichtfeldes es einnimmt, hängt vom Sitzabstand ab. Diagonale und Sitzabstand sind die zwei Variablen die am Ende die wahrgenommene Größe ergeben.

Nehmen wir mal an, ein normaler Spieler sitzt 70 cm von seinem 24 Zoll Display entfernt, das ergibt ein FoV von 41,6 Grad. (hier haste nen Rechner: http://calculator.ff.de/viewing-distance-and-field-of-view/)
Nehmen wir nun einfach mal an, diese Kombination ist Ideal, damit wären 41,6 Grad unsere Referenz.

Wenn man den Sitzabstand nur um lächerliche 10 cm auf 80 cm erhöht, braucht man bereits ein 27 Zoll Display, um das gleiche FoV von 41,6 Grad und somit die gleiche wahrgenommene Displaygröße zu erreichen.

Bei weiteren 10 cm (90 cm) braucht man bereits ein 31 Zoll Display.

Du merkst also, dass wir beim Sitzabstand innerhalb eines Bereiches von gerade mal 20 cm bereits eine Spanne zwischen 24 und 31 Zoll Displaydiagonale haben, um unsere als ideal wahrgenommenen 41,6 Grad zu erreichen.


Mir braucht also keiner erzählen, dass 24 Zoll per se ideal sind, da das einfach nur eine Variable von zweien ist. Ohne den Sitzabstand mit einzubeziehen ist es völlig nichtssagend und totaler quatsch.
Wenn dann müsste man sagen, FoV bis zu XX Grad ist sinnvoll, darüber hinaus ist kontraproduktiv, da zu groß. Das wäre rein logisch nachvollziehbar. Aber einfach nur zu sagen, dass 24 Zoll gut und alles andere zu groß ist, kann keinen Sinn ergeben.



prayhe schrieb:
Auch das kommt wieder von jemandem der scheinbar 0 in der Materie ist. Viel spielen genau deswegen andere Auflösungen. Geht mir btw genauso. Das hat auch nichts mit inkonsistent zu tun, keine Ahnung wie du zu dem Schluss kommst. In anderen FPS kannst du sogar unabhängig von deiner Resolution die horizontale und vertikale Sens einstellen.
Und "4:3" ist halt eher Umgangssprache, die meisten meinen damit ganz allgemein "stretched".

Bisschen Vorstellungsvermögen, aber ich erkläre es gerne. Stell dir vor du stellst 4:3 korrekt ohne Strech dar. Du zeichnest mit der Maus einen perfekt runden Kreis auf den Bildschirm. Deine Maus macht also eine perfekt kreisrunde Bewegung und die Darstellung am Display entspricht genau deiner Bewegung. Ein runder Kreis. So weit so gut.

Wenn du das Bild jetzt stretcht und du erneut versuchst, einen perfekt runden Kreis zu zeichnen, passiert folgendes: Du bewegst die Maus perfekt im Kreis, aber auf dem Bildschirm erscheint ein in die Breite gezogenes Oval. Nanu... Passt nicht mehr zusammen.
Die effektive Empfindlichkeit ist jetzt in der Horizontalen höher als vorher. Das ist der Punkt.

Klar kann man bei den meisten Mäusen die vertikale und horizontale Empfindlichkeit manuell einstellen. Das kann auch Sinn ergeben. Nur warum sollte man das über das gestretchte Bildformat erwirken wollen, wenn man es bei der Maus bereits einstellen kann?

So eine Seite wie https://prosettings.net/lists/cs2/ listet vertikale und horizontale Empfindlichkeit noch nichtmal als mögliche Option, obwohl genau das in diesem Kontext entscheidend wäre, da man das mit dem Stretched format maßgeblich beeinflusst.

Das zeigt mir wieder, dass man über solche Feinheiten gar nicht richtig nachdenkt...



prayhe schrieb:
Wenn es so schlecht für Esports wäre, dann würde das auch kein Pro spielen. Klar machen einen Prosettings nicht selbst zu einem, mein Punkt ist einfach nur, dass der angebliche Nachteil wohl nicht so groß ist, als dass es Leute, die damit ihr Geld verdienen, stören würde.

Da stimme ich zu. Andere Settings machen einen nicht zum Pro und für die meisten Spieler ist es Gewohnheit. Heißt aber trotzdem nicht, dass das sinnvoll oder ideal wäre.


prayhe schrieb:
Für mich fühlt es sich gerade aufgrund des Verhaltens der Sensitivity + anderer Darstellung des Crosshair, welche ich in nativer Resolution nicht hinbekomme, einfach besser an. Auch habe ich den subjektiven Eindruck mich bei dem verpixeltem Look besser aufs wesentliche fokusieren zu können. Selbst wenn ich 16:9 spiele drehe ich aus genannten Gründen meine Resolution runter. Jeder soll einfach das spielen was sich für ihn persönlich am besten anfühlt. Einen signifikanten Nachteil kriegst du, egal wie, praktisch nicht, sonst würde kein Pro der Welt darauf setzen.

Hier wieder Gewohnheit. Es gibt keinen logisch nachvollziehbaren Grund. Zumindest kenne ich keinen. Wenn du mir den liefern kannst gerne. Ich lasse mich da auch korrigieren, sehr gern sogar. Aber wenn dann will ich auch ne logisch nachvollziehbare Begründung. Anders macht es imo keinen Sinn über richtig oder falsch bzw. besser oder schlechter zu diskutieren.

Was ich eben auch nicht nachvollziehen kann: im esport ist man so erpicht auf hohe Bildwiederholraten um maximale Bewegungsschärfe zu erreichen.

Nur ist auch hier wieder der Knackpunkt, dass die wahrgenommene Bewegungsschärfe das Produkt aus spatialer und temporaler Abtastrate ist. Oder einfach ausgedrückt, das Produkt aus Bildauflösung und Bildwiederholrate.

Auf der einen Seite die Bildwiederholrate aufs Maximum zu schrauben, um maximale Klarheit haben zu können, damit man Gegner bestmöglich erkennen kann, auf der anderen Seite aber die Auflösung runterzuschrauben womit man unschärfe ins Bild bekommt und den Vorteil der höheren Bildrate wieder zum teil negiert, ist einfach quatsch, da das Auge immer nur das Produkt von beidem wahrnimmt.

Ich würde ja noch mitgehen, wenn man sagt, man macht ein ganzzahliges (integer) scaling wo man 720p auf 1440p oder 1080p auf 4K darstellt. Denn dann könnte ich mir vorstellen, dass die gröber gezeichneten kanten bzw. die größeren Pixel einfacher mit dem Auge zu fokussieren sind. Das wäre für mich ein nachvollziehbares Argument. Aber die Spieler nutzen ja nur krumme skalierungsfaktoren und dazu noch ein gestretchtes Bild, wo am Ende halt nur unscharfer Matsch bei rauskommt. Integer Scaling hingegen wäre perfekt scharf...


Also egal wie mans dreht und wendet, es ergibt größtenteils keinen Sinn.
Die einzige Erklärung ist einfach nur Gewohnheit/Einbildung.


Die Meisten der heutigen Pros haben wahrscheinlich irgendwann im Alter zwischen 10 und 15 Jahren damit angefangen, hatten absolut null Verständnis von dem was sie da machen und das ganze sicherlich nicht bis ins kleinste durchanalysiert. Kannste in dem alter auch nicht erwarten, wo soll das technische und logische Verständis auch her kommen.
Wenn man dann Jahrelang mit solchen Settings trainiert und gut wird, ist es logisch, dass solche Spieler nicht darauf klar kommen würden, wenn sich daran was ändert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cruse
Zurück
Oben