• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Evolve-Benchmarks: 14 Grafikkarten im Vergleich

Laggy.NET schrieb:
Was habt ihr denn da für ne Szene getestet. Ich komme mit meinem System WEIT über 100 FPS. Meistens so um die 120 FPS in 2560x1080.

Uncut Video Proof mit Settings or didnt happen ;)
Dann wirst du merken dass du ohne 16xAF spielst.
Da ist die 290X dann übrigens nochmal ne Ecke überlegener.

Mich wundert es schon sehr dass Nvidia bei einem Nvidia Titel so extrem versagt hat.
Entweder das, oder AMD hat treibertechnisch endlich mal halbwegs aufgeschlossen.

mfg,
Max
 
Zuletzt bearbeitet:
lol ^^ .... jo tschö. :lol:

Ich hatte selbst die 970 und hab das geruckel bei evolve selbst erlebt ;-)
Also erzähl mir nix, sondern sei, einfach, still!
 
Schon überraschend, wie AMD hier NVIDIA Karten in den Boden stampft in nem Gameworks Titel. Und der neue NV Treiber war ja schon im Test berücksichtigt... Ich stell mir die Frage, ob die Cry Engine einfach nur gut skaliert und deswegen nicht zum Bottelneck wird im Vergleich zu anderen Spielen?
 
Die CryEngine ist halt auch die technisch am besten programmierte Engine auf dem Markt ;) Das manche Ubisoft-Engines nVidia viel mehr präferieren ist wohl eher einer Kombination aus schlechter/unzureichender Programmierung/Optimierung und dem Einfluss von GameWorks zuzuschreiben. Das nVidia-gesponsorte Games den Konkurrenten nicht liegen ist schon allseits bekannt. Da aber nVidia schon mit dem Herauspatchen neuerer DX-Versionen, die dem Konkurrenten den deutlichen Vorsprung gegeben haben geglänzt hat ist mMn GameWorks ein AMD-ausbremsender Faktor. (Ja, ich gehe von einer gewissen "Schuld" nVidias in dieser Sache aus, denn ihre letzten bekannt gewordenen Praktiken weisen irgendwie auch darauf hin, dass sie nicht immer "koscher" handeln.)
 
Naddel_81 schrieb:
und schon hat die 970 die ersten RAM-Ruckler in einem normalen Spiel (ohne 4K und UHD-Texturen).

Nope absolut nichts festzustellen in 1440p max details :) Schade finde ich, dass alle Karten mal wieder deutlich zurückfallen von 1080p zu 1440p, fast die Hälfte der Frames :( Also klar, muss stark zurückfallen :D Aber 60fps in 1440 wären mal cool. Da brauchts neue Grakas :)
 
Ja schon klar, ich sehe Gameworks auch eher als einen Konkurrenzbremser. Und grade bei den UBISOFT Spielen war das ja auch mehr als offensichtlich. Nun wundert es mich halt, das grade bei nem Gameworkstitel, der nicht auf die üblichen verdächtigen Engines setzt, der Unterschied so deutlich ist. Scheint als würden in dem Fall die AMD GPUs mal von ihrer theoretischen, hohen Rohleistung profitieren.
 
Wie schon angemerkt wurde liegt die Cryengine den AMD Karten, siehe Crysis, Ryse of Rome oder jetzt Evolve.
 
max_1234 schrieb:
Uncut Video Proof mit Settings or didnt happen ;)
Dann wirst du merken dass du ohne 16xAF spielst.
Da ist die 290X dann übrigens nochmal ne Ecke überlegener.

Mich wundert es schon sehr dass Nvidia bei einem Nvidia Titel so extrem versagt hat.
Entweder das, oder AMD hat treibertechnisch endlich mal halbwegs aufgeschlossen.

mfg,
Max


Was interessiert es mich, ob du mir glaubst oder nicht. Was hab ich denn davon? War nur als Hinweis gemeint, weil ich eben sehr viel mehr FPS erreicht habe. Kann ja sein, dass da ein Fehler unterlaufen ist. Viele Games laufen z.B. beim wechsel der Grafikkarte nicht mit voller Geschwindigkeit, da manche Engines diverse Optimierungen laufen haben, wenn diese oder jene Grafikkarte erkannt wird. Meist muss man dann die Config datei einmal komplett löschen, damit die Spiele optimal laufen. Dass nVidia hier unverhältnissmäßig schlecht dasteht, während ich deutlich mehr FPS erreiche, verstärkt diesen Verdacht nur zusätzlich.
Oder Computerbase hat eine besonders fordernde Szene gefunden. Kann ja auch sein. Ich wollte damit nur zum Ausdruck bringen, dass der bench nicht das wiederspiegelt, was ich in der Praxis die meiste Zeit beim Spielen gesehen habe. Nicht mehr und nicht weniger.

Hier jedenfalls, für dich ein Benchmark, der meine Aussagen nur bestätigt: http://www.gamersnexus.net/game-bench/1782-evolve-graphics-benchmark-nvidia-vs-amd

Da haben wir mal eben 106 FPS im Durchschnitt mit einer GTX980 @ 1266 Boost (meine EVGA knapp 1400 MHz) Sind meine Aussagen immernoch so unglaubwürdig??


Wie gesagt, kann sein, dass die Szene besonders fordernd war, aber es ist eben einer der wenigen benches, in denen ich auf völlig andere Werte komme. Da ist es doch nur logisch, dass man den Test dann nicht blind als unumstößliche Wahrheit akzeptieren kann.



Supermax2004 schrieb:
Nope absolut nichts festzustellen in 1440p max details :) Schade finde ich, dass alle Karten mal wieder deutlich zurückfallen von 1080p zu 1440p, fast die Hälfte der Frames :( Also klar, muss stark zurückfallen :D Aber 60fps in 1440 wären mal cool. Da brauchts neue Grakas :)


Das ist mir auch aufgefallen. Während 1920x1080 extrem gut läuft, und 2560x1080 (21:9) noch sehr ähnlich, brechen die FPS extrem ein, sobald ich DSR nutze. 60 FPS mit ner halbwegs sinnvollen DSR Auflösung sind in 21:9 nicht möglich. Mit 16:9 kann ichs leider nicht testen, da sich die DSR Auflösungen an meinen 2560x1080 orientieren. Aber allgemein kann man in dem Titel Downsampling und co eigentlich komplett vergessen mit nur einer GPU.
 
Zuletzt bearbeitet von einem Moderator:
Das Ergebnis überrascht doch stark bei einem Gameworks-Titel, das stimmt. Hätte ich so nicht erwartet.

Mal sehen wann ich es mir holen werde, reizen würde es mich ja schon. Habe die Alpha gespielt und die lief bei mir erstaunlich gut auf einer GTX 680 4GB mit max Details und 1,2x Downsampling (immer min. 45 FPS erzielt).
 
premiumtitel im jahre 2015 und keine 21:9 unterstuetzung nach etlichen berichten waehrend der alphas/betas -.-

B9f5JTfIAAAYTJB.jpg
 
Laggy.NET schrieb:
Was interessiert es mich, ob du mir glaubst oder nicht. Was hab ich denn davon? War nur als Hinweis gemeint, weil ich eben sehr viel mehr FPS erreicht habe. Kann ja sein, dass da ein Fehler unterlaufen ist. Viele Games laufen z.B. beim wechsel der Grafikkarte nicht mit voller Geschwindigkeit, da manche Engines diverse Optimierungen laufen haben, wenn diese oder jene Grafikkarte erkannt wird. Meist muss man dann die Config datei einmal komplett löschen, damit die Spiele optimal laufen. Dass nVidia hier unverhältnissmäßig schlecht dasteht, während ich deutlich mehr FPS erreiche, verstärkt diesen Verdacht nur zusätzlich.
Oder Computerbase hat eine besonders fordernde Szene gefunden. Kann ja auch sein. Ich wollte damit nur zum Ausdruck bringen, dass der bench nicht das wiederspiegelt, was ich in der Praxis die meiste Zeit beim Spielen gesehen habe. Nicht mehr und nicht weniger.

Hier jedenfalls, für dich ein Benchmark, der meine Aussagen nur bestätigt: http://www.gamersnexus.net/game-bench/1782-evolve-graphics-benchmark-nvidia-vs-amd

Da haben wir mal eben 106 FPS im Durchschnitt mit einer GTX980 @ 1266 Boost (meine EVGA knapp 1400 MHz) Sind meine Aussagen immernoch so unglaubwürdig??


Wie gesagt, kann sein, dass die Szene besonders fordernd war, aber es ist eben einer der wenigen benches, in denen ich auf völlig andere Werte komme. Da ist es doch nur logisch, dass man den Test dann nicht blind als unumstößliche Wahrheit akzeptieren kann.






Das ist mir auch aufgefallen. Während 1920x1080 extrem gut läuft, und 2560x1080 (21:9) noch sehr ähnlich, brechen die FPS extrem ein, sobald ich DSR nutze. 60 FPS mit ner halbwegs sinnvollen DSR Auflösung sind in 21:9 nicht möglich. Mit 16:9 kann ichs leider nicht testen, da sich die DSR Auflösungen an meinen 2560x1080 orientieren.

Tests mit Referenzkarten! Nix hoher Takt...
 
Gigabyte Windforce3 7950 1150/1350, 1920x1080, Einstellung "Hoch", verbrauch VRam 2,4 - 3GB VRam, 38-48FPS Durchschnitt

Gigabyte Windforce3 7950 1150/1350, 2560x1440, Einstellung "Hoch", verbrauch VRam 3GB VRam, 22-26 FPS Durchschnitt
 
KLEMSI schrieb:
Tests mit Referenzkarten! Nix hoher Takt...

Hoher Takt? Der Boost Takt der Karte im von mir verlinkten Test ist ganze 26 MHz höher, als das Referenzdesign. Menschenskinder..... :rolleyes:
Ich bin raus, wird mir echt zu blöd jetzt.
 
Laggy.NET schrieb:
Dass nVidia hier unverhältnissmäßig schlecht dasteht, während ich deutlich mehr FPS erreiche, verstärkt diesen Verdacht nur zusätzlich.

Och bitte, CB haben doch schon gesagt, dass sie mit den Referenzkarten getestet haben. Dazu sei der HT4U Test deiner Karte nahegelegt:
http://ht4u.net/reviews/2014/evga_geforce_gtx_980_superclocked_im_test/index42.php

Entfesselt man die EVGA GTX 980 SC ACX 2.0 mittels manuellem Eingriff über Tools, so erhält man fast durch die Bank Taktraten von über 1.400 MHz bei der GPU und schafft im Mittel über alle Spiele, einen Abstand von 14 Prozent gegenüber einer GTX-980-Referenz zu erreichen. Die Leistungsaufnahme fällt dann aber entsprechend höher aus. Mit bis zu 215 Watt muss man rechnen – maximal möglich wären 223 Watt. Die Effizienz beginnt also hier zu leiden.

Deine Karte mit mit ihren 1400MHz also deutlich schneller als die von CB genutzte GTX980. 14% auf die 90fps bei CB geben ja bereits knapp 103 fps.


Inwieweit dein verlinkter Test taugt... keine Ahnung was die innerhalb der letzten 4 Wochen noch am Spiel geändert haben, aber der testet nur in medium und very high, und da sind die Unterschiede schon sehr minimal.
Die GTX980 in dem test ist auch keine Referenzkarte.
 
Zuletzt bearbeitet:
es wäre schön wenn sie auch ältere cpu´s testen und auch grakas.gibt genug die nur ein i5/i3 fahren oder ein i7 3770k.Bei den graka´s genauso.Hilft mir nicht wirklich weiter wenn die gtx970 oder höher getestet wird.Genauso die AMD R9 280x,290.Die test waren früher viel umfangreicher.Da wurde mehr in der mitte getestet als im oberen bereich.Jeden ist klar das man mit der neusten cpu,graka es spielen kann aber im unteren bereich weiß man es nicht.Finde ich sehr schade da vielleicht 30% gerade mal die neuste hardware hat und 70 % haben ältere hardware komponente.Ich fahre selbst ein i7 3770k mit einer 6950oc und reiz sie aus bis nichts mehr geht.Solange ich ich es im mittel-high bereich spielen kann hol ich mir nichts neues.CPU/graka x nicht spielbar, cpu/graka xy beschränkt spielbar,cpu/graka xyz flüssig spilbar.
 
Laggy.NET schrieb:
Was interessiert es mich, ob du mir glaubst oder nicht. Was hab ich denn davon?
Der Wahrheitsgehalt deiner Posts geht generell gegen Null.

Laggy.NET schrieb:
Kann ja sein, dass da ein Fehler unterlaufen ist.
Ist so. Anscheinend interessierts dich nun eine Zeile später doch wieder?

Laggy.NET schrieb:
Viele Games laufen z.B. beim wechsel der Grafikkarte nicht mit voller Geschwindigkeit
Quelle? Nachweise? Referenzen? Irgend eine minimalistische Unterstreichung deiner 0-Gehalt Behauptung? Irgendwas? Oder unterstellst du dem CB Test unzureichende Treiber-Handhabung?

Laggy.NET schrieb:
Dass nVidia hier unverhältnissmäßig schlecht dasteht, während ich deutlich mehr FPS erreiche, verstärkt diesen Verdacht nur zusätzlich.
Und jetzt sind deine ersten 2 Zeilen wieder vergessen? Du bist schon ein komischer Vogel ;)

Laggy.NET schrieb:
Da haben wir mal eben 106 FPS im Durchschnitt mit einer GTX980 @ 1266 Boost (meine EVGA knapp 1400 MHz) Sind meine Aussagen immernoch so unglaubwürdig??
Ja, auf der von dir angegebenen Seite steht kein Wort von anisotropic filtering. Es wurde also ohne getestet (CB: 16x). Hier läge die 290X höchstwahrscheinlich schon in 1080p vor deiner GTX980.

mfg,
Max
 
Zuletzt bearbeitet:
Bei genauerer Betrachtung zeigt sich jedoch, dass die GTX 970 immer wieder Daten aus dem Speicher löscht, um neue Daten zu laden. Genau dann kommt es zu den störenden Rucklern.

hier ruckelt gar nix, selbst mit Cpu fressendem Livestream nebenbei und 30 offenen Tabs etc... und stärker schon mal gar nicht.
 
@Trinoo
Hast du den ganzen Absatz gelesen? Mir scheint nicht so:
Zu einem Großteil wiederholt sich das Spielchen in 3.840 × 2.160: ....... Bei genauerer Betrachtung zeigt sich jedoch, dass die GTX 970 immer wieder Daten aus dem Speicher löscht, um neue Daten zu laden. Genau dann kommt es zu den störenden Rucklern.
Das Bezieht sich eindeutig auf UHD und da glaub ich schon das der VRAM der GTX970 zu wenig wird.
 
Zurück
Oben