• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Watch Dogs: Grafikkarten- und CPU-Benchmarks

Suboptimaler Konsolenport mal wieder.

Der Rivatuner OSD und Fraps lassen das game bei mir crashen, gibt's da nen workaround?
 
Ließt sich ein bißchen so als ob Nvidia und Ubisoft Amd den Todesstoß versetzen wollen, sowohl die Karten als auch Prozessoren schneiden schlecht ab :/
 
Völlig unerwartet bewegen sich Computerspiele technisch weiter nachdem dieser grottige Bremsklotz namens Konsolen wenigstens kurzfristig mal gelöst worden ist... auf einmal benötigt es nicht nur CPU-Power, nein, auch multithreading wird vernünftig unterstützt
genau wie die Tatsache dass das Spiel VRAM vollmachen kann. Und das wo gefühlt die Hälfte des Forums erst gestern noch "niemand braucht VRAM in Full-HD, 2GB sind mehr als ausreichend" in ihren noch nicht wachsenden Bart gebrubbelt haben.
Vor diesem Hintergrund sind Highendkarten mit vier Gb VRAM plötzlich nicht mehr nur vermutet, sondern ganz real "VRAM-Krüppel". Die Powercolor Dual-Hawaii-Karte ist quasi heute schon überholt - denn für Full-HD brauch ich die Karte nicht.

Davon mal abgesehen, nachdem ich gelesen habe dass nVidia mit den Entwicklern quasi im Bett war und AMD keinen Zugriff auf den Code hatte, habe ich mir mehr erwartet. Aber so schlägt sich AMD ja doch ganz gut und weiteres Potential für den nächsten Treiber scheint da zu sein. Aber, die Treiber von nVidia scheinen mit ihren CPU-schonenden Maßnahmen unter DX11 wirklich erfolgreich zu sein. Schade dass AMD dafür auf mantle angewiesen ist. Ändert leider nichts daran dass das Spiel zwar gut mit Threads skaliert, aber dennoch keine "über"-CPU benötigt. Trotz allem ist man mit einer drei Jahre alten CPU noch gut dabei, sprich im GPU-Limit.

Fußnote: ich find es wirklich krass wie abartig schlecht die hochgelobte Maxwell-Architektur mit modernen Spielen umgeht. In den Tests der 750Ti war diese quasi auf dem Niveau der 270X, hier bricht sie ein. Klar das ist ein budget-Karte, aber bitte... eine Karte welche unter der Last moderner Spiele zusammenbricht? DAS soll die neue Architektur bei nVidia sein auf der die nächsten Jahre die Karten basieren sollen? Stromsparen schön und gut, aber mir scheint das sowas wie der 3L-Lupo zu sein. Sparsam im Verbrauch, aber so zu Tode optimiert dass der eigentliche Zweck, die Leistung, fast nicht mehr vorhanden ist.
 
TXAA - Nivida only? Oder warum gibts keinen R9 290X Benchmark?
TXAA ist immer Nvidia-exklusiv

Wäre der CPU Test mit einem AMD 8350 nicht auch sehr sinnvoll mit immerhin 8 Kernen? Würden sich sicherlich viele drüber freuen.
Hätte durchaus Vorteile. Aber ganz erhlich: Das wäre ein ziemlicher Zeitaufwand (System umbauen etc.). Für solch einen "kurzen" und recht schnell gemachten Test eher unpraktisch - ihr wollt das Ding ja auch nicht erst wer weiß wann haben :)

Warum sollten wir das tun?

Vergiss es bevor nicht die 3,0/3,5 Ghz Werte ausgebessert wurden.
Die sind schon richtig so. Das Spiel skaliert da eben nicht.
CPU-Limit hin oder her. Eine Engine kann anders reagieren wenn man unterschiedliche Komponenten ändert.

Sind eure Benches nun mit High oder Ultra Preset?
Ultra-Preset plus HBAO+
Also alles was geht.
 
DergroßeZampano schrieb:
Was sagt unser allseits beliebter Nutzer Kartenlehrling dazu?

Leider hat CB vergessen uns einen vergleich zu bringen, es fehlt der CPU Bechmark 4/4@4,4ghz .

Und im Falle einens i3-4330 macht die gtx770 zuerst schlamp,
weil wer steckt sich zu einem i3-4330 eine R9295x2 oder gtx780ti ?
 
gmc schrieb:
Ich dachte schon HTT wäre 21% schneller aber mit dem Fehler ist das nicht mehr glaubwürdig.
Wieso denn? Das spiel profitiert einfach nicht von 3,5Ghz gegenüber von 3,0Ghz. Aber man sieht ja: es ist auf Multi-Core optimiert, HT simuliert ja 4 anderen kerne und zack, hat man einen 8 kernen wie in den Konsolen ;)
@CB: Danke das ihr endlich 2K+HTT zugefügt habt, die i3 sind dadurch gut vergleichbar.

Edit: @Kartenlehrling: Was sollte das bitte bringen? Die 500MHz von 3,0 auf 3,5GHz haben ja auch schon nichts mehr gebracht
 
Zuletzt bearbeitet:
Ich hab in keinem Spiel bisher meinen CPU Lüfter gehört - unter WatchDogs ist er deutlich wahrnehmbar - die GPU langweilt sich mehr oder weniger (dümpelt bei 70 Prozent Auslastung herum - Ultra, HBAO+, TXAA 4x).

Dennoch finde ich, dass WatchDogs technisch eine herbe Enttäuschung ist.
 
Zuletzt bearbeitet:
Man, was hatte ich mich hier zu bashen lassen - 2600k vs i2500. HT Wirst du nie brauchen bla bla und jetzt das.

HT wird niemals, auch in der zukunft, nie was bringen, spar dir das geld usw. Der 2600k ist total überflüssig brauch man nicht usw usw. Man hat regelrecht den 2600k zerbasht.
Der 2600k war ein sehr guter einkauf in nachhinein.

Damals brachte ich den Artikel, da hieß es - nein der hat keine Ahung bla bla bla ..... Es war so unglaublich. Und jetzt? wo sind die Wahrsager?

Kannst du uns zudem erläutern, welche Teile der Engine in einem eigenen Thread laufen und wie euer Scheduler arbeitet? Und zu guter Letzt: Profitiert Metro 2033 von SMT/Hyperthreading?

Oles Shishkovstov: Ja, unsere Engine wurde von Beginn an für Multithreading ausgelegt. Das ist der einzige richtige Weg, denn später noch Multithreading einzubauen ist schlicht nicht möglich oder die Entwicklung verläuft äußerst suboptimal. Wir unterstützen mindesten zwei Kerne bis hin zu einer beliebigen Anzahl und erwarten eine lineare Skalierung mit steigender Anzahl, sofern die Grafikkarte nicht limitiert.

Jede Engine, die spezielle Teile in einem eigenen Thread laufen lässt, ist schlicht eine schlechte Architektur, für gewöhnlich aufgrund der verwendeten Basistechnologie. Eine solche Architektur skaliert nicht. Der einzig zukunftssichere Weg ist das so genannte "Task Model", in dem Threads einfach nur Worker-Jobs sind, welche in tausenden von Tasks in einer Art zeitabhängigem Verzweigungsprozess organisiert sind. Und genau das machen wir.

Unsere Engine profitiert (so wie jede vernünftig programmierte) definitiv von SMT. Auf der Xbox 360 etwa erreichen wir daher eine rund 50 Prozent höhere Leistung [Anmerkung: Der Xenon-Chip hat drei Kerne, wobei jeder dank SMT zwei Threads abarbeiten kann]. Wenn deine CPU also SMT beherrscht - bloß nicht abschalten! http://www.pcgameshardware.de/Metro...re-und-den-Vorzuegen-der-PC-Version-706227/2/
Ergänzung ()

Naesh schrieb:
Somit sind die CPUs ohne HT ( also i5 ) zukünfig überflüssig. Wer will denn schon auf 20% power verzichten? Herje :D

Zum Glück hab ich doch den i7 genommen :D

LOL das stimmt.
 
Zuletzt bearbeitet:
Alle Nvidia Nutzer sollten für das Spiel dringent den neuesten Nvidia 337.88 WHQL Treiber installieren, um eben ein CPU Limit zu vermeiden und ihre Grafikkarte voll auslasten zu können.

Schon heftig wie schnell doch die Hardwareanforderungen der neuesten Next Generation PC Spiele sofort angestiegen sind, seit die Spiele auf die neuesten Next Generation Konsolen optimiert werden als Lead Plattform.

Da werden plötzlich CPU's mit mehr als 4 Kernen / Treads und 400,00 Euro+ High End Grafikkarten zum absoluten Must Have für PC Spieler und endlich lohnt es sich mal wieder so richtig, sein Sparschwein zu schlachten für einen komplett neuen 1500,00Euro+ High End Rechner, der dann auch wirklich seine Stärken voll ausspielen kann.
Auch Multi GPU Systeme dürften nun einen ordendlichen Aufschwung und höhere Beliebtheit erreichen, für alle die bereits heute schon in WQHD oder UHD/4K spielen und die Mehrleistung nun wirklich benötigen.
 
Zuletzt bearbeitet:
Es ist ja nicht so, dass die damaligen Empfehlungen für Prozessoren ohne HT grundlos waren. Dass sich alte Argumente im Lichte neuer Entwicklungen erledigen, ist klar. Daraus nun den Leuten, die damals noch richtig argumentiert haben, einen Strick zu drehen, ist reine Häme.

Es tun hier auch viele so, als sei die Posaune des Jüngsten Gerichts für die Prozessoren ohne HT bereits zu hören. Dieser Trick funktioniert nur über die Spekulation "Jetzt geht es los mit Multi-Kern-Unterstützung/HT". Es handelt sich aber hier um ein Spiel - ein mittelmäßiges noch dazu -, eine handvoll andere kann man noch dazu zählen.
 
Preiset den Einfluss der "next-gen" Konsolen!
Viele Threads, wenig Takt. Selbst ein 8350 mit grottiger IPC ist auf 2.5GHz nur 8% langsamer als auf 4.5GHz!

Außerdem: ein 45/65w Kaverie a8 zieht einen 125w PII x6 ab und das ohne jeglichen l3 cache, für alle jene, einen PIII x8 haben wollten...
Bin gespannt, ob AMD bei seiner neuen Architektur CMT fallen lässt, wenn der Weg der Software weiter in diese Richtung ginge, wäre es direkt schade.
 
Zuletzt bearbeitet:
Mich würde mal ein Test mit einer Hexa-Core-CPU interessieren.
 
Ah schön. Da freut sich meine Hardware und nun habe ich endlich Urlaub und kann starten.
 
Zurück
Oben