-
Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Thief im Grafikkarten- und Prozessor-Test
- Ersteller Wolfgang
- Erstellt am
- Zur News: Thief im Grafikkarten- und Prozessor-Test
H
han123
Gast
Falls der Test bei 2 Kernen mit einer nvidia-Karte gemacht wurde, würde ich mir nicht viel dabei denken, denn der Treiber skaliert extrem schlecht, wenn weniger als 4 Kerne vorhanden sind. Der AMD-Treiber kackt bei 2 Kernen nicht derart ab. Also falls Ihr mit einer nvidia-karte das Szenario getestet habt, wäre ein kurzer Gegencheck mit einer AMD-Karte nicht schlecht.
L
leckerKuchen
Gast
Nitschi66 schrieb:Ihr sagt, das thief zwingend 4 lerne bzw 4 threads benötigt, jetzt wäre aber mal ein 2kerne mit ht interessant.
Könnt ihr htt nicht im 2k Modus aktivieren ?
Im Test steht das HT durchschnittlich 2% Leistungszuwachs bringt. Denke nicht dass sich da bei weniger Kernen dramatisch etwas ändert.
Zudem haben wir auf Grafikkarten mit der Hawaii-GPU (R9 290X und R9 290) mit dem Problem zu kämpfen, dass Thief sehr häufig abstürzt. Wir versuchen derzeit mit AMD zu klären, ob dies ein Treiber- oder ein Spielproblem ist.
Ja würde mich auf jeden Fall interessieren. Obwohl die AMD Karten eigentlich sher gut sind hat man doch das Gefühl dass es bei Nvidia von Anfang an runter läuft. Ich hätte keine Lust immer auf Updates von AMD zu warten bis endlich mal ein neues Spiel läuft.
Herdware
Fleet Admiral
- Registriert
- Okt. 2011
- Beiträge
- 17.910
leckerKuchen schrieb:Im Test steht das HT durchschnittlich 2% Leistungszuwachs bringt. Denke nicht dass sich da bei weniger Kernen dramatisch etwas ändert.
Laut Artikel schon:
"Mit nur zwei Kernen stockt das Spiel dann durchgehend, sodass trotz 41 Bildern pro Sekunde kein Spielen mehr möglich ist. Thief ist dabei jedoch nicht auf vier Kerne an sich angewiesen, sondern vier Threads sind ausreichend. Denn bei zwei aktiven Kernen inklusive Hyper Threading, sprich vier Threads, läuft Thief nicht nur deutlich schneller als mit drei Kernen, auch die Hänger sind verschwunden."
Es wurde also offenbar 2-Cores+HT getestet, aber taucht nicht in der Tabelle auf. (Die aber die Hänger auch nicht zeigen würde.)
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Also das selbe wie Dragon Age Origins, wobei hier noch min. 3 Kerne genügt haben um die Engine zu beruhigen. Naja, Quads sind spätestens seit Sandy Standard.(inkl. Notebooks) Und wer noch mit Phenom II und Core 2 Quad rumgurkt, der kann sich auf Mantle freuen, dann könnte es doch wieder flüssig laufen.Denn wie in unseren Tests zur CPU-Skalierung auffiel, stockt Thief im Sekundenabstand spürbar, sobald ein CPU-Kern deaktiviert wird.
Da könnte was dran sein, sollte überprüft werden.Falls der Test bei 2 Kernen mit einer nvidia-Karte gemacht wurde, würde ich mir nicht viel dabei denken, denn der Treiber skaliert extrem schlecht, wenn weniger als 4 Kerne vorhanden sind. Der AMD-Treiber kackt bei 2 Kernen nicht derart ab.
So geil, da haben wir wieder den Crysis "TWIMTBP" Fall. Gesponsert von AMD, aber NV ist trotzdem schneller, bei Crysis wars genau anders rum. Da grinste AMD immer bis über beide Ohren.
Das seht ihrs mal wieder, das Logo am Anfang sagt absolut gar nix aus wie die Engine mit der jeweiligen GPU Architektur skaliert.
Zuletzt bearbeitet:
RiseAgainstx
Vice Admiral
- Registriert
- Okt. 2010
- Beiträge
- 6.459
JägerMeister05 schrieb:versteh nicht warum die Auswahl der Grafikkarten nicht wenigstens noch die 290 ohne X beinhaltet, da das doch P/L-mäßig die interessanteste Karte auf dem Markt zur Zeit ist.
haha der war gut, alle 300€+ Karten sind P/L mäßig komplett fürn Allerwertesten, die 290 ist da bloß das geringere Übel
viel stärker im P/L ist zB eine 280x, nochmal um einiges besser die 270x
wäre natürlich toll gewesen wenn man auch die Benchmarks durchgeführt hätte die in den AMD folien gezeigt wurden.
http://www.hardwareluxx.de/index.ph...42-beta/amd-catalyst-12-2-beta-0516e7cdd.html
stattdessen liest man dann so was:
AMD-Grafikkarten haben in Thief zur Zeit das Nachsehen gegen die GeForce-Konkurrenz, woran auch der neue Catalyst 14.2 nichts ändert – wenn auch von AMD anders propagiert.
so wie ich das sehe ist von 1080p und 1600p nur mit FXAA keine rede und wird auch nicht von AMD so propagiert.
http://www.hardwareluxx.de/index.ph...42-beta/amd-catalyst-12-2-beta-0516e7cdd.html
stattdessen liest man dann so was:
AMD-Grafikkarten haben in Thief zur Zeit das Nachsehen gegen die GeForce-Konkurrenz, woran auch der neue Catalyst 14.2 nichts ändert – wenn auch von AMD anders propagiert.
so wie ich das sehe ist von 1080p und 1600p nur mit FXAA keine rede und wird auch nicht von AMD so propagiert.
Zuletzt bearbeitet:
Nitschi66 schrieb:@leckerkuchen, dann wäre die Aussage, dass vier threads reichen ja wieder falsch.
Und die htt-Modi sind erst aktivier, wenns eh im GPU-Limit hängt
Wie im Artikel geschrieben, reichen 4 Threads fürs flüssige Zocken.
Kannst dir auch das Video anschauen da ist mit 2C+HTT getestet worden.
Kartenlehrling
Admiral
- Registriert
- Apr. 2010
- Beiträge
- 8.377
Nitschi66 schrieb:Ihr sagt, das thief zwingend 4 lerne bzw 4 threads benötigt,
jetzt wäre aber mal ein 2kerne mit ht interessant.
Könnt ihr htt nicht im 2k Modus aktivieren ?
Ja bitte,
besorgt euch ein i3-4330 und nimmt ihn in euere Test immer mit rein,
ich glaube das dieser 105€ 2/4 Intel CPU viel zu wenig Beachtung bekommt.
Shio schrieb:Kannst dir auch das Video anschauen da ist mit 2C+HTT getestet worden.
Laut dem Video sind es wohl bei einem gedrosselt i7-4770k auf 2c+HTT ca. 20fps weniger zu echten 4c Intel
(anstelle 105fps sind es 85fps).
Trotzdem würde ich gern einen "echten" i3-4330 sehen.
Zuletzt bearbeitet:
L
Laggy.NET
Gast
Endlich mal wieder ein Spiel, das absolut sauber läuft.
Max Details + SSAA läuft bei mir mit 60+ FPS. Es gibt keine schlechten Framtimes, hänger oder FPS drops, Vsync + TripleBuffering funktioniert einwandfrei, man kann FOV und co einstellen und das Spiel sieht allgemein gut aus, und es flimmert allgemein auch sehr wenig. Das SSAA wirkt selbst auf Niedrig sehr gut.
Der Wechsel zwischen Controller und Maus+Tastatur funktioniert auch on the fly, ohne dass man was umstellen muss.
So muss ein PC Port aussehen.
Aber schon lustig, dass die nVidia Karten ohne SSAA schneller sind...
Max Details + SSAA läuft bei mir mit 60+ FPS. Es gibt keine schlechten Framtimes, hänger oder FPS drops, Vsync + TripleBuffering funktioniert einwandfrei, man kann FOV und co einstellen und das Spiel sieht allgemein gut aus, und es flimmert allgemein auch sehr wenig. Das SSAA wirkt selbst auf Niedrig sehr gut.
Der Wechsel zwischen Controller und Maus+Tastatur funktioniert auch on the fly, ohne dass man was umstellen muss.
So muss ein PC Port aussehen.
Aber schon lustig, dass die nVidia Karten ohne SSAA schneller sind...
Zuletzt bearbeitet von einem Moderator:
B
BlauX
Gast
In nem Mantle Titel wird auch auf AMDs Seite keine Optimierung im DX-Pfad vorgenommen... wozu auch... wozu soll also der 14.2 etwas ändern?
MajorApplePie
Lieutenant
- Registriert
- Juli 2011
- Beiträge
- 645
WarumAuchNicht
Lt. Commander
- Registriert
- Apr. 2008
- Beiträge
- 1.744
Mit SSAA geht bei meiner GTX 570 (+ PIIX4@3,8Ghz) auf 1920x1200 leider der VRAM aus.
Was mich natürlich nicht verwundert. -> heftige Framedrops auf unter 30fps.
Selbst ohne SSAA und sonst alles auf max (+Vsync+Triple Buffer) habe ich 40-60 Frames. Auslastung der GPU ist dann so um die 70%-90% im Schnitt.
Was mich natürlich nicht verwundert. -> heftige Framedrops auf unter 30fps.
Selbst ohne SSAA und sonst alles auf max (+Vsync+Triple Buffer) habe ich 40-60 Frames. Auslastung der GPU ist dann so um die 70%-90% im Schnitt.
Morrich
Banned
- Registriert
- Feb. 2012
- Beiträge
- 3.946
Die AMD Karten haben überhaupt nicht das Nachsehen gegenüber NVidia. Man darf die Karten nicht einfach nur so vergleichen, sondern muss da eben auch die anderen Parameter wie bspw. den Preis mit betrachten.
Eine GTX 780Ti gibts aktuell erst ab ca. 560€, wärend man eine R9 290X schon für 425€ bekommen kann. Selbst, wenn man die 290X mit Alternativkühler haben möchte, zahlt man noch 90€ weniger (Gigabyte Windforce 3X) und bekommt da sogar noch BF4 und eine Werksübertaktung dazu.
Betrachtet man das also mal von diesem Standpunkt, schneidet die AMD Karte mMn deutlich besser ab.
Eine GTX 780Ti gibts aktuell erst ab ca. 560€, wärend man eine R9 290X schon für 425€ bekommen kann. Selbst, wenn man die 290X mit Alternativkühler haben möchte, zahlt man noch 90€ weniger (Gigabyte Windforce 3X) und bekommt da sogar noch BF4 und eine Werksübertaktung dazu.
Betrachtet man das also mal von diesem Standpunkt, schneidet die AMD Karte mMn deutlich besser ab.
Ähnliche Themen
- Antworten
- 6
- Aufrufe
- 1.311
- Artikel
Leserartikel
Stable Diffusion lokal auf AMD Grafikkarten
- Antworten
- 27
- Aufrufe
- 12.459
- Antworten
- 84
- Aufrufe
- 22.003
- Artikel
- Antworten
- 136
- Aufrufe
- 32.622