Test Rise of the Tomb Raider Benchmarks: Beeindruckende Grafik mit hohen Anforderungen

Die perfekte Werbung für das neue 3-Wetter-Taft "Combat" - egal, ob Schweiss, Schlamm oder Blut, die Haare wehen selbst nach Tagen wie Seide im Wind ...
Der graphische "Realismus" geht irgendwie in die falsche Richtung ;)
 
wow, die haare sehen nice aus. Aber bei tomb raider schaut man eher weiter runter :p
 
EchoeZ schrieb:
Die perfekte Werbung für das neue 3-Wetter-Taft "Combat" - egal, ob Schweiss, Schlamm oder Blut, die Haare wehen selbst nach Tagen wie Seide im Wind ...

sehr geil ! - anders kann ich diesen Hinweis nicht kommentieren ;)
 
k0ntr schrieb:
wow, die haare sehen nice aus. Aber bei tomb raider schaut man eher weiter runter :p

Genau, weil vornerum ja alles Wegrationalisiert wurde :lol:

Spaß beiseite - schöner Test, mal selbst einen Feldversuch machen - alter i5 + 280X in 1050P, dank der Fast HD Auflösung läuft eigentlich alles bei mir Flüssig und Gut.
 
Da werde ich mit meiner kleinen r9 270x wohl noch auf Optimierungen warten müssen. Aber kein Problem. Ich muss nicht immer erster sein;).
 
1. wir leben im jahr 2016 und CB habt ihr nix besseres vor als verpixelte videos zu liefern?
wie wäre es in 1080p/4k?

2. das bild auf seite 1 mit dem vergleich tressfx an aus ...naja ohne sieht es besser aus :S zumindest auf dem bild für mich
 
Ich habe zwei Wochen, bevor der GTX970 Skandal ans Tageslicht kam meine 970 als Ersatz für eine HD7970GHz bekommen. (Dezember 2014)
Damals habe ich lange gehadert, ob ich nicht die 7970 wieder nehme und auf die 390er warte oder auf eine 290x wechsel.
Da ich damals FC4 in ordentlicher Qualität zocken wollte, habe ich mich doch entschlossen die GTX970 zu behalten, da die 3xx Serie weit weg war und die 290x keine Chance in Sachen Effizienz gegen die 970 hatte. Bisher habe ich es noch nie bereut. Die insbesondere in den letzten Monaten gibt es so viele Games, die zu Release auf den AMD-Karten schwach performen. Und selbst wenn ich mal ein Spiel haben sollte, welches wegen des beschnittenen Speichers mal unter 2560*1080 hakt, dann muss ich damit leben, dass ich dort eben an den Einstellungen frickeln muss. Was solls.
Dennoch ist es zweifelsohne so, dass ich liebend gerne wieder zu AMD schwenken würde, weil die Nvidia Skandale (zählt für mich auch das offenbar gezielte sabotieren der alten Karten durch unterlassene Optimierung) eben nerven... Ich hoffe dieses Jahr kann ich lohnenswert wechseln. Werden die Spiele nicht anspruchsvoller und die Karten nicht erheblich schneller, lasse ich das.
Btt: Mich würde wirklich interessieren warum man auf DX 12 verzichtet hat. Wäre doch werbemäßig auch gut gekommen.
Haare waren bei Lara Croft ja immer schon Anlass technischer Neuerungen (hier wäre doch asynchronous computing was gewesen). ;)
Auch ein Haarvergleich der XBone- und PC-Version wäre mal nett.
 
Hab auch schon bei Tomb Raider 2013 viele Effekte deaktiviert, weil die oft kaum Mehrwert bringen, dafür aber die Performance total in die Knie geht. Sieht man hier ja wieder schön bei Tesselation. Performance geht in den Keller, Änderungen muss man sogar in Vergleichsbildern mit der Lupe suchen. Flüssige sehr gute Grafik machen da mehr Spaß als extrem ruckelige supertolle Grafik.
 
Prokiller schrieb:
2. das bild auf seite 1 mit dem vergleich tressfx an aus ...naja ohne sieht es besser aus :S zumindest auf dem bild für mich
So gings mir auch, dachte aber dann naja es liegt am Alter das ich nimmer so gut den Unterschied sehe :lol:
 
Turrican101 schrieb:
Hab auch schon bei Tomb Raider 2013 viele Effekte deaktiviert, weil die oft kaum Mehrwert bringen, dafür aber die Performance total in die Knie geht. ...
Wenn du das auf deinem C64 zockst, musst du aber verdammt viel abschalten. :-D
 
Laggy.NET schrieb:
Generell finde ich die Situation bei AMD jetzt wirklich mehr als bedenklich. Allgemein so viele Schwankungen bei der Framerate und dann schafft man im CPU limit nichtmal mit nem übertakteten 4770K mit 4K 8T @ 4,4 GHz die gleiche Framerate wie bei Nvidia mit 2K 2T @ 3,5 GHz.
Das ist leider ein absolut vernichtendes Ergebnis. Ich will gar nicht wissen, was passiert, wenn man hier zusätzlich noch eine mitteklasse AMD CPU nutzen würde, anstatt nen Haswell mit hoher IPC. Das game wäre ja völlig unspielbar. Ich hoffe AMD findet hier mit den Entwicklern schnellstmöglich eine Lösung. Das wird ja von Monat zu Monat schlimmer.

Ist ja lustig wie du das siehst :lol: nicht dein Ernst oder?
1. AMD Karten performen hier generell schlecht. Da muss AMD anscheinend wieder einmal die Arbeit der Spielentwickler machen. Dass Nvidia mit weniger Takt schneller läuft liegt ganz offensichtlich nicht an einem möglichen CPU Limit.
2. Die Fury X ist in der ersten Szene mit 4.4GHz 4K+4T gerade einmal 8% schneller als mit 2,5GHz und nur 4K. Und in der anderen Szene, die anscheinend ein Worst Case Szenario darstellt, ist 4.4+4K+4T 15% bzw 7 fps schneller als mit 2,5 +4K.

Das ist mitnichten ein "absolut vernichtendes Ergebnis"... wie wäre es mit etwas Objektivität? Das ist einfach ein weiteres Spiel, das auf AMD nicht gut optimiert wurde und wo Nvidia ganz zufällig dabei ist. Man sollte sich eher fragen, wie es sein kann, dass dieses angeblich CPU fordernde Spiel auf den 1,7GHz Notebook Kernen der Xbox one überhaupt läuft. Und warum es nicht DX12 unterstützt, wenn es doch für die Xbox One optimiert wurde. Warum wird meine Radeon in GTA5 bei zig NPCs, Autos und anderen Objekten gleichzeitig auf dem Bildschirm zu 100% ausgelastet und liefert tolle Frameraten, mit einem alten 3,5GHz Xeon? Liegt vielleicht doch nicht alles an den bösen AMD Treibern, sondern auch am Spiel selbst? :rolleyes:

Läuft ein Spiel schlecht auf AMD oder erzeugt es eine unnötig hohe CPU Last/Treiber Overhead, ist immer nur deren Treiber schuld. AMD's DX11 Treiber haben Probleme mit hohen CPU Lasten, aber das ist bei weitem nicht so "schlimm", wie manche Nvidia User es immer wieder beschreiben. Lächerlich.
https://www.computerbase.de/2015-06...schnitt_benchmarks_auf_dem_intel_core_i52500k
 
Zuletzt bearbeitet:
TR (2013) war schon echt gut, bin wirklich sehr auf RotTR gespannt. Lasse mir da aber noch ein paar Wochen/Monate Zeit, die HD7950 wird wohl ohne weitere Optimierungen nicht mehr so viel Spaß machen.
 
Laut PCGH würde man wohl nun den Augenmerk auf AMD legen
Nebenbei kündigte unser Pressekontakt bei Square Enix weitere Optimierungen mit besonderem Augenmerk auf AMD an
Also anscheinend weniger ein Treiberproblem...

Mehr schreibe ich mal nicht zu :D
 
Zuletzt bearbeitet:
Danke für den Test!

2 Sachen:

1) Warum ist die GTX 780 (Ti) so unterirdisch schlecht? Die 780 war doch immer ca. auf GTX 970 Niveau.
2) Wann kommt Pascal raus? Wollte meine GTX 780 erst zu Pascal in Rente schicken, aber ist ja Wahnsinn, wie schlecht die Karte mittlerweile abschneidet in einigen Games. Ist das Software/Treiber bedingt (verglichen mit ner GTX 970/R9 390/etc.)
 
PR3D4TOR schrieb:
1) Warum ist die GTX 780 (Ti) so unterirdisch schlecht? Die 780 war doch immer ca. auf GTX 970 Niveau.

Das ist sie bei neueren Spielen leider oft nicht mehr und wird sogar mehrfach von einer 960 überholt. Einfach mal Tests aktueller Spiele seit erscheinen der 900er Serie studieren.
 
Ist mir schon aufgefallen. Gibt es da einen Grund? Treiberseitige Limitierung zum Nachteil der älteren GTX 700 Karten? Wenn das Absicht ist, dann war das meine letzte nV Karte.
 
Würde mich auch interessieren wie es mit dem 3d Vision Support ausschaut?
Der Vorgänger war dank 3d Vision Support eines der beeindruckendsten Games die ich je gesehen hab.
Leider ist es bei den Entwickler völlig aus dem Fokus geraten.

Auch interessant das man mit einer GTX 970er in sehr hohen Details und 1080P einen schöneren Fps verlauf hat als eine R9 290X er mit voll ausgebauten 4gb, das sollte zu denken geben. Das muss wie ein Tritt in den Arsch für AMD User sein oder @EXTREME ;)

Das eine 980er besser in 2560 zu recht kommt darf man auch erwarten bei dem Aufpreis zur 970, das vergessen halt viele.
Nvidia ist nicht blöd und machen solche Sachen genau aus solchen gründen.
 
Zuletzt bearbeitet:
CyberdyneSystem schrieb:
Laut PCGH würde man wohl nun den Augenmerk auf AMD legen

Also anscheinend weniger ein Treiberproblem...

Mehr schreibe ich mal nicht zu :D

Ja ist doch super oder? Erstmal das Spiel releasen, benchen lassen, AMD in den Benchmarks scheiße aussehen lassen. Danach kann man auch mal ein bisschen für AMD optimieren. Ist ja nicht das erste Mal, dass es so läuft. Für wen so etwas wohl vorteilhaft ist...
 
CyberdyneSystem schrieb:
Laut PCGH würde man wohl nun den Augenmerk auf AMD legen

Also anscheinend weniger ein Treiberproblem...

Mehr schreibe ich mal nicht zu :D
Finde ich allgemein sehr besch...eiden, egal ob das für Nvidia oder AMD gilt. Als Entwickler sollte ich es schaffen, das Spiel zum Release gleichermaßen für beide Seiten optimiert zu haben und nicht noch verstärkt bei einem der beiden nach Release nachhelfen zu müssen.
 
PR3D4TOR schrieb:
Wann kommt Pascal raus?

Die Gerüchteküche spricht mittlerweile davon, dass Big Pascal (GP100) in der zweiten Jahreshälfte rauskommen wird. Ob davor ein kleinerer Pascal (GP104) zur Jahresmitte erscheinen wird, ist ungewiss, aber durchaus sehr wahrscheinlich. Genaueres wird man eventuell zur GDC Mitte März erfahren.
 
Zurück
Oben