• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Fallout 4 Benchmarks: Atomares Spiel mit durchschnittlicher Technik

Zuletzt bearbeitet:
zeedy schrieb:
Hab ich die Stelle nicht gesehen, oder hielt man es für nicht nötig zu erwähnen, dass es ein Nvidia gesponsertes TWIMTBP Titel ist?

Das nennt sich Software-Support für Hersteller. Leute, Werkzeuge, Support,..nimmt man gern wenn man es bekommt. Den kann sich scheinbar AMD nicht leisten und NV ausstechen sonst gäbe es weniger Gameworks Titel. Den Fehler sucht man hier besser bei AMD die mit Support nicht in die pushen kommen.

ampre schrieb:
http://www.hardwareluxx.de/index.ph...-zwischen-amd-und-nvidia-ueber-gameworks.html

Siehe auch benchmarkrks Farcry4 Release und jetzt. Vorher AMD unterirdisch jetzt rennt AMD NVIDIA davon!

Der Link hat bis auf Vermutungen auch nichts. Sagt doch selbst:

Solche Aussagen sind wie immer mit großer Vorsicht zu genießen, denn dahinter steckt oftmals viel Marketing.

Das einzige was das aussagt ist, dass Hersteller Features besser bei Entwickler der Features laufen. Was für ein Wunder..das kriege ich mit jeder Software hin, wenn ich nicht noch für meine Konkurrenz optimieren möchte.
 
Zuletzt bearbeitet:
Einhörnchen schrieb:
Interessant finde ich den Abstand zwischen Maxwell und Kepler. Während beim Maxwell-Launch das übliche "lohnt sich nicht aufzurüsten" zu hören war zeigen mit zunehmender Zeit die Spiele-Benchmarks, dass je länger neue Techniken da sind sie auch genutzt werden und sich in der Performance deutlich niederschlagen (zuletzt Anno, jetzt Fallout). Ich kann mir gut vorstellen, dass das zb bei Skylake auch so sein wird.

Das würde ich so nicht unterschrieben. Da Gameworks eingesetzt wird kann mann davon ausgehen das Programmierer von Nvida ihre Finger im Renderpfad hatten ;-)

Es ist sehr Auffällig das Kepler und AMD mittlerweile in allen Spielen den kürzeren ziehen, bei deren Entwicklung nvidia mitgeholfen hat. Siehe Anno, COD BO3, Witcher 3 oder Project Cars. Bei Project Cars war der Aufschrei noch laut genug, so das nvidia einen Treiber bereitgestellt haben der die Parität zwischen der 970 und der 780ti wieder hergestellt hat.

Das AMD zufällig in den gleichen Spielen schwächelt in denen Kepler langsamer als Maxwell ist halte ich für äußerst dubios und bestätigt den Verdacht das nvidia massiv in die Performance ihrer Mitbewerber und ihrer legacy Produkte eingreift.

Das geschieht entweder per Gameworks Framework mit dem Ziel AMD zu schwächen und / oder per Treiber um Kepler auszubremsen.
 
Man entwickelt solch ein Spiel nun mal nicht in 14 Tagen. Ergo hat man halt nur die Engine vor X Jahren zur Verfügung.
 
Die Technik (Grafik) soll bei so einem Spiel idealerweise super sein, logisch, mir reicht bei einem guten RPG aber "zweckmäßig" als grafisches Gerüst vollkommen aus. Wasteland 2 habe ich verschlungen und das Spiel punktet nicht gerade mit "Bombastgrafik".

Außerdem machen die Modder den Rest (Texturen und co.) nur leider ist das Spiel relativ polygonarm was man mit Mods nicht mal eben beheben kann.

Auch das "fummeln" mit der ini. ist irgendwie ein Ritual von Bethesda. Einerseits nervig, andererseits kann man eben "fummeln :D"

Ich werde es mir morgen oder so kaufen, allerdings erst in 2 Wochen spielen können...
 
Zuletzt bearbeitet:
[Es ist sehr Auffällig das Kepler mittlerweile in allen Spielen den kürzeren zieht, bei deren Entwicklung nvidia mitgeholfen haben. Siehe Anno, COD BO3, Witcher 3 oder Project Cars.
Wo soll denn das Problem bei Witcher3 sein, richtig konfiguriert ist hier doch kein Unterschied zu NVidia.
Finds eher lustig das nicht abschaltbares VSync als negativ zählt, ich fänds umgedreht schlimmer. Ist auch unlogisch sich über unruhiges Bild zu beschweren und dann VSync abzustellen
 
Ich finde die Grafik ok damit kann ich leben meine Hardcore Grafikhurenzeiten sind vorbei und wenns sein muss hat man dafür ja Star Citizien derzeit.
Und sollte nicht lange dauern bis erste ini tweaks auftauchen . Ebenso wird die fleissige Community ja sicher bald auch Texturepacks und co. liefern.

Das Flimmer ist jedoch übel und FXAA hätte man sich direkt sparen können.
Das einzig gute ist das TAA das flimmer gut in den Griff bekommt ohne bei der Perfomance viel zu kosten. Die Unschärfe nehme ich persönlich gottseidank nicht so stark war wie andere.
Doch wo bleibt das so hochgelobte MFAA von Nv ist ja immerhin ein Gameworks titel und die Technik haben sie beim Maxwell release vorgestellt?

Ich bin kein Freund von 4 k und die Grafikkarten single sind leider noch sehr schwach, aber Auflösung ist immer noch ein sehr guter weg das ganze gut und ohne Unschärfe in den Griff zu bekommen, daher kann man nur hoffen das 4k sich schnell verbreitet und Nv oder Amd hier mit der nächsten Generation eine gute Performancebasis schaffen.
Wieviel kostet TAA bei den mid Range Karten hätte mich auch interessiert 960 und 380 als vergleich für die 200€ Klasse.

Ansonsten sind mir die Probleme fast schon egal, da es kein Game mehr gibt das mich so hypen kann das ich es am releasetag kaufe. Ja damit werde ich zwar nichts verändern weil 100 millionen anderer Konsumlemminge trotzdem kaufen , aber ich mache da nicht mehr mit. Ausserdem kommt man nach 1 Jahr dann in den Genuss optimierter Treiber und vielen Mods.
 
Zuletzt bearbeitet:
strex schrieb:
Das nennt sich Software-Support für Hersteller. Leute, Werkzeuge, Support,..nimmt man gern wenn man es bekommt. Den kann sich scheinbar AMD nicht leisten und NV ausstechen sonst gäbe es weniger Gameworks Titel. Den Fehler sucht man hier besser bei AMD die mit Support nicht in die pushen kommen.

Da nicht nur AMD, sondern auch Kepler von einem Performance Gap betroffen sind halte ich nichts von deiner Aussage. Nvidia übertreiben im Moment total. Diese Firma mogelt und manipuliert wo sie kann.
 
ampre schrieb:
@Strex
Oh ja Support! Man könnte es auch finanzielle Hilfe nenne. Die Entwicklerstudios die das machen werden sich noch wundern. Sobald NVIDIA ein Monopol hat dreht sich das um und man muss bezahlen wenn das Spiel auf NVIDIA gut laufen soll!

Und? Als Entwickler nehme ich das gerne mit. Gratis Hilfe, bei 80% läufts dann rund und spare eigenes Personal. Besser kann man es nicht machen. Macht jeder Hersteller so, frag mal Hersteller von DBs ob die Ihre Ausführungsengine auch für andere Hersteller optimieren :D

tek9 schrieb:
Da nicht nur AMD, sondern auch Kepler von einem Performance Gap betroffen sind halte ich nichts von deiner Aussage. Nvidia übertreiben im Moment total. Diese Firma mogelt und manipuliert wo sie kann.

Manipuliert sicher nicht, die stecken aber keine Ressource mehr in alte Baureihen für die Optimierung. Man möchte ja seinen Umsatz ankurbeln und die alten Serie ist bereits verkauft. Normales vorgehen in der Marktwirtschaft.
 
@Kasmopaya:

In einem TWIMTBP-Titel, mit versteckten, schwierig ausschaltbaren Gameworks-Effekten feierst du also den Triumph der 980Ti?

Als in Black Ops 3 AMD irgendwie recht deutlich vor nVidia performance-technisch dastand, haben alle auf bescheidene Programmierung gewettert (womit sie auch recht haben). Wenn nun aber in Fallout 4 das Verhältnis andersherum liegt, wird auf Treiber oder Architektur von AMD geschossen?
Das Spiel ist von Bethesda (einem Publisher, der nicht für sein Können bei der Programmierarbeit bekannt ist) auf einer sehr alten, aufgebohrten Engine, die sehr anfällig für Bugs ist. In gewisser weise fand ich es damals noch witzig, dass mir wegen meinen FPS in Skyrim wütende Mammuts auf den Kopf gefallen sind. Heutzutage sind aber Engines, die mit FPS skalieren eben nicht mehr zeitgemäß.

Ein Witcher 3 oder Dragon Age hat es vorgemacht: gute Story, gute Technik, gute Performance bei beiden Herstellern von GPUs. Diese Spiele verwenden auch neue, effiziente Engines, die gute Optik abliefern. Fallout 4 hingegen hat mit der Gamebryo- Engine eine Engine, die bereits in Morrowind zu tragen kam.

Fury X und 980Ti sind in vielen Spielen mehr oder weniger gleichauf. Diese auffälligen Diskrepanzen in Fallout 4, Black Ops 3 und Anno 2205 haben höchstwahrscheinlich andere Ursachen und ich finde es höchst verwerflich den "Sieg" eines Flaggschiffes aufgrund ominöser Umstände zu feiern, wenn bereits bewiesen wurde, dass die Performance @ Stock eigentlich gleichauf liegen sollte.
Denn was hast du davon, dass eine 980Ti aufgrund schlechter Software vor dem Konkurrenzprodukt steht? Ideal für den Verbraucher ist Konkurrenz, nicht Monopol, dementsprechend sollte man solche Software-Probleme nicht unter den Tisch kehren.
 
alxtraxxx schrieb:
Wo soll denn das Problem bei Witcher3 sein, richtig konfiguriert ist hier doch kein Unterschied zu NVidia.

Korrekt , wenn man Witcher richtig konfiguriert, also wenn man Gameworks ausschaltet läuft Witcher3 mit den letzten Patches auf AMD vergleichbar wie auf nvidia Karten

. Schön das du mir widersprechen willst und meine Aussage bestätigst ;-)
 
@ampre

Nichts mit Abhängigkeit. Das Spiel ist fertig, die meisten Ressourcen werden abgezogen. Zum Start bei nächsten Titel wird wieder evaluiert und vielleicht bringt ein anderer Hersteller ein besseres Paket. Man nutzt in der Entwicklungszeit das beste Paket. Völlig verständlich.

Was soll der Link sagen als was ich predige:

WCCFTech reports that Fallout series developer Bethesda Studios has teamed up with Nvidia to bring the GPU maker's graphics technologies to the PC version of its upcoming game. GameWorks is a program that provides developers access to Nvidia's CUDA tools, GPU profiling software and other resources, including a set of optimized libraries to allow developers to create certain graphic effects in their games.

Das gefällt mir als Entwickler sehr.
 
@Strex
Das ist kurzfristig gedacht! Man gibt Kernwissen ab, macht sich ersetzbar und Spiele werden zum Einheitsbrei.

Wenn jeder Hinz und Kunz ein Spiel per Gameworks zusammen bauen kann wer brauch da noch Bethesta! Denk mal drüber nach!
 
Zuletzt bearbeitet:
EXTREM schrieb:
Also ich bin schon etwas verwundert das die Redaktion auf CoD so abgekotzt hat und bei Fallout wird nichts gesagt.
Fallout liefert mir auf Maximum 45 FPS und CoD 65 FPS und das obwohl meiner Meinung nach CoD die besser Grafik bietet.

Eventuell sollte sich Computer Base mal die einen oder anderen Gedanken machen!!!

Du vergleichst jetzt nicht im Ernst FallOut mit COD? Bei einem von beiden wird eine komplette Welt simuliert, beim anderen 80 Feinde die getriggert hinter Ecken vor laufen. Und ein COD lebt quasi von der Grafik, es gibt überhaupt keinen Grund statt den 3 Teilen die schon in der Sammlung rumkullern einen neuen zu spielen, außer vielleicht die Grafik. Ansonsten hat sich doch in Sachen Gameplay und Story da seit COD3 quasi nix getan.

Ich find die Benchmarks eigentlich gar nicht so übel, eine 380/950 für flüssiges Spielen bei 40fps in FullHd und ultra ist doch eigentlich ziemlich human -.-
 
@ampre: Ok danke für den Link. Das ist natürlich nicht schön und sowas schadet im Endeffekt immer den Spieler.

Tomsenq schrieb:
Das Spiel ansich ist vom aufbau und Umfang deutlich besser als jedes Call of Doofy oder Butterfeld. Aber scheinbar nichts für Grafikhuren die alles kaufen egal wie schlecht Programmiert, Hauptsache sieht "geil" aus.
Spiele sind für mich nichts anderes als Benchmarks. Die Storys interessieren mich nicht.
Um 60 EUR erwarte ich mir ein technisch Top Spiel mit guter Umsetzung. Und ich kaufe eben NICHT alles egal wie schlecht es Progammiert ist. Vom neuen CoD und Batman habe ich auch die Finger gelassen.

Außerdem hast du NICHT zu entscheiden, was MIR das Spiel wert ist!
 
Colonel Decker schrieb:
60€ für ein Spiel, in dem die meisten etwa 50-200 Stunden verbringen werden dürften "gehen gar nicht"?

Witcher 3 hat mich bei GOG 45€ gekostet. Hab ich aktuell 150h und technisch liegt das weit vor FO4. Solchen Vergleichen muss sich Fallout dann leider stellen.
 
strex schrieb:
Das gefällt mir als Entwickler sehr.

Und ist Kurzsichtig, wenn man den Rest aus dem Link nicht liest und/oder nicht etwas weiter denkt.
NVidia greift mit dieser Art und Weise den Entwicklern unter die Arme, gleichzeitig aber macht sich der Entwickler bezüglich der Performance / Engine-Entwicklung von NVidia abhängig. Wenn es irgendwelche Probleme gibt, dann muss der Entwickler immer wieder zu NVidia rennen und um Hilfe bitten.
Dass das ganze natürlich NVidia auch nicht einfach so macht und früher oder später dann den Spieß umdreht, weil man ja ein Quasi-Monopol erreicht, und dann Geld von den Entwicklern verlangt, das bedenkt man nicht.
Oder das NVidia vllt. bei Floptiteln dann einfach die Unterstützung verweigert / unzureichend ist, das bedenkt man auch nicht.
Bei AC Unity wird ja bis heute noch auf die verbesserte Tessellation gewartet, die ja von NVidia umgesetzt werden sollte, weil NVidia das ja als groß versprochen hatte, bei der Zusammenarbeit mit Ubisoft. Aber AC Unity war ja (leider) ein technischer Flop auch auf dem PC, wozu also noch darum kümmern?

Es ist daher nicht gut, sich als Entwickler auf solche Spielchen einzulassen. Sicher, beim ersten Blick wirkt das toll, immerhin wird man unterstützt und spart Geld und Zeit bei seiner Entwicklung. Aber die Folgeschäden/Probleme, die dann auftreten können, die kann man dann ohne die Hilfe NVidias nicht beseitigen und hat dann, wenn NVidia nicht weiter unterstützt, ein Problem.


@ Topic:

Danke, CB, dass ihr auch ältere Karten mit in den Test aufgenommen habt.
 
Zurück
Oben