News Mantle, CPU-Skalierung, DSR und 4K in Civilization: Beyond Earth

HerrFornit schrieb:
Doch, wenn endlich wieder FÜR den Treiber programmiert wird und nicht andersherum.

Das ist ein Geben und Nehmen. Manche Sachen kann man mit Workarounds umgehen, was auch gemacht wird. An anderer Stelle ist der Treiber schlicht kaputt oder das Spiel dann zu langsam. Deshalb auch Mantle: Der Treiber soll schlank und fehlerfrei sein, sodass wenn etwas kaputt ist es höchstwahrscheinlich am Spiel liegt. Das macht das Debugging deutlich einfacher. Weniger anspruchsvolle Spiele können weiter generische APIs benutzen.
Und wenn du sagst FÜR den Treiber programmieren... für welchen denn? Für Nvidia? Für AMD? Für Intel? Für eine bestimmte Version? Was in einem Treiber funktioniert geht in einem anderen nicht. Auch Dinge, die per Spezifikation funktionieren müssten.
 
Zuletzt bearbeitet:
Sehr netter Test. Und schön das Mantle DirectX und NV Beine gemacht hat und weiter machen wird. Mehr Leistung für lau über API oder Treiberoptimierungen in diesem Ausmaß - hat es das schon mal gegeben? Ich glaube nein.
 
Also bei optimaler Ausnutzung der 290er Karten sieht man wohl, dass sie der 900er Reihe tatsächlich ohne Probleme das Wasser reichen kann (zumindest performance-technisch) :)

Wahrscheinlich funktioniert DX auf den (neueren) AMD Karten nur noch, weil es einfach mit drin ist. Da werden wohl keine Optimierungen für den Treiber bezügl. der DX Version in AMD Karten geflossen sein. Ist auch logisch. Warum sollte man 2 APIs für eine Kartegeneration optimieren, wenn man einfach die bessere API wählen kann und diese dann optimiert (Außer für die ganz alten Karten, die jedoch ohne hin eine andere Technik haben)

Das ist auch der Grund, weshalb fast alle DX/Mantle games in DX auf AMD Karten nicht optimiert sind. Macht keinen Sinn 2 Paar Schuhe schustern, wenn man nur 1 paar anziehen wird.
 
Zuletzt bearbeitet:
Dodonsky schrieb:
Gibts in dem Game auch Actionreiche Szenen und Ansprechende Musik?

Sieht Öööööööde aus.

Wir wollen Games mit Krassen Partikel Effekten, übertriebene Polygone usw.
Dann den Graka Battle :)

Wie alt bist du? 12?
 
Edit: Vielleicht noch eine kleine Anmerkung: eventuell hättet ihr beim 290x bench das Strommessgerät anschließen können, um die Behauptung der Entwickler, Mantle würde Strom sparen, zu untermauern/widerlegen. Wäre kein großer Aufwand, aber ev. eine interessante Anmerkung
Verdammt, das ist mir gestern leider unten durch gegangen...Ein kleiner Run lässt sich aber vielleicht (!) noch nachholen.

Also den Abstand der 290x auf die 980 von 24% auf 2% zu drücken, ist jetzt nicht so schlecht.
Um fair zu bleiben musst du aber von max zu max vergleichen.

Also wenn es wie bei Civ-V ist, dann bleibt das UI bis 2560x1440 gut lesebar sogar 2880x1620,
weil das UI grösser wird und somit die skalierung ausgleicht, 4k (3840x2160) sind aber nicht mehr wirklich
lesebar.
Also zumindest beim Downsampling ist das Menü bei 2.880 nur noch "gut lesbar" wenn ich gleich drei Augen zudrücke ;) Es geht, aber da muss man schon genau hinschauen.

Wer zur Hölle hat sich für das Format entschieden?
Die Tests hätte man wirklich übersichtlicher gestalten können.
Es ist nicht optimal, das wissen wir. Zur Zeit lässt sich da aber leider nichts dran ändern.

Es fehlen noch die Minimum FPS bzw. Frametimes (wie immer bei CB ) außerdem wäre es interessant zu wissen, ob Mantle die Rundenladezeit nennenswert verringern kann.
Zu den Minimum-Frames habe ich mich schon oft geäußert, diese "mag" ich nicht bzw. erachte ich einfach als wenig sinnvoll. Da müsste man sich schon ein komplexeres System ausdenken. Und Frametimes sind bei Mantle-Spielen zur Zeit nicht einfach. Du glaubst alleine gar nicht, was man erstmal anstellen muss, um einen blöden AVG-FPS-Wert aus Civ rauszuquetschen. Es fehlt einfach ein FPS-Mantle-Tool.

Der im Artikel genannt wird, kann man wo laden?
Auf der CB Downloadseite ist derzeit nur der 14.9.1
zu finden
De rkommt heute noch :)

2 Sachen die mir fehlen. Ihr sprecht davon dass bei Mantle + MSAA EQAA aktiviert wird, habt aber keinen Kommentar verloren wie das aussieht (bemerkbar besser wie MSAA?).
Wie gut schlecht performt SFR im Gegensatz zu AFR. Und kommt dazu noch ein Bench/Test? Ist ja ziemlich einzigartig.
Ein genauer EQAA-Test steht noch an. So einfach und schnell wie das klingen mag ist es leider nicht durchzuführen.
Die Multi-GPU-Umsetzung scheint in Civ noch nicht integriert zu sein. Da tut sich bei der zweiten GPU aktuell noch nichts.
 
der Unzensierte schrieb:
Mehr Leistung für lau über API oder Treiberoptimierungen in diesem Ausmaß - hat es das schon mal gegeben? Ich glaube nein.

War zu den Zeiten, in denen alle halbes Jahr eine neue GPU- und CPU-Generation raus kam, die die Leistung nahezu verdoppelte, wahrscheinlich auch einfach nicht nötig.
Erst seit die Leistungszuwächse bei der Hardware nicht mehr so rasant sind, lohnt es sich wieder, mehr Arbeit in die Optimierung der API- und Treiber zu stecken.
 
dcc22 schrieb:
Bei Mantle hätte man sich bemühen müssen dass es ein offener Standard wird, damit die Abhängigkeit von DirectX (und somit auch von Windows!) auf allen Rechnern verschwindet !

Laut AMD soll Mantle mal so offen werden, dass es alle benutzen können, wenn sie wollen.

t3chn0 schrieb:
Deshalb bin ich gar nicht so auf dem, "kauf die 970er" Trip. Denn die 970er lohnt sich vor allem bei starker CPU, wie auch die 980er.

Was du vergisst: Auch ein momentan Starker CPU/GPU wird mal ein schwacher CPU/GPU.
Mit Mantle hat man also die Chance seine gekauften Produkte länger zu nutzen (wenn man es denn will ;) )

D4rk_nVidia schrieb:
Dann kann ich endlich wieder Linux Distributionen gescheit nutzen :D
Weiß nicht was du hast bei meine HD4670M läuft unter Ubuntu 14.04 sehr gut und im Gegensatz zu Windows 8.1 kann ich unter Ubuntu sogar den HDMI Port nutzen :rolleyes:

DocWindows schrieb:
Dieser Dank ist aber schon ein wenig vergiftet, oder? AMD investiert Geld in ne neue API und das Schöne daran ist dann dass DX 12 kommt, welches bei allen Karten, auch anderer Hersteller, funktioniert? Find ich immer ein bißchen problematisch.

Aber nicht auf allen Betriebssystemen ;)

HerrFornit schrieb:
Doch, wenn endlich wieder FÜR den Treiber programmiert wird und nicht andersherum.

riDDi schrieb:
Und wenn du sagst FÜR den Treiber programmieren... für welchen denn? Für Nvidia? Für AMD? Für Intel? Für eine bestimmte Version? Was in einem Treiber funktioniert geht in einem anderen nicht. Auch Dinge, die per Spezifikation funktionieren müssten.
/signed, bloß nicht, dann wird der Treiber verwendet von der Firma die mehr zahlt und wer das ist hat man gut in der Vergangenheit gesehen :rolleyes:
 
zeedy schrieb:
Oha, vielen Dank für diesen umfangreichen Technik Test! Finde es einfach super, dass die Redaktion anscheinend mitliest und auf Verbesserungsvorschläge reagiert. Beim letzten Benchmark hatte ich gebeten auch einen FX mitzutesten, weil ja nicht jeder einen i7 hat, und schon ist er dabei. Danke dafür.

Hab mir bisher nur kurz die Diagramme angeguckt, aber was mir wieder auffällt: die R9 285 war in den letzten 3 Benchmarks immer sehr nah an der 280X, bei weniger Shadern, kleinerem SI, deutlich geringerer Leistungsaufnahme und geringerem Takt. Bemerkenswert ;)

Das war mein Reden, die 285 schlägt die 280 zumindest in Full-HD. Und wenn man den Chip im Vollausbau bringt, dann wildert man zu nahe an der 290 rum... Deswegen kam der so...
 
Handysurfer schrieb:
Mantle erstaunt mich gar nicht und ist auch kein Grund plötzlich keine nvidia Grafikkarten mehr zu kaufen, denn diese bieten mir einfach mehr.

Wie bei Battlefield bereits gezeigt, sorgt Mantle für mehr FPS auf Kosten der Optik/Grafik, was ja nun lächerlich ist, das könnte ich theoretisch auch selbst machen und für mehr FPS sorgen, nur kann ich durch Mantle eben die Zeit sparen, bestimmte Dinge an der Grafik/Berechnung selbst zu ändern, zu testen und vor allem im Internet nach der Vorgehensweise zu suchen...

jaja, genau. Das alte Beispiel von BF4 und der schlechteren Grafik unter Mantle. Das war ganz am Anfang der Fall und wurde innerhalb einer Woche behoben und war nicht alleine die Schuld von AMD. Das war der erste Titel der Mantle überhaupt unterstützt hat, also mal locker durch die Hose atmen.

Auch der Rest deines "Beitrags" ist voller Internet AMD/Nividia Klischees und hat nix mit der Realität zu tun.
Wie man in diesem Test sieht, kann eine schwächere CPU dank Mantle um 71% zulegen. Frag dich einfach mal ob du das selbe geschrieben hättest wenn Mantle von Nvidia wäre. Ich glaub wir wissen beide die Antwort.
 
JackTheRippchen schrieb:
Für Technik-Fans, die auch das CPU-Limit interessiert. Und nebenbei spielen manche Menschen auch auf Notebooks mit der Krüppelauflösung von 1366x768, da ist 1280x720 nicht weit weg.
Mit niedrigen Auflösungen in Spielen lassen sich keine CPU-Hardware-Limits nachweisen. Das sollte spätestens mit dem erscheinen von Mantle jeden einmal klar werden. Wäre hier seit Jahren ein CPU-Limit gemessen worden in Tests, wäre es völlig unmöglich aus der selben Hardware mit einer Softwareänderung, wie es die Mantle-API gegenüber DX bedeutet, mehr Leistung herauszuholen. Spiele sind Code für die GPU. Damit lassen sich keinerlei CPU Limits messen. Lediglich Software-Limits und GPU-Limits. Für CPU Tests gibt es andere taugliche Software.

Immer wieder wird AMD gelobt, dass sie mit Mantle Druck auf Nvidia und MS machen wegen Optimierungen. Doch wird häufig vergessen, dass entscheidend bei Mantle ist, dass die Entwickler der Spiele dies wollen. Mantle-Spiele sind mit einer sehr kleinen Treiberschicht ausgestattet, da bei Mantle ein großer Teil aus dem Treiber in die Engine verlegt worden ist, die ja für alle GPU Hersteller gleich sind. Das bedeutet es gibt wesentlich weniger zu optimieren in den Treibern und somit ist der Einfluss weiter zu Gunsten der Entwickler verlagert.
 
Zuletzt bearbeitet:
BeezleBug schrieb:
kann eine schwächere CPU dank Mantle um 71% zulegen. .

Das is Ja schön, in dem Test wurde bei den AMD-Tests immer mit der 290X gestestet ...
Bei der folgenden Testreihe wird AMD durch eine Radeon R9 290X repräsentiert, während Nvidia durch eine GeForce GTX 980 vertreten ist. Bei den CPUs kommen Intel Core i7-4770K sowie AMD FX-8370 zum Einsatz.
Die 71% beziehen sich hierzu alleine auf den FX8370 + 290X > Mantle vs DirektX bei nicht mal FHD bei FHD sind es schon nur noch 45%....

Nun die große Preisfrage:
Wer von den AMD Besitzern hat den eine Karte alla 270X 4GB oder größer gepaart mit einen kleinen Athlon/Richland/Trinity/Kaverie?
 
Daedal schrieb:
Mit niedrigen Auflösungen in Spielen lassen sich keine CPU-Hardware-Limits nachweisen. Das sollte spätestens mit dem erscheinen von Mantle jeden einmal klar werden. Wäre hier seit Jahren ein CPU-Limit gemessen worden in Tests, wäre es völlig unmöglich aus der selben Hardware mit einer Softwareänderung, wie es die Mantle-API gegenüber DX bedeutet, mehr Leistung herauszuholen. Spiele sind Code für die GPU. Damit lassen sich keinerlei CPU Limits messen. Lediglich Software-Limits und GPU-Limits. Für CPU Tests gibt es andere taugliche Software.

Ich glaube, ein Großteil wird das nicht verstehen... Aber keine Angst - die gab es schon als Mantel kam - da hatte ich auch diese Diskussion...
Wobei ich jetzt ketzerisch bin... Ein CPU-Limit wird schon ermittelt - unter schlechten Schnittstellen halt... Aber wie du deine CPU stresst ist ja eigentlich am Ende egal...
 
Daedal schrieb:
Spiele sind Code für die GPU. Damit lassen sich keinerlei CPU Limits messen. Lediglich Software-Limits und GPU-Limits. Für CPU Tests gibt es andere taugliche Software.

(Mal agesehen davon, dass "Softwarelimit" ja letztlich auch nichts anderes als CPU-Limit bedeutet.)

Klar sind Spiele grafiklastiger als die meisten Anwendungen oder gar synthetische CPU-Benchmarks.

Trotzdem gibt es auch Spiele, die einen nenneswerten Anteil an reiner CPU-Last erzeugen, die eben nicht nur der GPU zuarbeitet bzw. aus Overhead der Grafik-API besteht.

Civilization ist doch ein ganz gutes Beispiel dafür. Auch wenn das Spiel gar keine Grafik hätte und z.B. nur Texttabellen ausspucken würde, würden die Runden im Endgame und auf großen Karten trotzdem nicht in Nullzeit ablaufen. Einfach weil ein großer Teil des Spiels aus aufwändigen Berechnungen und AIs besteht.

Tatsächlich war Civ5 auch eines der Spiele, an dem ich seinerzeit bemerkt habe, dass es Zeit wird, meinen alten C2D auszumustern. Da half auch kein Grafikkartenupgrade mehr. Das zeigte sich weniger in zu niedrigen FPS (die bei so einem Spiel eh nicht so wichtig sind), sondern dass die Wartezeiten zwischen den Zügen einfach unerträglich lang wurden und sich Civ5 sogar oft mittendring aufhing.

Mit sowas wie Mantle und DX12 kann man mehr Ressourcen der CPUs für eigentliche "CPU-Aufgaben" frei machen, aber das zeigt doch auch nur, dass CPU-Leistung bei Spielen immer eine Rolle spielen wird.

Würd mich z.B. auch nicht wundern, wenn bei den neuen Konsolen, die ja schon von Anfang an hardwarenahe APIs ala Mantle haben und bei denen die Software mehr auf die Hardware maßgeschneidert wird, die vergleichsweise schwachen Jaguar-Cores oft zu einem größeren Flaschenhals werden, als GPUs.
 
versus010919761 schrieb:
Top Test!!!
Echt genial was Mantle leistet

Ich weiß nicht, ob wir den gleichen Test gelesen haben, aber AMD
ist mit Mantle langsamer als Nvidia ohne.

Wer gehofft hatte, dass Mantle ähnlich krass einschlägt wie
damals Glide, ist spätestens jetzt eines besseren belehrt worden.
 
Selbst wenn im Optimalfall je nach Spiel 50% oder mehr möglich im Nvidia Treiber möglich sind, wer weiß den schon, ob das den nicht irgendwann aus dem Treiber rausfliegt? Glaube nicht, das man z.b für 50 Spiele den Treiber problemlos anpassen kann, vor allem ohne das er künstlich aufgeblasen wird, Mantle bleibt immer im Spiel, sofern es nicht rausgepatcht wird.
 
Dafür wohl bessere Framestimes, höhere min FPS und bessere DUAL GPU Performance.

http://www.pcper.com/reviews/Graphi...mance-Maxwell-vs-Hawaii-DX11-vs-Mantle/2560x1

Aber das ist ja heutzutage alles unwichtig nur noch der längere Balken zählt...

Ab davon dass eine sonst gleich starke GTX 970 auseinandergenommen wird und eine sehr viel teure GTX 980 grade mal auf Full HD vorne liegt. Aber ist ja alles nicht relevant. Solange Mantle existiert darf Nvidia eben von Hand jedes einzelne Spiel optimieren. Win Win für beide Käuferseiten. Auch das ist ein Effekt der Mantle zu verdanken ist.
 
borizb schrieb:
AMD ist mit Mantle langsamer als Nvidia ohne.

Das ist aber bestenfalls die halbe Wahrheit!

Mit dem i7-4770K @ Standardtakt liegt die GTX 980 auf Full HD lediglich noch 2% vor der R9 290X @ Mantle, kostet aber (in der aktuell preiswertesten erhältlichen Version) 200 € mehr:

http://geizhals.de/?cmp=1049898&cmp=1167976

Also 2 % Mehrleistung bei 60 % Aufpreis - hmmm :rolleyes:

LG N.
 
Zuletzt bearbeitet:
EngeldesHasses schrieb:
Nun die große Preisfrage:
Wer von den AMD Besitzern hat den eine Karte alla 270X 4GB oder größer gepaart mit einen kleinen Athlon/Richland/Trinity/Kaverie?

Tja weiss wohl keiner wieviel das sind, weder du noch ich, daher ist die "Frage" auch nicht wichtig.
Dieser Test zeigt einfach wie groß der Sprung sein kann, was daran schlecht sein soll, kannst du uns bestimmt allen erklären.
 
Zuletzt bearbeitet:
HerrFornit schrieb:
wenn endlich wieder FÜR den Treiber programmiert wird

Ein größerer Teil der Optimierung seitens der Treibers besteht auch darin den Shadercode des Entwicklers durch anderen Shadercode zu ersetzen der auf der eigenen Hardware schneller ausgeführt wird.
Die Grafikkartenhersteller bauen ihre Shadereinheiten als Hardwareeinheiten ja komplett anders auf. Darum muß man eben optimierte Treiber haben, die den generischen Code in für die eigene hardware performanten Code umwandeln. Man kann also nicht wirklich "für" einen Treiber programmieren.

derGrimm schrieb:
Laut AMD soll Mantle mal so offen werden, dass es alle benutzen können, wenn sie wollen.

Es gibt da aber zwei Seiten. Einmal die Seite des Spieleentwicklers der die API nutzen kann wenn er will. Auf der anderen Seite aber auch den Hardwarehersteller, der Mantle garantiert nicht einfach so implementieren kann wenn er will. Davon gehe ich fest aus und glaube alles andere erst dann wenn ich es schwarz auf weiß sehe.
Mal ganz abgesehen davon dass Mantle für die interne Funktionsweise der eigenen Chips gar nicht ausgelegt ist und evtl. sogar kontraproduktiv ist.
 
Zuletzt bearbeitet:
BeezleBug schrieb:
Tja weiss wohl keiner wieviel das sind, weder du noch ich, daher ist die "Frage" aus nicht wichtig.
Dieser Test zeigt einfach wie groß der Sprung sein kann, was daran schlecht sein soll, kannst du uns bestimmt allen erklären.

Natürlich kann er das.....da steht doch "AMD"..... scheiß NV Fanboy - Balkenkiddies.

Ich finde den mantle Fortschritt von beta zu jetzt sehr interessant.
 
Zuletzt bearbeitet:
Zurück
Oben