• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Call of Duty Benchmarks: Black Ops III hat viele Macken und ist ein VRAM-Killer

Die Frage ist: Ist die Grafik besser als in der Beta? Fand die da ne Frechheit, das ganze Bild war unscharf und schwammig.

Und dass das Spiel hatte keine richtige 21:9-Unterstützung ist das mittlerweile gefixt?
Wenn ja kann man nochmal drüber nachdenken aber sicher nicht zum Vollpreis.

Interessant hingegen dass das Spiel unter AMD deutlich besser performt wenn man mal bei dem kleinen Problem bei Fiji absieht der sicherlich noch gefixt wird.
 
Wann wird Activision die Serie endlich einstellen ?
Gegen die Wand gefahren wurde sie ja schon längst.
Nur einige kapieren es nicht, u. stopfen denen weiter Ihr Geld in deren Rachen / kaufen jedes überteuerte DLC, u. leben mit einer Grafik und Technik von vor 10 Jahren. Und es ist doch immer noch jedes Jahr im Singleplayer das gleiche schlauchartige Moorhuhnspiel im Grunde.

Ich habe mit Black Ops II die Serie verlassen, u. hätte es schon bei Modern Warfare II tun sollen.
Modern Warfare I und World at War waren die besten Call of Duty´s für mich.
Kenne da auch unzählige Spieler von früher, die beide Teile gehabt haben.
Da es zu der Zeit noch nicht über Steam lief (was damals ein Segen war), habe ich darüber keine genaue Anzahl.

Aber in Steam kann man sehen, wer alles welche Version besitzt.
Und meine Auswertung dazu sagt einiges aus. In meiner Freundesliste haben

58 Freunde "Modern Warfare II"
44 Freunde "Black Ops"
39 Freunde "Modern Warfare III"
21 Freunde "Black Ops II"
14 Freunde "Ghost"
10 Freunde "Advanced Warfare"
05 Freunde "Black Ops III"

Also, sieht doch wie ein Countdown in den Abgrund aus :-)
Mag sein, das das nur bei mir so aussieht, weil ich nicht zu den jüngsten zähle, u. ich keine "Kiddies" in der Freundesliste habe.

Schaut doch mal bei Euch nach. Ist interessant :-)
 
Zuletzt bearbeitet:
Das wäre eigentlich der erste COD Teil den ich mir seit laaaaaanger Zeit wieder gekauft hätte.
Ich meine... es würde laufen.... aber.... es bestätigt u.a. warum ich diese Reihe lange gemieden habe.
Ich hab eh Zeit und kann warten bis es im Angebot ist. Vielleicht hab ich dann sogar Zeit es zu spielen^^
 
Black Ops III benötigt bei der maximalen Texturstufe „Extra“ extrem viel Grafikkartenspeicher; obwohl die Texturen auch auf höchster Stufe nicht beeindrucken. Auf einer GeForce GTX Titan X liegt die Speicherbelegung mit maximaler Texturstufe Extra jedoch bei knapp neun Gigabyte.

Igoo schrieb:
Ich glaub das Spiel verdient eine goldene Himbeere oder so etwas für die Optimierung ^^


Exakt, was ich erwartet habe. Seit Modern Warfare 2 nutzen sie die gleiche Engine und bohren nur immer weiter auf. Ghosts war eine glatte Katastrophe an Performance und Optik. So das Gegenteil von Witcher 3. Bin nicht sicher, ob Black Ops seine eigene Engine hat, die immer weiter hochgedreht wird oder die gleiche. Solange nicht ein CoD kommt, das eine vollständig neue Engine (!) nutzt, spiele ich es nichtmal umsonst.
 
Zuletzt bearbeitet von einem Moderator:
Ich glaube, Black Ops hat eine eigene. Denn MW3 sah selbst auf einem PC sehr verschwommen aus. Das Spiel bestand voll u. ganz aus unerträglicher Pixel-Matsche, während Black Ops u. Black Ops II gestochen scharfe Texturen hatten.
 
Wo sind denn jetzt die Leute wo gedacht oder erzählt haben 4GB HBM wären wie 8GB GDDR5. Das ist wohl doch nicht der Fall, auch AMD macht aus 4GB nicht 8GB. Sondern muss ebenfalls beim Swapping über den langsamen PCIe.

Krautmaster schrieb:
den VRam Tod den die GTX 970 / GTX 780 dabei stirbt trifft quasi gleich schnell die Fiji Karten mit HBM genau wie alle 4GB Karten ... selbst die GTX 980 TI mit 6 GB steht zwar nicht gut da aber hat noch etwas Luft (+50% halt...)

Das dachte ich auch gerade bzw. die Leute die über die 12GB der Titan X gelacht haben, dass werde in nächster Zeit nicht gebraucht. Wie immer Programmierer sind Faul, da zählt halt nur mehr Speicher und höhere Single Core Performance.

zeedy schrieb:
Das 4GB HBM Management der Fiji GPU ist hocheffizient. Sonst würde sie in fast jedem aktuellen Spiel in UHD einbrechen wegen zu wenig VRAM, was sie eben fast nie tut.

Das ist so Effizient das aus dem 4GB HBM 8GB GDDR5 werden. Wie man sieht tut es das nicht. Denn eine 390 holt bei hoher Auflösung im Gegensatz zur niedrigen auf. Also haben die bejammerten Titan X Kunden alles richtig gemacht.
 
Zuletzt bearbeitet:
Hier sollte man mal neben der falschen Schadenfreude lieber das Entwicklerstudio allein diskreditieren für die grottige Umsetzung.

Jeder 2GB/3GB Grafikkarten-Besitzer schaut durch die Röhre also vermutlich noch der Großteil der Gamer. Die 970 hat endlich ihren Meister gefunden, die restlichen GPUs mit 4GB folgen zugleich - toll, eine GTX 980 oder 290X mit 4GB ist schon überholt für solche Mistumsetzungen. Batman oder Black Ops, was darfs sein wenns um sowas geht?

Jeder normal denkende Mensch sollte vom Kauf absehen, bereits gekauftes stornieren und solche Machenschaften absolut ablehnen - dagegen ist Battlefront ein richtiger Wurf ( optisch und effizienzmäßig ). Und btw. Die Beta von Blackops 3 hat meine 970 spielend gemeistert ( waren auch nicht alle Details freigeschalten ). Man hat sich also anscheinend verschlechtert. Einfach nur grottig!
 
Mich interessiert, ob eine GTX770 mit 4GB auch gegen eine 960 mit 4GB erbärmlich versagt? Ich wittere wieder so ein Debakel wie mit Witcher und Anno, wo Kepler am Anfang auch bescheiden lief/läuft.
 
MaLow17 schrieb:
Ja die Fury stirbt einen sehr qualvollen Tod OMG ganze 2% langsamer als die GTX 980 Ti und du vergleichst diesen 2%igen qualvollen Tod der Fury mit der GTX 970, die wirklich kein Land mehr sieht? Glaubst Du eigentlich wirklich an das, was Du von Dir gibst?

https://www.computerbase.de/2015-11/benchmarks-call-of-duty-black-ops-iii/2/

Hier für dich zum Nachlesen:


Machst hier wieder den KrautKasper oder wie? :)

sagt der der den Test nich gelesen hat ^^ :hammer_alt:

Meinste GTX 970 und Co sterben früher als Fiji nur weil letztere HBM hat? Ganz klar, der Titel hier verbraucht unverhältnismäßig viel VRAM, aber man erkennt deutlich wie einige Titel in letzter Zeit mit 4GB schon eng werden. Genau deswegen würde ich auch eher zur R9 390 / 390X greifen wenn ich ehrlich bin. Auch aus preislichen Aspekten.

P.S.: Für dich nochmal:
Für die höhere Auflösung von 2.560 × 1.440 Pixel reichen vier Gigabyte allerdings schon nicht mehr aus. Black Ops III ist zwar spielbar, stockt aber ab und zu. Acht-Gigabyte-Karten laufen dagegen perfekt, auch mit Sechs-Gigabyte-Modellen gibt es keine Schwierigkeiten.

Der Kurztest hier hat auch ne Seite 1 ;)

Edit:

Ja 4 GB Karten laufen noch, wenn gleich nicht perfekt (zumindest in Max). Fiji -> Treiberproblem, hier heißt es abwarten, aber die Tendenz ist ja wohl klar. GTA5, ACU, Batman, Black Ops 3, alles VRam Killer die mit 4 GB laufen aber schnell unrund werden. Gerade jetzt wo 8GB Karten auch schon mit der R9 390 vergleichsweise günstig zu bekommen sind gehen die Anforderungen an den VRam auch wieder hoch.
Auch lustig wie Fanboy Zeedy immer ne rot grün Diskussion draus machen will dabei gehts schlicht um die Feststellung dass 4 GB zunehmend eng werden, egal welche Farbe ^^
 
Zuletzt bearbeitet:
Ich sehe es schon kommen das in 2 Wochen ein Community Patch kommt und dann läuft das alles auf einmal mit 2Gb VRAM :D .
 
Also ich finds echt gut ,das COD BO III den COD Bobs solche Probleme macht :D


Evtl Spielen sie dann mal einen richtigen Shooter,und nicht diesen Killstreak misst.
 
Konsolenentwicklungen....
 
Vitec schrieb:
Ich sehe es schon kommen das in 2 Wochen ein Community Patch kommt und dann läuft das alles auf einmal mit 2Gb VRAM :D .

bei dem bisschen Grafik sollte es auch. Die Frage ist wo diese "VRam Sucht" der Engines / Ports neuerdings herkommt?

Vielleicht weil auf den heutigen Konsolen tendenziell auch mindestens 4GB für VRam zur Verfügung stehen, eventuell auch dynamisch zugeteilt. Diese rechnen aber in niedrigerer Auflösung und haben weniger GPU Leistung. Ich denke dass die Entwickler bezogen auf die GPU Leistung also bei ihrer Gameentwicklung für Konsolen eher üppig VRam haben, was sich vielleicht auf den Desktop Port auswirkt.
 
strex schrieb:
Wo sind denn jetzt die Leute wo gedacht oder erzählt haben 4GB HBM wären wie 8GB GDDR5. Das ist wohl doch nicht der Fall, auch AMD macht aus 4GB nicht 8GB. Sondern muss ebenfalls beim Swapping über den langsamen PCIe.

Das dachte ich auch gerade bzw. die Leute die über die 12GB der Titan X gelacht haben, dass werde in nächster Zeit nicht gebraucht.

Benchmarks überhaupt gesehen? Also die Fury X schlägt sich doch hervorrangend unter 3.840 × 2.160 mit "nur" 4GB HBM Speicher gegenüber der R9 390 mit 8GB GDDR5 bzw. der GTX 980 Ti mit GDDR5.
https://www.computerbase.de/2015-11/benchmarks-call-of-duty-black-ops-iii/2/#diagramm-cod-black-ops-iii-3840-2160

Erzähl uns mal bitte, wie viele Gamer eine Titan X mit 12GB für über 1000€ ihr Eigen nennen. Und da wir wissen, dass Nvidia Probleme mit Directx 12 Titeln hat und haben wird (Stichwort Asynchronous Shader), bringt dir der 12 GB GDDR5 Speicher einer Titan X nicht wirklich viel bei zukünftigen Spielen, vor allem, weil dann Nvidia die Kunden im Stich lässt, wenn eine neue Generation (Pascal) auf den Markt kommt. Sieht man doch schön an Kepler und Maxwell, mit welcher Leidenschaft Nvida die ältere Generation wirklich alt aussehen lässt, damit die neuere Generation besser dasteht. Total sinnfrei sich solch eine Karte zuzulegen für den Preis eines kompletten Spielerechners...
 
Zuletzt bearbeitet:
Für die Detailstufe High reichen hingegen auch in 2.560 × 1.440 vier Gigabyte – außer der GeForce GTX 970, die erneut stockt

Und genau liegt doch das Problem. Für 1440p wäre eine GTX 970 mit OC stark genug aber die Texturen müssten man dann auf Medium stellen. Zugegeben mit Fiji müsste ich die Shadows eben auf high stellen, aber das lässt sich beheben, die Anbindung einer GTX 970 jedoch nicht. Auch wenn es so manchen nicht passt aber es gibt definitv ein Unterschied zwischem dem Speicherkonstrukt einer GTX 970 und "echten" 4GB Speicher einer GTX 980/R9290(x)/Fiji. Was umso schwerer wiegt da es sich hier um ein Nvidia Spiel handelt, man möchte meinen, dass sie die Exklusivität der GTX 970 in dieser Hinsicht im Auge haben.

Benchmarks überhaupt gesehen? Also die Fury X schlägt sich doch hervorrangend unter 3.840 × 2.160 mit "nur" 4GB HBM Speicher gegenüber der R9 390 mit 8GB GDDR5 bzw. der GTX 980 Ti mit GDDR5.

Da wäre ich vorsichtig ein Balken sagt zunächst einmal nichts aus. Ich denke auch dass Fiji unter UHD nicht genug VRAM hat. Zaubern können sie auch nicht die Frametimes sollten also wesentlich schlechter sein als bei GTX 980ti und Titan X.
 
Zuletzt bearbeitet:
@MaLow17

du scheinst nach wie vor den Test nich gelesen zu haben :rolleyes:

@Dai6oro

hier bleibt die Frage ob es mit fixen 3,5 GB besser wäre, also die Überbelegung bei der GTX 970 unterbinden würde. Ihr Problem sind glaub weniger die 512 MB weniger als die differenzierte Anbindung bei Vollbelegung, langsamer & schneller VRam Zugriff. Aber ganz klar, die Karte geht hier unter. Vielleicht aber durch den Treiber und statisches Limit zumindest zu verbessern. AMD hat bei der Fiji offensichtlich auch noch Treiberarbeit.
 
Zuletzt bearbeitet:
Pisaro schrieb:
@Zotac2012: Wie du jedes mal NVidia verteidigst und dich gerade hier lächerlich machst. Redest davon das du ja mit den Qualitätseinstellungen umgehen kannst und deine 970 deswegen nicht ruckelt. Erwähnst dann aber, das die Fury das Spiel unspielbar macht.. wegen EINER Qualitätseinstellung die man auch eine Stufe runterstellen kann.

Lächerlich machst nur Du Dich mit Deiner Aussage, der Unterschied ist, das ein GTX 970 um 300,00 kostet und gerade auch hier im Forum immer wieder als Mittelklasse Grafikkarte hingestellt wird, dann ist doch klar das ich nicht immer alles auf Super Duper Ultra spielen kann. Die Fury hat doch einen ganz anderen Anspruch und wildert in der Oberklasse, allerdings wie man jetzt sieht nur vom Preis her. Lieber ein Spiel mit einer GTX 970 das ab und zu Ruckelt, als ein Game in Diashow und das zum doppelten Preis. Bei der GTX 970 bricht dann immer gleich ein Shitstorm los und bei der Fury ist es ja nur ein kleines Problem, das nur einer Treiberoptimierung bedarf, das geht allerdings auch bei der GTX 970. :rolleyes:

Wer ernsthaft eine 970 einer 390/x vorzieht MUSS ein NVidia Fanboy sein, denn das einzige Manko der 390/x ist der höhere Stromverbrauch

Und wer das Behauptet, muss ein Roter sein. Ich selbst habe genügend Bekannte und Freunde die auch eine R9 390 haben, die Grafikkarte ist weder leiser, noch Stromsparender noch schneller als meine GTX 970 [zumindest in den meisten Spielen oder Benchmarks]. Das liegt einfach daran, das ich nicht mit einem Standard Custom vergleiche, Fakt ist halt, das sich die GTX 970 deutlich besser übertakten lässt und dann rennt sie der R9 390 davon. Die R9 390X ist in manchen Games einen Tick schneller [aber auch nicht in allen], das sollte man aber auch für 100 Euro mehr erwarten können. Der einzige Vorteil der R9 390 [X] sind die 8.GB/Vram und das aber auch nur bei höherer Auflösung und selbst das kann dann zum Problem werden, wenn die GPU dann limitiert.;)
 
Zuletzt bearbeitet:
MaLow17 schrieb:
Benchmarks überhaupt gesehen?

Klar.
1.920 × 1.080: 390 bei 100%, Fury X 128%
3.840 × 2.160: 390 bei 100%, Fury X 125%

Der begrenze Speicher macht sich schon hier bemerkbar. Sieht man klar bei der PCGH mit der Titan X die dann bei 3.840 × 2.160 12% schneller ist. Also macht 4GB HBM also doch kein 8GB GDDR5 oder gar 12GB GDDR5. Sonst würde die Performance nicht sinken sonst gleich bleiben oder schneller werden.

Schaut man sich die 8,6 TFLOPs Rohleitung der Fury X mit den 5,1 TFLOPs der 390. Das sind geschlagene 68% mehr was die Fury X zur 390 hat. Dann steht die 390 top im Vergleich zur Fury x da. Geht man dann von den 6.14 TFLOPs einer Titan X oder 5.63 TFLOPs einer 980 TI aus, dann kriegt die Fury nicht den Vorteil auf die Straße. Das ist wie weiche Reifen die beim Start durch drehen.

MaLow17 schrieb:
Erzähl uns mal bitte, wie viele Gamer eine Titan X mit 12GB für über 1000€ ihr Eigen nennen. Und da wir wissen, dass Nvidia Probleme mit Directx 12 Titeln hat und haben wird (Stichwort Asynchronous Shader), bringt dir der 12 GB GDDR5 Speicher einer Titan X nicht wirklich viel bei zukünftigen Spielen, vor allem, weil dann Nvidia die Kunden im Stich lässt, wenn eine neue Generation (Pascal) auf den Markt kommt. Sieht man doch schön an Kepler und Maxwell, mit welcher Leidenschaft Nvida die ältere Generation wirklich alt aussehen lässt, damit die neuere Generation besser dasteht. Total sinnfrei sich solch eine Karte zuzulegen für den Preis eines kompletten Spielerechners...

Werte von PCGH:
1.920 × 1.080: Titan X bei 100%, Fury X 102%
3.840 × 2.160: Titan X bei 100%, Fury X 88%

Das nenne ich effizientes Speichermanagement für den Arsch.

Wer das als Hobby machen möchte gerne. Ich kaufe mir da lieber einen Sportwagen oder geh in Urlaub. Ich fass doch keine Computerspiel an. Jedenfalls hat er damit immer noch sehr viel Spaß und das sollte wichtig sein. Ich für meinen Teil reicht eine Intel iGPU. Shell, Office, SAP und paar Netzwerktools kann die darstellen und reicht. Und es gibt auch nur das was der Arbeitgeber stellt.
 
Zuletzt bearbeitet:
Zurück
Oben