• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Call of Duty Benchmarks: Black Ops III hat viele Macken und ist ein VRAM-Killer

Kasmopaya schrieb:
Das nennt man versteckte geplante Obsoleszenz. Mit der Taktik haben sie einen gleichmäßigen Umsatz. Der optimale Zustand, eine GTX 580 3GB die 4 Jahre lang nicht gewechselt werden muss, hat über eine so lange Zeit nur 500€ Umsatz gemacht. Geradezu winzig im Vergleich zu den Jährlichen Vram Krüppel käufen, die richtig Schotter reinspülen.

Die Medien spielen das Spielchen ja fröhlich mit, selten das mal eine Karte abgestraft wird weil sie nur 50% vom Vram soll hat. Erst jetzt wacht man auf, erst kürzlich las ich auf PCGH das man sich nicht wundern braucht mit einer 4GB Karte wenn die so schnell absäuft und man doch zukunftssicher kaufen solle mit ordentlich VRam Polster. Sowas lese ich zum ersten mal, früher wurde das Thema einfach ignoriert bis es einen mit der 970 ins Gesicht geklatscht wurde. PCGH ist somit lernfähig, die frage lautet, sind es die andern auch?

Sehr gut getroffen, Dein Kommentar :), das sehe ich ganz genauso, und weshalb die Medien dabei mitspielen (?) ... nun ja, weil diese an jeder Stelle von Schlagzeilen profitieren, insbesondere bis es auffliegt und man sich dann zudem noch als entlarvender Retter aufspielen kann. Es gibt natürlich die unverbesserlichen, markentreuen die auch weiterhin auf nVidia Produkte setzen (egal was man denen vorsetzt) und zum Glück sind meine Ansprüche nicht so hoch, dass ich spätestens alle 2 Jahre eine neue GPU haben muss. Als Enthusiast (bei den teils gepfefferten Preisen) würde ich mir schon ziemlich veräppelt vorkommen, wenn es auch in Maxwell eher die untere Oberklasse (GTX 970) und somit den Massenmarkt betrifft (und bei Kepler waren das eher noch die Titan oder die Oberklassekarten, wobei ich meine GTX 670 OC rückblickend immer noch als guten Kauf ansehe im Vergleich zu Fermi-(Thermi)Karten und der GTX 680 oder der kaum leistungsfähigeren Nachfolge (7er) Oberklasse-Generation).

Die Konsequenz für mich ist, dass es erst einmal keinen Ausflug mehr ins nVidia-Grafikkarten-Lager gibt, bis dort eine vernünftige/anständige Kundenpolitik wieder an der Tagesordnung ist, an der Herr Huang und Konsorten wohl kein Interesse mehr haben, da sie scheinbar immer noch bei einem Großteil mit Ihren miesen Geschäften durch zu kommen scheinen (weil der Kunde es entweder nicht weiss oder nicht wahrhaben will).

Eigentlich löblich, dass Call of Duty - Black Ops III dieses schonungslos entlarvt, auch wenn man natürlich die Ressourcenverschwendung (relativ schlechte Umsetzung = mäßige Grafikpracht) hier auf CB zu Recht anprangert, nur hat das für CB bei den verbuggten Batman - Arkham Knight und Assassins Creed Unity eben nicht gegen eine Empfehlung gesprochen, hier aber schon (misst da wer mit zweierlei Maß oder wie kommt das?). Das gleiche gilt für den letzten/aktuellen Anno Titel, der vielleicht grafisch toll aussehen mag und detailverliebt, wo aber total am Markt vorbei programmiert wurde und eben nur die Pracht auf Maxwell nVidia Oberklasse- und Enthusiastenkarten entfaltet und die Leistungsverhältnisse der Grafikchips total verrückt wurden (zurück zu führen auf bewusst schlampige Programmierung), dafür aber nicht angeprangert wurde ... nachvollziehbar ist das für mich nicht, aber nun gut ... es ist so wie es ist und spätestens ab der 14/16nm Generation sind wohl 8GB VRAM in jedem Fall angeraten.
 
Zuletzt bearbeitet:
- Angenommen die GTX970 hätte 4 schnelle GB. Inwieweit würde das helfen? Gibt es eine Einstellungskombination wo 500MB mehr VRAM den Unterschied zwischen spielbar und unspielbar machen? Was wäre dieses Zünglein an der Waage und wie nötig brauche ich das? Es würde sicherlich nicht bei der Erhöhung der Auflösung helfen. Und bei der Erhöhung der Textureinstellung bin ich mir mehr als unsicher.

Ein Beispiel wo es etwas gebracht hätte ist hier zu finden:

"Für die Detailstufe High reichen hingegen auch in 2.560 × 1.440 vier Gigabyte – außer der GeForce GTX 970, die erneut stockt"

Man sieht es ganz deutlich

In 1080p liegt die E9 390 noch 14% vorne:

1.PNG

In 1440p sind es dann schon 25%:

2.PNG

Wir wissen ja das GCN größere Auflösungen schmeckt aber 11% nochmal den Abstand zu vergrößern ist schon ungewöhnlich. Zudem spricht CB von einem stocken in der Auflösung mit Texturen auf High, ich schätze das auch hier die Frametimes eher mies aussehen werden. Jede Wette dass normale 4GB hier keine Probleme machen würden, siehe Fiji oder GTX 980. Zugegeben dies betriftt "lediglich" alle die entweder nativ auf 1440p oder mittel DSR speilen möchten. Die Power (zumal man die GTX 970 ja noch gut OCen kann) hätte sie dafür definitv. Nur eben nicht mit dieser Speicheranbindung.

Mensch. Ich wusste gar nicht, daß NVidia Black Ops 3 entwickelt hat.

Dem Link zufolge:

http://www.pcgameshardware.de/Call-...el-55478/News/Gameworks-Ankuendigung-1166977/

wussten sie wohl was auf die Karten zukommt:

"Nvidia kündigt auf der Gamescom in Köln eine enge Zusammenarbeit mit Activision und Treyarch bei der Entwicklung von Call of Duty Black Ops 3 an. Zusammen will man den Shooter für PC-Spieler optimieren und sicherstellen, dass die PC-Version gespickt von State-of-the-Art-Spezialeffekten sein wird. Nvidia stellt dafür eine Menge an Entwicklungsressourcen zur Verfügung, um dabei zu helfen, das Game in ein "visuelles Feuerwerk" zu verwandeln.

Dazu gehört sowohl der Zugang zu über 300 Nvidia-Visualisierungs-Ingenieuren, die eng mit den Call-of-Duty-Black-Ops-3-Entwicklern zusammenarbeiten, um ihre Spiele zu verbessern, als auch eine Vielzahl an Bibliotheken, Entwickler-Tools und Code-Samples. "

Du meinst, so wie AMD mit der Fury?

Ah und weil alle immer auf der Fury rumhacken. Ja für die Leistung hat die Karte einen zu knapp bemessenen VRAM. Das ist Fakt und in manchen Spielen reicht dieser dann auch nicht mehr für 4K, bei manch schlechten nicht mal für 1440p. Kein Zweifel ich hätte auch lieber 8GB bei der Karte gesehen. Aber: Ich denke nicht dass AMD das mit Absicht getan hat, denn im Gegensatz zu einem normalen GDDR5 Speicher ist 8GB HBM derzeit eben technisch einfach nicht möglich. Punkt! Und wir alles sollten hoffen, dass es HBM2 besser macht. AMD macht dies aus technischem Zwang nicht weil man dem Kunden was unterjubeln möchte. Sie gehen damit ein hohes Risiko ein, das sich höchstwahrschienlich für sie nicht lohnen wird.
 
Zuletzt bearbeitet:
Einfach eins runterstellen, who cares wie viel Ram das Game saugt, extra ist offensichtlich unnötig und läd Texturen vielleicht einfach bis in weiter entfernte Bereiche. Wer 8-12 GB hat kanns versuchen, alle anderen brauchen da doch nicht heulen. Entscheidend is doch wie gut das Game mit mit ner durchschnittlichen GPU läuft, wenn die Optik auch auf Medium passt ist das doch IO.

Stellt euch vor, ein Publisher beschränkt sein Game nicht auf 4-6GB weil es vielleicht auch einfach Karten mit 8 und gar 12 GB gibt?! Der Gain is offensichtlich sehr gering, aber was stört euch daran?

Vielleicht einfach mal mit der Denke rangehen dass es ja vielleicht denjenigen entgegenkommt die ihren vielen Ram schließlich nicht nur zur Dekoration haben. Ist doch gut wenn die auch auf ihre Kosten kommen.
Im übrigen hinkt der Openworld W3 Vergleich der oft gemacht wird von vorn bis Hinten. Schooter waren schon fast immer anspruchsvoller.

Edit. Vielleicht sieht man den Unterschied ja nur ein ~4k da normal auflösende Monitore das nicht mehr scharf genug auflösen?
 
Zuletzt bearbeitet:
So nachn Test bei meiner hardware muss ich sagen
das Spiel frisst vram
Soweit sogut
gegenmaßnahmen
die performancekiller ist
transparenz erweiterung und das nicht abschaltbare postfx
Skalliren mit CPu kernen tut cod bo3 sehr gut
Ram überlauf kann vorkommen, aber mit
nativen auflösung 1920-11080 (COd bietet mir @default von 1168-758 upscaling an???)
texturen muss ich auf mittel stellen darüber werden es mehr als 2gb vram
gering komme ich auf 1600mb
deaktiviert habe ich unschärfe (nervt sowieso)

Und habe dank nvida politik etwa 25-75fps
je nach dem wieviel effekte laufen (postfx)
Also wieder das bild wie bei advanced warfare
Allerdings verstehe ich nicht wieso eine Gleichschnelle gtx960 100% mehr FPS hat als die gtx760 (beide dieselbe vram menge) 60 vs 30fps an derselben stelle
test szene mission 1
meine vermutung, das Spiel setzt bei transparenz tesselation ein was auch bei abschlatung min 500mb vram frei gibt
Allerdings lassen sich postfx nicht ändern, weil da vermutlich die meiste performance drinliegt
Alles auf niedrig stellen bringt auch nix
Zur quali
nun texturen naturgemöäß kann ich die nicht bewerten weil ich nur die lossy texturen zu gesicht bekomme
Effekte meist unübersichtlich.popcorn action für die kids
KI also noch dämlicher geht es kaum noch
reine statisten
es ist wahrscheinlicher das man in die vorgegeben schüsse reinläuft als das da eine ki ist.
also noch dämlicher als bei den anderen teilen
Spielgefühl naja es wirkt wie ein Koop f2p spiel
Fühlte mich wie in apb an
Steuerung nun FPS gekoppelt was man selber dann anpassen kann???
Standardtastenbelegung nun etwas fummelig
nahkampf Kindgerecht geändert
Die Schöne Messer attake ist weg
Das Sieht aus wie bei einen Spiel aus dem Jahr 2005
ist das Spiel 60€ wert
NEIN
Ist es normal wert ~35-40€ jaein
Budget titel klares Ja
Da bietet mir dying light deutlich mehr Bildqualität als das
farcry 4 ist dagegn ein meisterwerk
Kurz netter shooter mit argen performance problemen wie zu anfang bei advanced warfare
Wird zeit das COD eine neue engine bekommt
Winke zaunpfahl ue4

ph2 x6 1090t 3,8ghz 2,4ghz NB
8gb ram 1600mhz
gtx760 2gb vram
FPS bei texturen mittel 2gb vram und 7gb ram verbrauch
~25-75fps Erste mission wird wohl ein nachlade Problem sein
CPu etwa 60-90% bei 6 Kernen
Und das ohne kantenglättung
 
Also ich muss sagen ich habe überhaupt keine Probleme.

I5 4460
8 GB Ram
AMD R9 380 4GB

Habe mit diesem System stabile 60-65 Frames (Einstellungen wie im Test empfohlen) und keine Hänger oder Abstürze.

Full HD, SMAA T2x Textures Hoch und Shadow Map auch Hoch den Rest auf Maximum.,
 
Trotzdem sind 60FPS mit dem Sys. lächerlich fürn COD.....
Das ding müsste auf permaneten 100FPS laufen.
 
Ich finde 71 bzw 47 fps ok für die 970 .

Das ist eben das Problem in nem Technikforum sind die Massstäbe einfach zu hoch, was ok ist für uns hier,aber wie schon in vielen Beiträgen geschrieben sind wir nicht die Masse. Und da es auch die R 390 mit 8Gb als auch die Titan gibt haben wir für uns ja auch Grafikkarten wo das kein Problem darstellt.

Die "normalen" Gamer die ich kenne kommen absolut gut mit ihren FX 6300 und 760 GTX 2GB/270x Systemen zurecht und das ist der gute Schnitt bei allen.Auch nutzen sie alle durch die Bank die 1080er Auflösung .Auch AA kennen sie nicht wirklich und wenn ein Game AA nicht passiv aktiviert wenn man von high zu Ultra schaltet dann spielen sie immer ohne :D .
Deswegen ist der Vram auf den Karten absolut ok so wie er ist, weil nämlich die Hauptklientel eh nicht berreit ist für mehr Vram zu zahlen.Wenn ein Game nicht flüssig läuft wird einfach runtergedreht bei denen und fertig.

Wenigstens ist der Aufpreis bei der 960 und 380 mittlerweile nur noch sehr gering.

Ps.: Wenn jemand seine Krüppel 970 loswerden will ich nehme sie gerne ab :D .
 
Vielleicht vk ja alle ihre krüppel 970 jetzt für Appel und nem Ei dann nehm ich auch eine spar ich mir den Neupreis:D.
Leider hat NV nix weiter in der Preisklasse wenn man G-Sync mit nutzen will aber keine 600€ GPU kaufen will bleibt ja nur die 970^^
 
Blood011 schrieb:
Trotzdem sind 60FPS mit dem Sys. lächerlich fürn COD.....
Das ding müsste auf permaneten 100FPS laufen.

Anhand von welchem Titel machst du denn das zB fest, so mal rein aus Interesse.
 
Krautmaster schrieb:
Anhand von welchem Titel machst du denn das zB fest, so mal rein aus Interesse.

Ich bin mir jetzt net mehr ganz sicher aber bis BO2 liefen alle CODs mit 90FPS Maxed Out(2AA) bei mir glaub ab Ghost fing das mit der räudigen Performance an.
Dafür das kaum was an der Grafik passiert sind 60FPS einfach lächerlich das sind 30FPS weniger für nix und dann noch net mal Maxed.
Das ist nur noch Optimierungsfaulheit.

MW2 lief sogar noch auf mein ollen P4 und ner 9500GT sauber auf mittel mit 50/60FPS(Schatten natürlich off)
Und das ding sieht net schlechter als BO3 aus:D
 
Zuletzt bearbeitet:
Dazu müsste man jetzt mal 2 Screenshots oder Mitschnitte vergleichen, manchmal lässt einen da eher der Kopf im Stich und man wundert sich auf einmal wie der alte Titel doch ne ganze Ecke mieser aussieht. ;)

Bei Grafik ist es ja auch so dass etwas mehr vergleichsweise viel mehr Leistung kostet. Das mit dem uralt Rechner und Titel wird schwer, mich würden jetzt eher Vergleiche mit 2014/2015 Titel mit ähnlichen Genre interessieren, die dann mit deinen 100FPS laufen und gleich gut aussehen. Wirklich gleich gut.

So Aussagen wie die deine sind halt immer schnell in Raum geworfen find ich.
 
Zuletzt bearbeitet:
Also die Grafik ist jetzt kein Wunderwerk aber trotzdem das beste was COD bisher zu bieten hatte und daher finde ich die 60-65 FPS für mein System ganz OK da immerhin fast alles auf Maximum steht.

Ich weiß nicht ob es am ersten Patch liegt aber auch mein I5 läuft ganz normal ist aber 95% ausgelastet.
 
Dai6oro schrieb:
Ich denke nicht dass AMD das mit Absicht getan hat, denn im Gegensatz zu einem normalen GDDR5 Speicher ist 8GB HBM derzeit eben technisch einfach nicht möglich.
Und auch nicht sinnvoll.
Von der höheren Geschwindigkeit profitiert die Performance doch wenn überhaupt nur im kleinen Prozent-Bereich.
Das Geld für HBM hätte man sich also sparen können und mit GDDR5 dann auch 8GB (oder von mir aus auch mehr) verbauen können.

Aber ich will auch gar nicht auf AMD rumhacken.
Ich finde nur die AMD-Fanboys ehrlich gesagt noch mal mindestens doppelt so erbärmlich wie die Nvidia Fanboys.
Da kommen Kommentare hier wirklich ohne Sinn und Verstand ... "Speicherkrüppel" ... ja ... die gibt's angeblich nur bei NVidia und da auch immer, weil NVidia das mit Absicht macht ... und zu den schlecht bestückten Karten im eigenen Lager kein Wort.

Oder zur GTX 960 ... die ist ja angeblich auch ein "Krüppel", weil der Bus so klein ist. Völlig unbrauchbar das Teil.
Ist ja nicht so, als ob am Ende die tatsächliche Performance zählen würde. Nein. Der Bus hat nur 128Bit, und damit ist die Karte natürlich Müll, weil AMD doppelt soviel hat.
(Von RAM-Takt und Speicher-Kompression wollen diese Leute allerdings auch nichts wissen.)

Und dann die Verschwörungstheorien, die z.T. schon wirtschaftlich betrachtet überhaupt keinen Sinn ergeben.
Und dann mit einer Bestimmtheit geschrieben, als ob diese z.T. haarsträubenden Theorien schon bewiesen und auf jeden Fall wahr wären.



Es ist auch völlig egal, was bei einem neuen Spiel passiert. Die AMD-Fanboys finden immer eine Erklärung, bei der AMD der Held und NVidia der böse Betrüger ist:

AMD-Karten sind ein paar Prozent schneller?
--> "HAHAHAHAHA!!!! Nvidia wird zum Wischmop deklassiert. Jetzt sieht man endlich, wie kacke die Karten sind!"

NVidia-Karten sind ein paar Prozent schneller?
--> "Dieser Scheiß-Entwickler war zu faul und gierig zum Optimieren. Und außerdem wird er von NVidia bestochen, damit er absichtlich die AMD-Karten nicht richtig ausnutzt."

NVidia-Karten bekommen zu Release gute Performance, AMD-Karten erst einen Monat später?
--> "Die Arschlöcher von NVidia sind schuld. Warum weiß ich auch nicht so recht. Aber AMD ist auf jeden Fall das Opfer hier!!!!1111"
("Achja ... Gamesworks ist schuld!" ... auch wenn es gar nicht verwendet wurde.)
 
Zuletzt bearbeitet:
Auf jeden Fall der erste Titel der Reihe nach Black Ops 2, der wieder nennenswerte Spielerzahlen auf dem PC erreicht. Die Performance von Call of Duty ist seit Ghosts ziemlich im Keller. Merkwürdig, da sich die Grafik nicht nennenswert verbessert hat und die Spiele früher selbst auf schwächsten Systemen hervorragend liefen, wenn man mal von der Anfangszeit des ersten Black Ops absieht.

Pascal67 schrieb:
Also ich finds echt gut ,das COD BO III den COD Bobs solche Probleme macht :D


Evtl Spielen sie dann mal einen richtigen Shooter,und nicht diesen Killstreak misst.

Was ist dann ein richtiger Shooter? Battle-IschmachdischKrankenhaus-field, bekannt dafür, die größte Ansammlung dauerhaft aggressiver Kellerkinder mit 10+ Spielstunden täglich zu sein? Oder doch CounterStrike: Global Offensive, die Nachmittagsbetreuung für schlecht erzogene Kinder, die täglich mehr Beleidigungen als normale Wörter aussprechen und -schreiben?
 
ich kann nichtmal 2minuten spielen bevor ich einen out of memory error bekomme (8GBddr3). selbst wenn ich alles auf low runterschraube und render resolution auf 60% dann benötigt es immer noch mehr als 6GB speicher. und es sieht dann auch noch richtig grottig aus
 
So das Spiel startet auf vista
Wie vermitete ohne probleme aber das steigt schon der System ram bedarf bednklich an 8Gb bei meiner angepassten einstellung
Unter win 10 laufen dieselben einstellungen butterweich bei 40-60fps
So in etwa habe ich mir das vorgestellt
also liegte s wahrscheinlich am treiber das dieser wieder ein Speicherleck hat.
mal sehen wann ein fix kommt.
 
Krautmaster schrieb:
Dazu müsste man jetzt mal 2 Screenshots oder Mitschnitte vergleichen, manchmal lässt einen da eher der Kopf im Stich und man wundert sich auf einmal wie der alte Titel doch ne ganze Ecke mieser aussieht. ;)

Bei Grafik ist es ja auch so dass etwas mehr vergleichsweise viel mehr Leistung kostet. Das mit dem uralt Rechner und Titel wird schwer, mich würden jetzt eher Vergleiche mit 2014/2015 Titel mit ähnlichen Genre interessieren, die dann mit deinen 100FPS laufen und gleich gut aussehen. Wirklich gleich gut.

So Aussagen wie die deine sind halt immer schnell in Raum geworfen find ich.

Dann nimm CS:GO sieht net viel schlechter aus und hast 100+FPS:)
Fortschritt und Leistung passt bei COD net mehr zusammen glaub mir ich hab alle Teile gekauft und gezockt bis auf den letzten jetzt da hat mir de Beta gereicht^^.

COD müsste von dem Jump&Run mist mal wieder weg kommen das zukunftszeugs mal wieder weg packen und mal ne neue Engine nehmen.
 
Zuletzt bearbeitet:
Ich weiß gar nicht wo ich anfangen soll... Als AMD Fan findet man an dem Artikel sich nichts
Falsches, aber als neutraler Beobachter oder Nvidia Fan (der ich zugegebenermaßen bin,
ich will das auch gar nicht groß abstreiten), finde ich den Artikel ein wenig... wohlfeil.

Wenn man alle Einstellungen auf Max drehen würde, kämen nur die Nvidia Karten damit im
normalen Rahmen klar, die Fijis nicht. Also ändert man einfach die Testbedingungen damit die
Fijis den Geforce Karten wieder voraus sind. Find ich irgendwie willkürlich, sowas dann auch nur
als Randerscheinung ("Treiber") abzutun. Wärs ne Nvidia Karte, die sowas fabriziert, wär wohl
wieder Polen offen á la 970 "Katastophe" auf der man monatelang rumreitet und shitstormt. Fakt
ist, dass bei Release NUR Nvidia einen Treiber liefert, mit dem alle Optionen praktizierbar sind,
und AMD WIEDER mal nicht. Bei Witcher 3 war es doch genau das gleiche. Warscheinlich ist auch
dieses mal wieder Nvida Schuld, und nicht man selber oder der Entwickler. Das kenn ich schon.

Das Nächste, das mich stört, ist der Vergleich mit der GTX 770. Ich habe das ein ums andere
mal bemängelt, auch in Tests mit der 960 mit 2GB, es gibt diese beiden Karten mit 4GB. Warum
testet man dann nicht auch eine mit 4GB? Wäre dann deutlich zu sehen, dass die 770 noch
sehr gut mit AMDs diesjährigen Refreshs mithalten kann, und AMDs vermeintlicher Vorsprung
kaum oder gar nicht vorhanden ist? Mit erhöhten Taktraten (also wie beim AMD Refresh wäre
die Sache dann nochmal interessanter). Hier aber werden mal wieder Äpfel mit Birnen verglichen,
oder warum hats zwar für diesen Benchmark gereicht, aber keine 2GB AMD Karte taucht auf?
Stellt (wieder mal) Nvidia in einem schlechteren Licht dar, als notwendig. Würde man die Tests
mit Shadow Map Quality auf Extra machen und statt der 770 2GB eine 4GB testen und dazu
noch eine 7970 mit 3GB aufnehmen, sähe das Resultat wohl etwas anders aus.

Durch den Artikel über Gsync und Konsorten vor Kurzem wissen wir, dass der Verfasser des
Artikels selbst AMD Fan ist https://www.computerbase.de/2015-10/kommentar-nie-wieder-ohne-freesync-g-sync/
Hier habe ich bereits kommentiert, dass, obwohl Gsync die besseren Argumente hat, ich es
unverständlich finde, dass der Redakteur aus welchem Grund auch immer stattdessen die
AMD Variante gewählt hat. Das mit "Gsync ist besser" ist also keine Meinung, sondern
überprüfbarer Fakt: Von 48 Testpersonen haben nur 10 AMD das bessere Ergebnis konstatiert,
29 für Nvidia. Ich mein, wieviel Eindeutiger kann man es noch bekommen? Für mich ein weiterer
Beleg, dass hier die Neutralität etwas auf der Strecke bleibt.
Quelle: http://www.tomshardware.com/reviews/amd-freesync-versus-nvidia-g-sync-reader-event,4246.html

Aber um wieder sachlich zu werden: Ich zweifle keines der Ergebnisse an, die Zahlen lügen
nicht. Ich kreide an, dass die Focussierung und Präferenz augenscheinlich auf AMD liegt. Bei
der 970 sagt man einfach: Haja, ist wieder diese 512MB Speichergeschichte und dann wirds
abgehakt. Wenn aber was mit den AMD Karten nicht stimmt, nimmt man sich stattdessen einen

halbe(n) Tag für die Fehlersuche und Lösung der technischen Probleme
Da ich seit Jahren in den Kaufberatungsthreads lese, wie sehr hier einige die rote Fahne
hochhalten, wundert es mich wenig, das ich einer der wenigen bin, denen sowas auffält.

Eigentlich schade. Ich finde als Journalist/Redakteur, der öffentlich publiziert, und auf Basis
dessen Artikels auch Kaufentscheidungen getroffen werden, sollte man hier ein wenig fairer
zu Werke gehen. Ich hoffe, dass die Äußerung meiner persönlichen Meinung keinen zu sehr
stört, das darf auch jeder gerne anders sehen als ich. Damit hab ich kein Problem. :)
 
Zurück
Oben