Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestDeus Ex: Mankind Divided: 8 Grafikkarten von AMD und Nvidia im Benchmark
@ Chismon ... ohne Zweifel sind 350 € für die besagte Zotac GeForce GTX 980 Ti AMP! Omega ein Wort... wobei ich aber Grundsätzlich keine Beta-Spiele absolviere, noch ein solches als Vergleichsmaßstab auch nur für irgend etwas anerkenne, von Anzuführen ganz zu Schweigen. Und Deus Ex: Mankind scheint mir in diese Kategorie zu Fallen. Ein Spiel, wo die Firma Spieler dazu regelrecht mißbraucht, um es an die Serienreife heran zu Führen. Das ist meine eigene Persönliche Meinung. Mit ein Grund, weshalb ich Spiele mittlerweile nur noch Absolviere, wenn sie nachweislich ausgreift sind.
Persönlich möchte ich noch Anfügen, wenn ich Geld ab ca. 350 € Anlegen würde, würde ich dann wohl eher zu einer GTX 1070 Tendieren. Und nicht zu einer 980 Ti. 250 Watt Stromverbrauch Plus X sind mir Persönlich zuviel. Für Full HD ist die Karte Oversized. Genau wie die GTX 1070. Aber jedem das Seine. Für den Preis, wenn man sich nicht am Stromverbrauch und evtl. dem Lärm stört, ein gutes Angebot, zweifellos.
Beta ist Deus Ex - Mankind Divided nicht, oder besser, das sollte es jetzt nicht mehr sein. An den Leistungsansprüchen des Spiels ist m.E. auch nicht viel auszusetzen, wenn, ja wenn dafür das Gebotene auch stimmig wäre (wie seinerzeit bei Crysis 1 etwa). Das ist leider nicht der Fall und das Spiel ist wie bereits mehrfach von mir erwähnt durchwachsen, ändert aber nichts an der Tatsache, dass dieser Leistungs-Maßstab jetzt gesetzt worden ist und somit eine Zäsur darstellt.
Das mag Dir genauso wenig gefallen wie mir, insbesondere, wenn man schon Geld in eine neue Mittelklasse-GPU angelegt hat, was ich glücklicherweise nicht getan habe (und wohl auch nicht werde), weil mir der Leistungszuwachs (von meiner alten Karte zu einer neuen Mittelklasse-GPU) und das andere Drumherum eben nicht gefallen hat (lediglich meine Ansicht dazu). Andere haben ja stattdessen zugegriffen und das war ja auch noch gerechtfertigt, bis, ja bis Deus Ex - Mankind Divided als erster AAA Titel die neuen Mittelklasse-GPUs als nur noch wenig empfehlenswert erscheinen lässt aufgrund der jetzt schon begrenzten Leistungsfähigkeit.
Da kommt dann schon die GTX 980Ti, für 350Euro etwa, wie gerufen als ausreichend leistungsfähige Alternative für die kommenden 2 Jahre (eine längere Nutzungsdauer ohne größere Einschnitte - nicht nur dieser einen eher unrühmlichen Ausnahme - traue ich den jetzigen Mittelklasse-GPUs Stand jetzt (wegen Deus Ex - Mankind Divided) auch nicht mehr zu und ich bezweifle auch, dass GTX 1070/1080 ausreichend langlebig für mittel- langfristig orientierte Käufer (4+Jahre) sein wird, was bei Vega oder Volta wiederum anders sein könnte aufgrund deutlich leistungsfähigerer Architekturen).
Nur bekommt man eine vernünftige GTX 1070 erst für 100 Euro mehr (denn solide Custom-Modelle der GTX 1070 gibt es erst für rund 450 Euro (Gainward GS oder GigaByte G1 Gaming etwa, da spart man nicht am falschen Ende mit einer schwachen 420 Euro Karte) und das sind immerhin 100 Euro ohne signifikante Mehrleistung unter DX11 und 2GB mehr Speicher (die neben der weitaus besseren Effizienz den Aufpreis m.E. auf 2-Jahressicht nicht rechtfertigen).
Natürlich wird es auch weiterhin effizienter programmierte oder genügsamere Spieletitel (auch mit AAA Charakter, einige hatte ich ja schon zuvor genannt) geben, aber ebenso vielleicht noch weniger genügsame, mieser programmierte Produkte. Gewiss kann man die vermeiden, nur wenn man mit Vorfreude darauf gewartet hat (und erwartet hat mit der neue gekauften GPU gut dabei zu sein), ist es wenig erfreulich schon nach so kurzer Zeit solch Einschnitte (Medium-Settings unter Full-HD für flüssiges spielen) für eine (knapp) 300 Euro teure Karte machen zu müssen und empfehlen würde ich unter dieser Prämisse die GPUs fortan nicht mehr.
Der "Hauptschuldige" ist in dem Fall wohl Square Enix, einen neuen Leistungs-Standard gesetzt zu haben, der noch einen deutlichen Zacken heftiger als Mirror's Edge Catalyst unter Hyper Settings ausfällt, insbesondere für das dafür Gebotene. Basierend auf dem jetzigen Standard ist eine GTX 980Ti die ideale Full-HD Karte und eben nicht mehr "oversized". Erhofft hatte ich mir im Voraus für die neuen 16/14nm Mittelklasse-GPUs eine Leistung knapp unterhalb der GTX 980Ti von beiden Chip Herstellern (die leider keine echte obere Mittelklasse-GPU mehr im Angebot haben), aber leider hat der Doppel-Shrink (für mich enttäuschender Weise) hauptsächlich in besserer Effizienz aber wenig in Leistung bei den neuen Mittelklasse-GPUs resultiert.
Wie gesagt, Dir scheint Effizienz vorwiegend mehr am Herzen zu liegen, was durchaus plausibel bzw. gerechtfertigt sein kann, bei mir steht dahingegen die Leistung/Langlebigkeit klar im Vordergrund und ich denke, das dieses noch bei der Mehrheit der Interessenten/Käufer so ist.
Da kommt dann schon die GTX 980Ti, für 350Euro etwa ...
...nur bekommt man eine vernünftige GTX 1070 erst für 100 Euro mehr (denn solide Custom-Modelle der GTX 1070 gibt es erst für rund 450 Euro (Gainward GS oder GigaByte G1 Gaming etwa)
naja, das ist schon sehr pauschal, denn 1. gibts ja nun nicht massenhaft 980Ti-Karten für 350 Euro, sondern typisch beim Ausverkauf ab und zu mal eine im Angebot, bis das knappe Angebot eh vergriffen ist. Außerdem gibts die Karte für den Preis auch nur bei einem recht unbekannten Händler, bei den anderen ist sie schon teurer ...
Und gleichzeitig gibt es (bald) auch eine gute GTX 1070 für 399€: http://geizhals.de/kfa-geforce-gtx-1070-ex-70nsh6dhl4xk-a1491976.html?hloc=at&hloc=de
und bei den im Idealfall 50€ Unterschied, wenn man bei einem großen/bekannten Anbieter bestellt eher noch weniger, würde ich dann schon eher zum neueren Modell greifen ... alleine schon wegen den moderneren Anschlüssen, dem deutlich niedrigeren Verbrauch und nicht zu vergessen HEVC-Unterstützung, denn das gabs bei 980, 980TI und Co noch nicht, nur bei 960 und 950!
Sehr schön die 4k Benchmarks. Bis das Game fertig ist vergehen noch 1-2 Jahre.(GOTY) Dann werd ich wohl gleich auf die Volta Titan(ca.2019) warten und dann mit 4k los legen. Das Game ist es mal wieder wert auf die neue Hardware zu warten.
Auch wenn die Titan XP fast 60FPS schaffen würde denke ich mal, Pascal wird komplett übersprungen.
Warum wird es sauer aufstoßen? Ich habe auch bei einem LG 4K Monitor Schnäppchen zugeschlagen und habe es keine Sekunde bereut! Zumal ein Monitor ja auch eher eine Zukunftsinvestition ist, als eine Grafikkarte ... die tauscht man alle 2-3 Jahre, einen guten Monitor, gerade wenn er mit 4K und Co vielleicht noch ein bisschen der Zeit bzw. den Angeboten vorraus ist, nutzt man sicher 5-6 Jahre (wenn er so lange durchhält ^^)
Und was das spielen angeht, ist ja nicht jedes Spiel so schlecht optimiert ... ich finde zB The Division noch etwas hübscher und das kann man zB mit WQHD auf max. Details problemlos mit einer RX 480 oder GTX 1060 mit um die 45 fps spielen. Wenn man 2-3 Dinger noch von "ultra" runterstellt, dann geht's sicher auch mit 55-60 fps. Und wie gesagt, der Monitor wird auch noch einen Grafikkarten-Nachfolger überleben
Ich versuche mich kurz zu fassen, auch wenn ich weiss, dass Du genauso gerne wie ich mit ausführlichen Antworten/Kommentaren ausartest .
Also ich möchte Dir Deinen Kauf auch nicht madig reden (soweit ich weiss, hast Du ja auch nicht zur aktuellen nVidia Ober-/Performanceklasse gegriffen), könnte das aber mit Verweis auf HDR, etc. ... auch wenn Du natürlich Ende dieses Jahres/Anfang kommenden Jahres einen Premiumpreis hättest hinblättern müssen, aber - um es in etwa in Deinen Worten auszudrücken - es ist ja eine mittel- bis meist langfristige Anschaffung, so ein Monitor. Für mich wäre das eben am falschen Ende gespart, aber für mich ist der Monitor auch die wichtigste PC Komponente und meine Pläne/Überlegungen in der Hinsicht vielleicht auch etwas übertrieben (habe meinen Full HD Monitor auch seit 2010 und werden den wohl noch locker bis 2019 primär nutzen, evt. auch darüber hinaus bis UHD mit DP1.4 für mich in Frage kommt und die unteren Oberklasse-GPUs das auch bei hohen Einstellungen und 60+fps durch die Bank packen), daher keine Kritik an Deiner Entscheidung .
Natürlich ist nicht jedes Spiel so mies umgesetzt wie Deus Ex - Mankind Divided, aber es setzt eben auch Maßstäbe (im negativen Sinn - "negativ" nicht wegen der Leistungsanforderung - die früher oder später sowieso von einem Entwickler/Publisher präsentiert worden wäre in den kommenden 2 Jahren - sondern wegen der durchwachsenen Umsetzung).
Meine Kritik am UHD (Monitor/GPU) Hype gilt vielmehr den Medien (mit Ihren UHD Benchmarks und natürlich immer den "Fortschritt" pushend), sowie AMD und nVidia (basierend auf den aktuellen Preisen und nicht vorhandenen Leistungsreserven bei den GPUs), Square Enix legt da jetzt leider mit Ihrem Spiel den Finger in die Wunde und zeigt wie sehr aktuelle (erschwingliche) Hardware in der Realität von Softwareansprüchen entfernt sein kann (nicht muss), wobei die schlampige Umsetzung des Entwicklers natürlich ehrenrührig ist. Der Trend geht leider klar hin zur ineffizienten Programmierung und Ressourcenverschwendung auf Kosten des Kunden.
Du brauchst den Kauf Deines UHD Monitors nicht (mit anderen aufgezählten Anwendungsgebieten, Preis, etc.) zu rechtfertigen, wir beide wissen, glaube ich, dass die Spiele in höheren Auflösungen mit der Hauptgrund für Dein Aufrüsten waren und sauer auf diese Unausgewogenheit zwischen Hard- und Software zu sein, spreche ich Dir auch nicht ab, ich fände es eher komisch, wenn es Dich ehrlicherweise gar nicht kratzen würde (denn das ist Dein gutes Recht) .
Vermutlich wird Dein Monitor auch (mindestens) eine leistungsfähigere Nachfolge-GPU sehen, davon gehe ich auch aus. Ich komme mit meinem Kommentar von der Perspektive her, dass es sicherlich Leute geben wird, die sich für nicht gerade wenig Geld den WQHD oder UHD Monitor nebst GTX 1070 oder 1080 geleistet haben und nun erfahren, dass beide Karten nach kurzer Zeit (denn so lange gibt es die Karten ja noch nicht) schon jetzt respektive in einem AAA Spieletitel keine WQHD und UHD Auflösungen auf höchsten Detaillevels mehr packen (somit die Monitore trotz teuer Anschaffung nicht wirklich ausgereizt werden können), auch wenn anderes zuvor noch zur medialen Berichterstattung (und dem Hype) gepasst hat.
Also wenn es da dem ein oder anderen nicht "sauer aufstößt" würde mich das schon sehr wundern, auch wenn die wenigsten das vielleicht zugeben würden.
forumuser05 schrieb:
Dass das mit der Founders Edition Unsinn ist, merkste ja hoffentlich selbst es geht deutlich günstiger und auch schneller + leiser ... nicht nur die EVGA, auch die "einfache" MSI GTX 1060 6GT OC hat sehr gute Kritiken bekommen und kostet 277€ ... zumal nicht jeder Lust hat, sich einen 33cm-Klops wie die Zotac 980 TI einzubauen, passt halt auch nicht bei jedem!
Grundsätzlich sind die Ausverkaufspreise aber immer attraktiv, auch bei der GTX 980TI ... deshalb kann man aber den "neuen" nicht ihre Daseinsberechtigung absprechen, das ist zu simpel ... aber eine Überlegung wert sind die "alten" auf jeden Fall. Ich hatte ja "damals" vor RX 480 Release auch noch gesagt, dass eine Custom R390X inkl. gratis Total War Warhammer für 280€ ein Top-Deal ist ...
Das war auch eine (nicht böse gemeinte) leicht ironische, vorbeugende Antwort meinerseits (um Rosinenpickerei zu vermeiden) und ich denke, Luxmanl525 hat diese auch als solche erkannt .
Schneller und günstiger als die FE natürlich, aber mit Sicherheit eben nicht als die GTX 980Ti, dazu bitte meine anderweitigen Kommentare berücksichtigen, effizienter schon, aber das ist für die Mehrheit ein netter Nebenaspekt, für die Mehrheit sind Leistung/Langlebigkeit ausschlaggebend und da können aktuelle Mittelklasse-GPUs beider Chiphersteller m.E. nicht mit dem derzeitigen GTX 980Ti mithalten (da müssten die Preise für GTX 1060 6GB und RX 480 8GB und somit auch RX 470 8GB deutlich tiefer angesetzt werden).
Mit dem neu gesetzten Standard (durch den AAA Titel Deus Ex - Mankind Divided, das habe ich ja schon anderweitig ausgeführt) ist die Leistung der paar Monate alten Mittelklasse-GPUs für gerade einmal für flüssiges spielen in Medium-Setting unter Full-HD ausreichend, eben somit sehr enttäuschend.
So sehr Du als möglicher Käufer Dich (und andere sich vielleicht) mit Deiner (Ihrer) Kaufentscheidung selbst beglückwünschen bzw. nicht in den Schatten stellen (lassen) möchtest (wollen), so sehr kreide ich Dir (oder denen) das auch nicht an (denn das hätte mir auch passieren können und ich käme mir dann schon ein wenig "verkackeiert" vor (nicht nur von Square Enix, aber auch genauso von AMD und nVidia bzgl. der nicht mehr vorhandenen bzw. jetzt schon zu knappen Leistungsreserven unter Full-HD (Stand jetzt) der deutlich überteuerten Mittelklasse-GPUs für die kommenden 2 Jahre - länger optimierte Nutzungsdauer halte ich, wie erwähnt, mittlerweile nicht mehr für gegeben)).
Das konnte keiner wissen, dass Square Enix so ein "Ei" legt und die Daseinsberechtigung der neuen Karten als durchaus fragwürdig erscheinen lässt (besonders unter Berücksichtigung der aktuellen GTX 980Ti 350Euro Angebots, aber evt. auch wegen des von Dir erwähnten R9 390(X) Angebots).
Meine minimale Erwartungshaltung an die neuen (AMD und nVidia) Mittelklasse-GPUs wäre gewesen für die verlangten knapp 300 Euro, mindestens 60 fps bei hohen (nicht einmal sehr hohen oder ultra) Einstellungen in jedem Spiel mindestens in den kommenden 2 Jahren zu schaffen, das ist jetzt schon nach ein paar Monaten pulverisiert worden von einem der wichtigsten/großen Spieletitel in diesem Jahr, wenn das keine Enttäuschung ist, weiss ich auf nicht (vielleicht sind meine Preis-Leistungs-Ansprüche einfach zu hoch)?
Ergänzung ()
Kasmopaya schrieb:
Auch wenn die Titan XP fast 60FPS schaffen würde denke ich mal, Pascal wird komplett übersprungen.
Wo Du recht hast, hast Du Recht ... bei dem davor geschriebenen auch, denn genau so sehe ich das auch, keine GotY/DC Version von Deus Ex - Mankind Divided (und evt. dem per Cliffhanger angekündigten Nachfolger) bevor nicht wenigstens Vega oder Volta die Leistung bringen (für 4K/UHD sowieso nicht vor 2019) .
Also es wäre gut möglich, dass Volta in 16nm schon in 2017 aufschlägt (falls nVidia wegen Vega unter Zugzwang geraten sollte) und der Groß-Volta (GV102, Vollausbau) dann Anfang bis spätestens Mitte 2018 auf den Markt kommen könnte, oder würdest Du noch länger auf eine mögliche 10nm Nachfolge-Generation oder Navi mit HBM3 Speicher warten wollen (wobei es sein kann, dass sowohl nVidia als auch AMD solange wie möglich 16/14nm auskosten werden bzw. davon profitieren werden wollen und danach neben AMDs Navi von nVidia auch noch eine 16/14nm Generation folgen wird)?
Dass die nVidia Titan Preise in der Volta Generation noch weiter ausarten werden (und der Speicherausbau womöglich etwas hinter Deinen Erwartungen zurück bleiben wird, denn mehr als 16GB (HBM2) wird es da wohl nicht geben), somit wäre die vermutlich deutlich günstigere Groß-Vega11 GPU mit 16 GB HBM2 Ausbau evt. schon eine Überlegung wert für Dich .
Ergänzung ()
forumuser05 schrieb:
naja, das ist schon sehr pauschal, denn 1. gibts ja nun nicht massenhaft 980Ti-Karten für 350 Euro, sondern typisch beim Ausverkauf ab und zu mal eine im Angebot, bis das knappe Angebot eh vergriffen ist. Außerdem gibts die Karte für den Preis auch nur bei einem recht unbekannten Händler, bei den anderen ist sie schon teurer ...
Und gleichzeitig gibt es (bald) auch eine gute GTX 1070 für 399€: http://geizhals.de/kfa-geforce-gtx-1070-ex-70nsh6dhl4xk-a1491976.html?hloc=at&hloc=de und bei den im Idealfall 50€ Unterschied, wenn man bei einem großen/bekannten Anbieter bestellt eher noch weniger, würde ich dann schon eher zum neueren Modell greifen ... alleine schon wegen den moderneren Anschlüssen, dem deutlich niedrigeren Verbrauch und nicht zu vergessen HEVC-Unterstützung, denn das gabs bei 980, 980TI und Co noch nicht, nur bei 960 und 950!
Du hast auch immer etwas zu mosern ... mittlerweile hat sich auch die Fury Nitro bei 350 Euro etabliert und so wird das auch bei den GTX 980Ti-lern sein, schätze ich .
Nee, die KFA2 ist einfach nur billig/schwach (ergo, sparen am falschen Ende), siehe (bescheidener) Lüfter und Boost-Takt, da muss wie gesagt mindestens die G1 Gaming von GigaByte oder die einfache Golden Sample von Gainward her (ja, ich hatte diese beiden Modelle auch schon im Auge/beobachtet, aber spätestens jetzt mit dem aktuellen Deus Ex und im Vergleich zur relativ günstigen GTX 980Ti ist für mich die Überlegung wohl gestorben).
Außerdem - was viele vergessen - limitiert das weitaus großzügigere Speicher-Interface die Rohleistung bei der GTX 980Ti eben nicht im Gegensatz zur GTX 1070, daher z.T. auch der Mehrverbrauch bzw. geringere Effizienz ersterer ... etwas relevanter m.E. als die Anschlüsse und HEVC, obwohl Du da natürlich einen Punkt hast.
Anderweitig zum Thema:
Ursprünglich auf Twitter, aber durchaus passend zu diesem Artikel, ein nVidia-style/-typischer Benchmark Vergleich :
2. darf man nicht vergessen, dass es vielleicht kein "schlechter patchen" von nVidia ist, sondern AMD es einfach nur mit der Zeit endlich mal hinbekommt, seine massiv höhere Rohleistung (GFLOPS etc.) in Spieleleistung umzuwandeln ... sieht man doch auch jetzt schon wieder, RX 480 mit ~5800 GFLOPS, die GTX 1060 aber "nur" mit ~4400 GFLOPS, trotzdem ist die GTX 1060 in der Regel vor der RX 480
Die AMD werden nach einiger Zeit nicht nur 2-3 Prozent vorne liegen, sondern eher 20 Prozent. Bzw die 1060 wird 20 Prozent zurück fallen.
Als die GTX 970 rausgekommen ist, lag sie 20 Prozent vor der R9 290.
Mit aktuellen Benchmarks liegen beide Karten gerne gleich auf ;-)
Warum ist das so? Weil nvidia die niedrigere Rohleistung damit kaschiert das sie mehr Transistoren in Features stecken die von aktuellen Spielen genutzt werden, während AMD an dieser Stelle ausgewogener arbeitet. Wenn dann neue Engines mit neuen Features veröffentlicht werden fehlt den grünen Karten nicht nur die nötige Rohleistung, sondern die zu Checklisten Features degradierten Funktionen bremsen die Karten zusätzlich aus.
Dann nimm Star Wars - Battlefront anstelle von The Witcher 3, welches auch grafisch und bzgl. Hardware-Anforderungen den Boden mit Deus Ex - Mankind Divided wischt und vermutlich werden das auch Battlefield 1 (in Anlehnung an Star Wars - Battlefront) sowie Call of Duty - Infinite Warfare (in Anlehnung an Call of Duty - Black Ops III) tun, welche auf den jeweiligen Engines relativ ressourcenschonend/effizient programmiert werden dürften.
joa richtig, aber auch Star Wars Battelfront hat tendenziell etwas weniger viel Kleinkram rumliegen aber dafür extrem gute Texturen. Battlöefront ist absolut state of the Art was Engine Effizienz angeht. 60p bei UHD bei bombastischen Texturen. Richtig. Damit steht es auch relativ alleine da und anderweitige Effekte wie zb Volumetrische Lichter / Nebel usw sind da weniger ausgeprägt.
Edit.
Mit aktivem TV11 komm ich auf etwa 30FPS in 4K, für das Gebotene und lediglich 30 FPS sieht es etwas dürftig aus. Die Engine überzeugt mich bisher wenig.
Es gab immer mal wieder Spiele die (warum auch immer) aktuellen Hardware in die Knie gezwungen haben.
Seit Ende der 2000er ist das nur immer seltener vorgekommen.
Im letzten Jahrzehnt war es eine regelmäßige wiederkehrende Pflichtveranstaltung das man alle 18 bis allerspätestens 24 Monate neue Grafikkarten kaufen musste.
In den 1990ern mussten die Leute für neue Spiele gerne den ganzen Rechner austauschen, siehe Quake, Doom, Blood, Unreal oder Sin.
Bei der Testszene handelt es sich um einen kleinen Sprint durch die Stadt Prag und damit um einen sehr typischen Weg, den man des Öfteren unternehmen muss. Für die Auflösungen 1.920 × 1.080 sowie 2.560 × 1.440 wird das Ultra-Preset aktiviert und die anisotrope Filterung auf den Faktor 16 erhöht. Die Texturdetails werden einzeln auf „Sehr hoch“ verringert und die harten Kontaktschatten abgeschaltet. In 3.840 × 2.160 dagegen wird auf das Hoch-Preset mit den sehr hohen Texturdetails zurückgegriffen. Auf MSAA wird durchweg verzichtet.
joa, aber wenn ein Game bei schlechterer Optik nicht mal halb so viele FPS produziert wie andere Titel ist das eher schwach - find ich.
Zb rennt Doom ja auch bei locker weg 60 FPS in 4K und sieht dabei jetzt nicht viel schlechter aus, Battlefront über wiete Strecken sogar besser.
Die Benchmarkszene in Deus EX skaliert echt schlecht bei mir mit den Presets. Ultra hab ich vielleicht 22 FPS im Schnitt in 4K... High dann 27. toll
Im Ultra Preset wie CB testet mit anisotrope Filterung 16x, Texturen Sehr hoch - komme ich ihm Bench auf 36.5 FPS, mit TV11 aktiv. Minimum 30, max 44.1.
Ausgehend vom PowerLimit wird die GPU dabei eher mäßig belastet.
@Chismon
So sehr ich auch gerne längere Ausführungen lese und bedauere, dass es heutzutage aus der Mode gekommen zu sein scheint mehr als 2 Zeilen zu schreiben, muss ich doch widersprechen.
Deine ganze Argumentation fusst auf der Annahme, dass es eine 980ti für 350 Euro gäbe. Dies ist mitnichten der Fall, da kann sich jeder von überzeugen: http://geizhals.de/?cat=gra16_512&sort=p&xf=9810_5+5632+-+GTX+980+Ti#xf_top
In der Tat werden in dem Preisvergleich die ersten Karten für <=350 Euro angezeigt, wenn man aber den Links folgt, sieht man gleich, dass es Preisfehler sind. Und die Händler scheinen ebenfalls nicht "seriös" zu sein.
D.h. du bekommst die erste richtige und günstige 980ti für 400 Euro. Die 1070 KFA² kostet genauso viel und dein Wunschmodell die Golden Sample kostet nur 50 Euro mehr. Wenn du nun meine Fakten siehst, hast du meiner Meinung nach gar keine Argumentationsgrundlage bei einem Neukauf die 980ti der 1070 vorzuziehen.
Meine Wenigkeit besitzt zudem immer noch eine Radeon 290 und hofft, dass es nächstes Jahr was mit einer 490(x) wird.
Ich teste mal heut Abend mit der 2. im SLI. Gestern gabs die Zotac Omega für 334€ auch in anderen Läden lieferbar. Auch Jacobs Elektronik. Scheint aber vergriffen.
Ich hab dann noch für 300€ ink Versand bei Ebay Kleinanzeigen eine MSI 980 TI Gaming 6G gekauft. Fürn Kollege. Von April 2016, mit Rechnung, OVP.
Passt.
Edit. Aber stimmt. Aktuell scheint wieder 399€ kaum unterboten zu werden. Hab ich wohl alles richtig gemacht sofern die GTX 980 TI von Amazon auch einer 980 TI entspricht lol.
Bei den Monitorkaufberatungen geht die Tendenz eher Richtung WQHD.
Ebenso stimmt die Aussage die 1060 und die 480 wären nur für FullHD nur bedingt. Wer mit den Einstellungen umgehen kann, wird auch mit der 1060/480 mehr Spaß unter WQHD haben als unter FHD.
Jo danke für den Link zur CB-Konkurrenz! Die RX 480 müsste es dann aber mit 8 GB sein.
Da sieht man auch nochmal das schlechte Abschneiden der GTX 970 im Vergleich zur R9 390. Ein Glück, dass ich im Herbst 2015 keine mehr gekauft habe. Auch die GTX 980 reißt keine Bäume mehr aus.
Da ich bislang alle Deus Ex Spiele hatte, besitzt dieses Spiel natürlich ein hohe Relevanz für mich.
Darf man die Frage stellen, ob eine GTX 1060 mit 6 GB und erst recht eine RX480 mit 4GB die nächsten 2 Jahre überstehen werden, wenn für Ultra jetzt schon 8 GB obligatorisch sind?
Eine Karte für 300 Euro, die nichtmal kurzzeitig Ultra packt?
Also, dass in dem Test ne GTX1070 fehlt finde ich schon ärgerlich, ist es doch aktuell eine der beliebtesten Karten. Vielleicht könnt ich das nachreichen :/
@Krautmaster
Es geht um NEUE Karten und nicht um Gebrauchtware. Da kann man auch mit Glück was für 1 Euro schießen, heißt das dann, dass man immer davon ausgehen kann diese für ein 1 Euro zu bekommen? Nein natürlich nicht. Wenn dann muss man die reellen Ladenpreise vergleichen, alles andere ist min. Rosinenpickerei und nicht förderlich für die Diskussion.
wie gesagt gestern habs neu für 334€ aufwärts und mindestens 5 Läden (auch bekannte Größen) für <350€ ink 5 Jahre Garantie. Aber nur die Zotac Omega. Ka ob das nen Abverkauf war aber bei den großen Shops wie Jacobs war sie nach etwa 3 Stunden nicht mehr lieferbar.
Aktuell sind nur noch komische Marketplace Shops für unter 399€ drin richtig. Ich hätte eher damit gerechnet dass heute noch mehrere Karten im Preis fallen und das eh er ein Vorbote war. Aktuell siehts eher so aus als ob Zotac eine Omegas loswerden musste. Kann mir auch schwer vorsellen dass Nvidia die Karte auf <350€ droppt da sie schon jetzt ein ähnlich gutes P/L wie die RX 480 besitzt.
Edit:
Ma n paar Screens ausm Chat mim Kollegen, allerdings war das dann als bei Jacobs später nicht mehr lieferbar war. Also nur Random Chat screens.
Ich hätte mit gerechnet dass die Tage der Abverkauf losgeht. Kann ja noch kommen.
Hat jemand Erfahrungsberichte zur 970er rennt wirklich das VRAM auch auf High voll? Spiele in WQHD lt. CB Base Test und der 8 GB Empfehlung dürfte das Spiel nur mehr mit 10 FPS oder so laufen da der Speicher vollrennt, aber lt. Benchmarktabelle sogar bei dieser Auflösung über 30 FPS in Ultra?. Ich bin einer Die Hard Deus Ex Fan seit dem ersten Teil, wenn es halbwegs läuft ist es schon gekauft.
Ich weiß nicht warum hier manche das EINE Spiel hernehmen für alle Grafikkartenvergleiche?
Da vergleicht jemand dieses AMD-Game R9 390 vs 970 und freut sich so hart, dass die 970 dahinter liegt usw ^^
Genau umgekehrt kann es wiederum in anderen Games laufen..--> Ich finde hier das "Performancerating" aus den CB-Tests sehr gut zum Vergleichen.
@980ti: Fast jede Woche gibt es ein Angebot für ~350€, also wer eine Graka sucht, kann sich da bedienen meiner Meinung nach, die Karte dann stark oc'en und ca. 10% vor einer Stock 1070 , ca. 100-150W mehr verbrauchen und 2GB weniger vram haben, aber ca. 100€ sparen.
Muss jeder für sich entscheiden, ich lache ja auch nicht Leute aus, die 650€ für eine 1080 ausgeben, warum auch? Ist ihr Hobby und ihr Geld!
Ich persönlich würde nicht mehr als 400€ für ne Grafikkarte zahlen, allein aus dem Grund, dass diese kurz nach der Garantiezeit flöten gehen könnte oder nach einem Jahr einen massiven Preissturz erhält, siehe 980ti...Letztes Jahr noch ~700, dieses Jahr die Hälfte..meine war auch 350 :-)
Meine Meinung, wer nur für 2 Jahre in der 300 Euro Preisklasse kauft ist wohl mit einer GTX 1060 besser dran.
Wer wie ich nur etwa alle 4 Jahre die Grafikkarten tauscht sollte wohl lieber zur RX 480 8GB greifen.
Meine Erfahrung mit meiner HD 7870 GHZ hat mir das wieder gezeigt, gegenüber meiner GTX 770 ist die AMD
besser gealtert und hat mit den Jahren immer noch zugelegt. Die GTX 770 hat mit neuen NVDIA Treibern eher verloren.
Ich habe die Sapphire HD 7870 GHZ vor 3 1\ Jahren für 187 Euro gekauft, für die gebotene Leistung war das ein Schnäppchen.
Die MSI GTX 770 war knapp 100 Euro teurer, aber für die damalige Leistung war das Preislich auch noch ok.
Wenn ich die heutigen Preise von NVIDIA sehe verstehe ich nicht wie man das bezahlen kann, die GTX 1080 ist mit ~ 700 Euro einfach zu
teuer. Zumal zum Winter bestimmt noch eine GTX 1080 TI nachgeschoben wird. Bin mal gespannt wo die sich dann Preislich einordnen wird.
Bei Vega von AMD falls sie dann mit 8 GB HBM Speicher kommt wird der Preis sicherlich auch recht anständig sein.
So ist es. Aber man könnte es auch anders machen. Warum zum Teufel wegen einem Spiel gleich eine ≥ 1080 kaufen? Das ist schon kein Hobby mehr, das grenzt schon an einer ausgeprägten Zwangsneurose.
Das Gegenteil ist der Fall. je höher die Auflösung, umso höher die Texturen, also mehr Ram wird benötigt.
Das wurde auch geschrieben, bei HD mindestens 4GB 1080p, bei WQHD 1440p und bei UHD 2160p mindestens 8GB VRam !
Natürlich kann auch einen relativ niedrige Auflösungen wie 1080p viele Texturen haben, die dann auch entsprechend VRam benötigt.