R9 Fury X oder GTX 1070 für 1440p?

Ist eine überflüssige Diskussion. Wie mit der 970. Ist halt eine persönliche Entscheidung. Die Vor- und Nachteile wurden genannt. Bei 1440p wird der Speicher der Fury irgendwann nicht mehr für maximale Details reichen, ob die 480 dann genug Leistung hat, um maximale Texturen noch darzustellen, kann man nicht sicher sagen. Zwischen den beiden Karten liegen etwa 10%.

Hier das Video, wie sich mangelnder Speicher auswirkt: https://www.computerbase.de/2015-01/geforce-gtx-970-vram-speicher-benchmarks/3/
 
Die Texturenauflösung hängt vom VRam ab,nicht unbedingt von der Leistung der Karte.
 
Qarrr³ schrieb:
Zwischen den beiden Karten liegen etwa 10%.

Also hier sehe ich im Performancerating ca. 20% Vorsprung in WQHD für die Fury...
https://www.computerbase.de/2016-07...hnitt_benchmarks_in_1920__1080_und_2560__1440

Hab gestern meine Fury in Betrieb genommen, bei identischer Lautstärke zur R9 290 Gaming 4GB von MSI ca. 15°C kühler (max 75°C) trotz nun höchster Detailstufe in Overwatch bei konstant 70fps (Monitor Hz + 10) in 2560x1440.

In Witcher 3 bei max Details ohne Hairworks von ca. 30 auf über 40fps in 2560x1440.
 
Zuletzt bearbeitet:
Es sind ~20-30% Mehrleistung im Vergleich zu einer R9 390, die in etwa mit einer RX480 (ohne OC) gleichauf liegt. Schaut euch einfach die Tests hier auf CB an.

Verglichen mit einer RX480 OC, z.B. der Asus Strix, sind es ~ 10-20%, die eine Fury Mehrleistung bietet. Der Preis der Asus RX480 OC steht noch nicht fest, wird sich laut div. Schätzungen jedoch um die 300 € bewegen. Aber: Die Karte ist nicht lieferbar und wann sie das sein wird, ist immer noch unklar.
Die Fury für 350 hingegen ist lieferbar und hier ist es sogar das exzellente Design von Sapphire (mit CB-Empfehlung), was nochmal ein paar % herausholt und zudem flüsterleise ist.

Aber BTT: Wenn die Entscheidung zwischen einer Fury X und einer GTX 1070 fallen soll und man vom Monitor her nicht auf Freesync oder G-Sync festgelegt ist, würde ich ebenfalls die 1070 wählen und hier vermutlich das Design von Palit/Gainward.
Auch wenn die Karten teuer sind, das ist das modernste und zukunftssicherste, was es aktuell in dem Preisbereich gibt.

Alternative: Mindestens 6 Monate warten und schauen, wie sich Vega 10 schlägt.
 
Qarrr³ schrieb:
Dann kann man ja der hd530 8gb RAM zuweisen und bei maximalen texturen spielen. :)
Richtig, wenn man dafür Alles Andere auf sehr low setzt, geht das.

Hast du wieder mal was gelernt. ;)
 
Die nur 4 GB HBM VRAM bremsen die FPS im Großteil aller bisherigen Spiele nicht aus. Sonst würden die Fury X Karten nicht näher an die 980 Ti heranrücken in Benchmarks mit 4k Auflösungen. Zur Zeit ist eine GTX 1070 imo die beste Wahl. Freesync reißt es nicht raus.

Alternativ könntest du dir höchstens die verlinkte Fury Nitro für ~ 350€ kaufen um dann in ~3 Jahren eine Karte der neuen Generation zu kaufen. Dann würdest du jetzt sofort in den Genuss von Freesync kommen und hättest eine Karte, die unter kommenden Direct X 12 Spielen sehr wahrscheinlich nochmal an Performance gewinnen wird.
 
Hatte auch das "Problem" mit der Wahl der Karte. Hatte mir einen 1440p Monitor gekauft und hatte auf die rx 480 gewartet. Leider ist diese mehr für Full Hd ausgelegt, da richten die zusätzlichen 4 gb zur Fury auch nix aus, weil einfach die Rohleistung fehlt. Habe mir dann im September auch die fury non x gekauft. Bin sehr zufrieden besonders in der Kombination mit Freesync. The Division, Bf1 mit max Details. Erstes hab ich bei 60 fps und letzteres bei 80 fps im Treiber begrenzt, in Kombination mit leichten untervolting ist sie nicht stromfressender und lauter als meine 7950 Vorgängerkarte.... und bis Vega kommt und sich die Preise dafür eingepedelt haben, hab ich jedenfalls Ruhe. 😊
 
Ich ärger mich inzwischen ein bisschen, bei dem Freesync-Monitor zugeschlagen zu haben. Vega zieht sich deutlich länger hin als ich dachte und der Abstand der Generationen zwischen Nvidia und AMD wird immer größer.

Andererseits war der Monitor für 399,- beim Prime Day ein super Schnäppchen...vergleichbare Gsync-Monitore kosten weiterhin 500-600 Euro und sind auch irgendwie nie im Angebot...

Ich bete, dass Vega ein Knaller wird.
(Oder dass Nvidia endlich Async unterstützt...)
 
TeufelsGeneral schrieb:
Schönen guten Abend,

ich hätte noch eine Alternative für dich. Warum nicht die wohl beste Fury nehmen und satte 80 € sparen? Dabei reden wir hier gerademal von 7 % geringer Leistung als die 9800 ti und das für einen sagenhaften Preis für 350 €. Computerbase selbst gab damals für die Karte eine Empfehlung raus. Nicht umsonst ist das gute Stück derzeit heuß begehrt bei Geizhals und Co.


Schöne Grüße

Also die Sapphiere Fury liegt sowohl in 1080P als auch in 1440P um gute 30% hinter der gigabyte 980ti:D

https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-1920-1080

Die 1070 @1950 Mhz hat bei mir im System 18700 punkte im 3D Mark gebracht
Die 980ti @ 1300 Mhz hat bei mir im System 18725 Punkte im 3D Mark gebracht +-0%
Die 980ti @ 1550Mhz hat bei mir im System 21250 Punkte im 3D Mark gebracht + 13,6%
Die 1080 @ 1950 Mhz hat bei mir im System 22530 Punkte im 3D Mark gebracht + 6,00%


Wenn ich mir diese Werte angucke, frage ich mich warum man nicht die 980 ti nimmt. ja wegen freesync. Wenn ich aber soviel Leistung habe, das ich stabil in einem gelocktem Bereich bleiben kann?
wenn die fury 90 fps schafft, aber eine 980ti 117 fps, dann kann ich auf 100 fps locken und habe noch Luft, flüssigeres Bild und mehr Vram.
Einfach im Nvida Treiber selbst Hz Zahlen definieren ( ich habe 144 120 110 100 90 75) damit kann ich alle games abdecken und bei bedarf immer vsync aktivieren.

Ich mag AMD, aber ich kann noch immer aus eigener Erfahrung nur die 980ti empfehlen.
 
Zuletzt bearbeitet:
Mit dem Unterschied, dass du selbst bei Vsync und gelockten 60 FPS durch Freesync ein ruhigeres Bild erhälst.
 
GERminumus schrieb:
Also die Sapphiere Fury liegt sowohl in 1080P als auch in 1440P um gute 30% hinter der gigabyte 980ti:D

Da sagt der CB Test aber was anderes :rolleyes:
Zudem gabs es Treibermäßig bei AMD ein größeres Perfromance + wie bei Nvidia;)



GERminumus schrieb:
Einfach im Nvida Treiber selbst Hz Zahlen definieren ( ich habe 144 120 110 100 90 75) damit kann ich alle games abdecken und bei bedarf immer vsync aktivieren.

Ich mag AMD, aber ich kann noch immer aus eigener Erfahrung nur die 980ti empfehlen.

Könnte daran liegen, dass du ein grüner Fanboy bist? Wer nimmt denn bitte den 3D MArk zum vergleichen?
Beim Performancerating sieht das etwas anderst aus...
Und da ich aus eigenener Erfahrung (ehemaliger GTX 780 Besitzer)weiß wie toll der Treiber Support ist, sobald die neue Gen erscheint *kotz*. Kann man da echt nur von abraten sich jetzt noch ne 980 Ti zu besorgen.

Zumal der Kollege die Vorteile von Freesync ja schon genannt hat ;-)
 
@bärenmarke
Ich habe die Quelle meiner Aussage direkt mit angegeben die dies belegt mit den 30%
Übrigens auch Computerbase. Der Wert kommt daher zustande, da ihr oft Stock Karten vergleicht. Nvidia kann aber allein durch Customer Modelle mal eben 20% mehr raus holen.
Und mein Vergleich ist aus 12.2016 also wohl auch mit aktuellen Treibern. Hättest du dir nur mal meinen link angeguckt🙄

Erkläre mir bitte deinen zweiten Absatz.
Ich vergleiche ausschließlich NVIDIA Karten miteinander mit dem einzigen international gleichermaßen benutzen vergleichs Werkzeug und du erzählst mir ich bin ein fanboy?

Wenn du in meiner Signatur guckst, siehst du das ich ebenfalls einen freesync Monitor habe und ebenfalls schon einige AMD Karten hatte. Könnte da nicht evtl. Die Möglichkeit bestehen, das ich selbst schon freesync getestet habe? 😉
Und 60fps @ free oder g Sync sind niemals so flüssig wie 100 oder 120fps gelockt. Das ist physikalisch unmöglich, insofern die frametimes passen.

Und bitte verurteile mich nicht aufgrund der Unfähigkeit einen link zu öffen, finde es kack frech von dir mich als NVIDIA fanboy zu betiteln.

Und findest du es nicht komisch, das die Differenz im 3D Mark zwischen 1070 und 1080 genau 19% betragen, so wie in Gaming Benchmarks auch?
Bitte informiere dich vorher was das für ein Programm ist bevor du solche Behauptungen aufstellst. 3D Mark ist DAS Werkzeug um Leistungen vergleichen zu können und deckt sich 1:1 mit Gaming Benchmarks.
Ergänzung ()

Maine schrieb:
Mit dem Unterschied, dass du selbst bei Vsync und gelockten 60 FPS durch Freesync ein ruhigeres Bild erhälst.

Als zB. Durch 100fps gelockt nur mit vsync zB?
Hast du das schon selbst getestet?
Hört sich nicht danach an, denn das ist absoluter Quatsch.
Setz dich mal an ( egal ob free oder Gsync) 60hz Monitor und dann ohne diese Sync Technik an einen 144hz Monitor.
Dann spiel mit 60hz und mit 144 oder von mir aus auch nur 100hz.
Wenn du das gemacht hast, wirst du deinen Beitrag editieren😉

Ps: guck dir bf1 an. Das empfinde ich bei 60fps als total schwammig an der Maus.
Ab ca. 100-110fps empfinde ich das Game als sehr flüssig.
 
Zuletzt bearbeitet:
GERminumus schrieb:
Ergänzung ()

Als zB. Durch 100fps gelockt nur mit vsync zB?
Hast du das schon selbst getestet?
Hört sich nicht danach an, denn das ist absoluter Quatsch.
Setz dich mal an ( egal ob free oder Gsync) 60hz Monitor und dann ohne diese Sync Technik an einen 144hz Monitor.
Dann spiel mit 60hz und mit 144 oder von mir aus auch nur 100hz.
Wenn du das gemacht hast, wirst du deinen Beitrag editieren😉

Ps: guck dir bf1 an. Das empfinde ich bei 60fps als total schwammig an der Maus.
Ab ca. 100-110fps empfinde ich das Game als sehr flüssig.

Ja, habe ich zufälligerweise. Und du scheinst das Prinzip von Async bzw. Gsync nicht verstanden zu haben.
Wenn du keinen Unterschied zwischen Vsync und Gsync/Freesync siehst - schön für dich, dann kannst du dir einen entsprechenden Monitor sparen.

Ich hingegen sehe den Unterschied, so wie viele andere auch.

Und mir geht deine dezent hochnäsige Art im Sinne von "Ich hab recht und alle anderen erzählen Quatsch" auf den Keks.
Und BF1 besitze ich nicht, soll vorkommen.

Und nun besinne dich auf den letzten Satz deiner Signatur und denk vielleicht mal ein wenig über Toleranz nach.
 
Maine schrieb:
Ja, habe ich zufälligerweise. Und du scheinst das Prinzip von Async bzw. Gsync nicht verstanden zu haben.
Wenn du keinen Unterschied zwischen Vsync und Gsync/Freesync siehst - schön für dich, dann kannst du dir einen entsprechenden Monitor sparen.

Ich hingegen sehe den Unterschied, so wie viele andere auch.

Und mir geht deine dezent hochnäsige Art im Sinne von "Ich hab recht und alle anderen erzählen Quatsch" auf den Keks.
Und BF1 besitze ich nicht, soll vorkommen.

Und nun besinne dich auf den letzten Satz deiner Signatur und denk vielleicht mal ein wenig über Toleranz nach.

Du kannst das gerne anders sehen, habe ja wie gesagt ebenfalls freesync hier.
Und doch ich habe das verstanden mit den Sync Methoden, jedoch macht es einfach einen Riesen Unterschied in welchem hz und fps Bereich man unterwegs ist.
In Shooter verschlechtert sich durch Sync gar die frametimes, ausführlich von Linus techtips getestet.
Bei einem 60hz Monitor würde ich auch immer syncro wollen.
Bei 144hz sehe ich das anders.

Das du meine Art als hochnäsig interpretierst ist schade.wie interpretierst du das denn wenn man mich als fanboy beschimpft?, obwohl ich nur Fakten ( 30% Differenz zwischen Fury und 980ti) aufzähle?
Das man da dann mal etwas angepisst ist, ist doch nachvollziehbar!?


Solltest du dauerhaft mit mir nicht zurecht kommen, setz mich einfach auf deine Block Liste, keine Lust auf Stress hier.
Ansonsten noch n schönen Tag
 
Zuletzt bearbeitet:
Ich habe ja auch nicht gesagt, dass es bei 144 Hz genau so einen Effekt hat, wie bei 60 Hz, denn das ist natürlich nicht der Fall.
Der wahrnehmbare Effekt von A/Gsync reduziert sich prinzipbedingt mit zunehmener Herzzahl, da sind wir uns ja völlig einig.
Nichts desto trotz ist er auch bei 144 Hz noch vorhanden.

Das nächste Problem an der Geschichte ist allerdings, dass aktuell kaum ein moderneres Spiel selbst mit einer GTX 1080 auf hohen Einstellungen auch nur in die Nähe von 120 oder gar 144 FPS kommt (nein, CS zählt hier nicht ;)). Und das wird leider wohl auch noch eine ganze Weile so bleiben.

Ich habe dich da dann wohl falsch interpretiert, das passiert leider bei Geschriebenem. Von daher alles gut ;-)
 
GERminumus schrieb:
@bärenmarke
Ich habe die Quelle meiner Aussage direkt mit angegeben die dies belegt mit den 30%
Übrigens auch Computerbase. Der Wert kommt daher zustande, da ihr oft Stock Karten vergleicht. Nvidia kann aber allein durch Customer Modelle mal eben 20% mehr raus holen.
Und mein Vergleich ist aus 12.2016 also wohl auch mit aktuellen Treibern. Hättest du dir nur mal meinen link angeguckt🙄

Dann schauen wir doch nochmal in deinen verlinkten Test rein, was ich im übrigen vorher schon getan habe. Und wir stellen fest im cb Test sind es 7% unter FHD und 4% unter WQHD.
Sind etwas von deinen 30% entfernt und wenn du schon mit übertakteten Werten daherkommst, dann sollte man wenigstens auch die Fury übertakten, auch wenn sie nicht so ein hohes OC Potenzial hat um fair zu bleiben...
Und ja ich kenne die Treiberentwicklung von Nvidia bis vor ner Woche hatte ich noch eine GTX 780 und die Gap wurde immer größer komischerweise ;-)


GERminumus schrieb:
Erkläre mir bitte deinen zweiten Absatz.
Ich vergleiche ausschließlich NVIDIA Karten miteinander mit dem einzigen international gleichermaßen benutzen vergleichs Werkzeug und du erzählst mir ich bin ein fanboy?

Was bist du denn sonst? Vergleichst stock mit OC Karten. Beruhst dich nur auf den 3D Mark...
Wieso nimmst nicht den neuen Standard DX 12? Fragen über Fragen ;-)


GERminumus schrieb:
Wenn du in meiner Signatur guckst, siehst du das ich ebenfalls einen freesync Monitor habe und ebenfalls schon einige AMD Karten hatte. Könnte da nicht evtl. Die Möglichkeit bestehen, das ich selbst schon freesync getestet habe? 😉
Und 60fps @ free oder g Sync sind niemals so flüssig wie 100 oder 120fps gelockt. Das ist physikalisch unmöglich, insofern die frametimes passen.

Das hängt sicherlich davon ab:
a) wie konstant deine fps und die Frametimes sind
b) ist es zum großen Teil auch ein subjektives Wahrnehmen, was sich nicht so pauschalisieren lässt wie du meinst
c) bist du wirklich der erste, von dem ich lese dass er Freesync/Gsync nicht so toll findet

GERminumus schrieb:
Und bitte verurteile mich nicht aufgrund der Unfähigkeit einen link zu öffen, finde es kack frech von dir mich als NVIDIA fanboy zu betiteln.
Du brauchst deine eigene Unfähigkeit nicht auf andere abzuwälzen, wenn du nicht in der Lage bist Zahlenwerte korrekt aus dem Test abzulesen, geschweige denn eine faire Vergleichsgrundlage schaffen kannst...


GERminumus schrieb:
Und findest du es nicht komisch, das die Differenz im 3D Mark zwischen 1070 und 1080 genau 19% betragen, so wie in Gaming Benchmarks auch?
Bitte informiere dich vorher was das für ein Programm ist bevor du solche Behauptungen aufstellst. 3D Mark ist DAS Werkzeug um Leistungen vergleichen zu können und deckt sich 1:1 mit Gaming Benchmarks.

Wäre mir doch sehr neu, dass die Masse den ganzen Tag nur den 3D Mark nutzt...
Und nein, es ist nicht das Werkzeug um Gamingleistung zu vergleichen, dafür nimmt man die Games mit ihren zig verschiedenen Engines.

GERminumus schrieb:
Das du meine Art als hochnäsig interpretierst ist schade.wie interpretierst du das denn wenn man mich als fanboy beschimpft?, obwohl ich nur Fakten ( 30% Differenz zwischen Fury und 980ti) aufzähle?
Das man da dann mal etwas angepisst ist, ist doch nachvollziehbar!?

Du hast keine Fakten genannt, das ist ja das Problem...
Wie oben bereits erwähnt, hast du keine 30% zur Fury X und zudem sollte man dann halt eine faire Grundlage schaffen und die Karte dann auch versuchen zu übertakten und nicht nur die eine ins maximale zu treiben.
Hier hast du auch schon wieder 10% mehr Leistung bei der Fury X:
http://www.hardwareluxx.de/index.ph...98-amd-radeon-r9-fury-x-im-test.html?start=23

Von daher sollte man sich nicht wundern, wenn man keinen fairen Vergleich anstrebt, dass man auch einstecken muss....
 
Maine schrieb:
Ich habe ja auch nicht gesagt, dass es bei 144 Hz genau so einen Effekt hat, wie bei 60 Hz, denn das ist natürlich nicht der Fall.
Der wahrnehmbare Effekt von A/Gsync reduziert sich prinzipbedingt mit zunehmener Herzzahl, da sind wir uns ja völlig einig.
Nichts desto trotz ist er auch bei 144 Hz noch vorhanden.

Das nächste Problem an der Geschichte ist allerdings, dass aktuell kaum ein moderneres Spiel selbst mit einer GTX 1080 auf hohen Einstellungen auch nur in die Nähe von 120 oder gar 144 FPS kommt (nein, CS zählt hier nicht ;)). Und das wird leider wohl auch noch eine ganze Weile so bleiben.

Ich habe dich da dann wohl falsch interpretiert, das passiert leider bei Geschriebenem. Von daher alles gut ;-)

Wir sind uns einig, Geschriebenes liest sich oft härter als es gemeint ist.
Auch jetzt wo wir wissen das wir jeweils völlig unterschiedliche hz zahlen meinen, teile ich komplett deine Meinung.

Um überhaupt über 100fps STABIL zu haben, muss ich oft auf Mittel bis hoch runter in AAA Games.
Games wie planet side 2 oder bf1 reagieren völlig anders bei mir, als
Spiele wie GTA5 oder the Witcher. Die spielen (gta Tw) sich völlig perfekt bei gesync freesync @60hz, während bf1 und ps2 sich da für mich katastrophal anfühlen.
Generell glaube ich das das was mit Kontroller Games zu tuen hat. Aber noch nie mit befasst.

@1440p @ 144hz bringen selbst ein moderates System voll in die Knie😅
Ergänzung ()

Bärenmarke schrieb:
Dann schauen wir doch nochmal in deinen verlinkten Test rein, was ich im übrigen vorher schon getan habe. Und wir stellen fest im cb Test sind es 7% unter FHD und 4% unter WQHD.
Sind etwas von deinen 30% entfernt und wenn du schon mit übertakteten Werten daherkommst, dann sollte man wenigstens auch die Fury übertakten, auch wenn sie nicht so ein hohes OC Potenzial hat um fair zu bleiben...
Und ja ich kenne die Treiberentwicklung von Nvidia bis vor ner Woche hatte ich noch eine GTX 780 und die Gap wurde immer größer komischerweise ;-)




Was bist du denn sonst? Vergleichst stock mit OC Karten.
Nein ich vergleich die Sapphiere Nitro fury gegen die Gigabyte 980ti, klicke auf das plus im Benchmark. Dennoch interessiert mich wie du darauf kommst?

Beruhst dich nur auf den 3D Mark...
Nein, ich stelle fest das 3D Mark ein einheitliches Tool darstellt und neben bei noch den gleichen prozentualen Abstand abbildet, wie das gesamt Rating bei Computerbase (auf das Plus klicken)

Wieso nimmst nicht den neuen Standard DX 12? Fragen über Fragen ;-)
Weil es in der Praxis leider keinerlei Relevanz hat. Sehr freue ich mich auf DX12, aber sag mir in welchem AAA Games es bisher so läuft, als das man von einem neuem Standard sprechen kann?



Das hängt sicherlich davon ab:
a) wie konstant deine fps und die Frametimes sind
Ja da sind wir uns einig

b) ist es zum großen Teil auch ein subjektives Wahrnehmen, was sich nicht so pauschalisieren lässt wie du meinst
vermutlich habe ich einen Satz zu forsch formuliert, entschuldige

c) bist du wirklich der erste, von dem ich lese dass er Freesync/Gsync nicht so toll findet
Nochmal, in 60hz mag das spitze sein, aber in z.b. 120-144? kann dir Linuxtechntips sehr empfehlen


Du brauchst deine eigene Unfähigkeit nicht auf andere abzuwälzen, wenn du nicht in der Lage bist Zahlenwerte korrekt aus dem Test abzulesen, geschweige denn eine faire Vergleichsgrundlage schaffen kannst...
und ich frage dich nochmal, hast du auf das Plus im Benchmark geklickt? hast du gelesen das ich von einer Sapphiere Fury und einer Gigabyte 980ti gesprochen habe? Die findest du nach dem klicken auf dem PLus! Wo habe ich jemals Referenz in diesem Zusammenhang erwähnt?



Wäre mir doch sehr neu, dass die Masse den ganzen Tag nur den 3D Mark nutzt...
Es dient als Werkzeug weil es einen sehr guten vergleichbaren Wert schafft, welcher sich rein zufällig mit einem Großteil der Gaming engines deckt

Und nein, es ist nicht das Werkzeug um Gamingleistung zu vergleichen, dafür nimmt man die Games mit ihren zig verschiedenen Engines.
Welche wenn man den gesamt Schnitt nimmt, sehr nahe an die 3D Mark Werte kommt, merkwürdig...


Du hast keine Fakten genannt, das ist ja das Problem...
Ich habe eine Aussage getroffen und habe direkt noch den Link dazu mit gesendet (aufs plus im Benchmark klicken) und genau das wiedergibt was ich gesagt habe

Wie oben bereits erwähnt, hast du keine 30% zur Fury X
Von der sprach auch niemand, sondern von der Fury

und zudem sollte man dann halt eine faire Grundlage schaffen und die Karte dann auch versuchen zu übertakten und nicht nur die eine ins maximale zu treiben.
Es wurden auschließlich Custome Modelle angesprochen, woher hast du das, dass ich Stock vs Custom vergleiche?

Hier hast du auch schon wieder 10% mehr Leistung bei der Fury X:
http://www.hardwareluxx.de/index.ph...98-amd-radeon-r9-fury-x-im-test.html?start=23

Von daher sollte man sich nicht wundern, wenn man keinen fairen Vergleich anstrebt, dass man auch einstecken muss....

Alles ok, wir haben völlig andere Herangehensweisen was das Lesen von Artikeln angeht. Nur nochmal, kann ich jede meiner getroffnen Aussagen belegen (das geliebte plus, klick es im Benchmark). Sollte ich mich aber irgendwo falsch geäussert haben, vertan oder sonst was, werde ich mich über neue Erkenntnisse erfreuen. Eine Meinung darf man gerne ändern, auch die Eigene. Fehler passieren überall.
 
Zuletzt bearbeitet:
GERminumus schrieb:
Alles ok, wir haben völlig andere Herangehensweisen was das Lesen von Artikeln angeht. Nur nochmal, kann ich jede meiner getroffnen Aussagen belegen (das geliebte plus, klick es im Benchmark). Sollte ich mich aber irgendwo falsch geäussert haben, vertan oder sonst was, werde ich mich über neue Erkenntnisse erfreuen. Eine Meinung darf man gerne ändern, auch die Eigene. Fehler passieren überall.

Ja Fehler passieren überall, dass du dich auf die Fury beziehst und nicht auf die Fury X wie es im Thread Titel auch steht, hab ich allerdings übersehen.
Aber wieso ändert man auch ständigt die Sicht der Dinge?


GERminumus schrieb:
Nein ich vergleich die Sapphiere Nitro fury gegen die Gigabyte 980ti, klicke auf das plus im Benchmark. Dennoch interessiert mich wie du darauf kommst?

Ganz einfach, weil ich die Frage des Te gelesen hatte und der Bezog sich auf die Fury X, dass die normale Fury nochmal etwas langsamer ist ist klar, dafür ist sie aber auch nochmal einiges günstiger.
Von daher ist dein Vergleich halt nicht wirklich fair. ;-)

GERminumus schrieb:
Nein, ich stelle fest das 3D Mark ein einheitliches Tool darstellt und neben bei noch den gleichen prozentualen Abstand abbildet, wie das gesamt Rating bei Computerbase (auf das Plus klicken)

Dann ist dies aber eher dem Zufall geschuldet, auf anderen Seiten bildet es nicht 1 zu 1 das Ergebnis der Spieleparcours ab. Von daher halte ich es auch nicht sinnvoll für einen Vergleichstest. Aber ich bin gerne offen warum man es nehmen sollte? :)

GERminumus schrieb:
Weil es in der Praxis leider keinerlei Relevanz hat. Sehr freue ich mich auf DX12, aber sag mir in welchem AAA Games es bisher so läuft, als das man von einem neuem Standard sprechen kann?

In fast allen Games die DX 12 nutzen hast du Zuwächse nur auf Nvidia Karten nicht, was für mich u.a. ein Grund zum umsteigen war. Nur weil sie den Standard nicht richtig unterstützen ist das imo kein Grund ihn nicht zu nutzen. Allein die Konsolen pushen den neuen Standard immer mehr. Bei Deux hast du doch z.b. ordentliche Zuwäche, wenn ich mich nicht täusche.


GERminumus schrieb:
Nochmal, in 60hz mag das spitze sein, aber in z.b. 120-144? kann dir Linuxtechntips sehr empfehlen
Auch da stört es mich nicht (ich hab nen Gsync Monitor, gut jetzt kann ich es aktuell nicht mehr nutzen aber who cares:D Möchte mir demnächst eh einen neuen holen)



GERminumus schrieb:
und ich frage dich nochmal, hast du auf das Plus im Benchmark geklickt? hast du gelesen das ich von einer Sapphiere Fury und einer Gigabyte 980ti gesprochen habe? Die findest du nach dem klicken auf dem PLus! Wo habe ich jemals Referenz in diesem Zusammenhang erwähnt?

Gerne nochmal für dich, ja ich hab den Test angeschaut und ich finde es immernoch ein absolutes Unding, dass wenn von einer Fury X die Rede war du einfach eine Fury draus machst um aufzuzeigen wie viel besser ja die GTX 980 TI ist... Die Objektivität lässt grüßen.
Und dazu hattest du noch unterschiedliche Taktraten gepostet und wie gesagt auch die Fury X lässt sich noch um 10% übertakten ;-)



GERminumus schrieb:
Es dient als Werkzeug weil es einen sehr guten vergleichbaren Wert schafft, welcher sich rein zufällig mit einem Großteil der Gaming engines deckt
Welche wenn man den gesamt Schnitt nimmt, sehr nahe an die 3D Mark Werte kommt, merkwürdig...

Wie schon erwähnt nicht wirklich, da der Parcour von cb nicht optimal gewählt ist und du einige Games hast die den Schnitt doch merklich versauen.


GERminumus schrieb:
Wie oben bereits erwähnt, hast du keine 30% zur Fury X
Von der sprach auch niemand, sondern von der Fury

Doch... mal den Titel des Threads lesen...
Dann brauch ich mich nicht wundern, wenn jeder von was anderem spricht.

GERminumus schrieb:
und zudem sollte man dann halt eine faire Grundlage schaffen und die Karte dann auch versuchen zu übertakten und nicht nur die eine ins maximale zu treiben.
Es wurden auschließlich Custome Modelle angesprochen, woher hast du das, dass ich Stock vs Custom vergleiche?

Du hast noch zusätzliche OC Werte gepostet und wie bereits erwähnt bin ich von der Fury X ausgegangen, die auch im Titel steht...
Finds aber immernoch ziemlich daneben, wenn sich alles um die Fury X dreht und du mit der Fury daherkommst. Da geh ich dann persönlich von aus, dass du das X vergessen hast.
 
Meine alte Sapphire Fury Tri-X hat mich 463 Euro gekostet, vor 3 Wochen um 235 Euro verkauft und dafür eine Neue Fury Nitro OC+ für 267 Euro gekauft.
1 Jahr länger Garantie und dann wird auf Vega umgesattelt...
 
Zurück
Oben