Test AMD Radeon R9 290X im Test

GHad schrieb:
So wird das nix AMD, total enttäuschend. Ein halbes Jahr nach der Titan und dann nur ein paar Prozent vorn. Ich hätte 30% mehr Leistung bei 40% geringerem Verbrauch erwartet für maximal 400 €. Früher gabs die Top Graka doch auch für 300 Euro.

Früher gab es auch Festplatten für 40€ die viel Kapazität hatten - mit 20GB.... Immer dieses Wunschkonzert. Warum sollte AMD eine Grafikkarte bringen mit 30% mehr Leistung und die mehr als 1/3 unter dem Preis der Konkurrenz verkaufen? Geht's noch. Bisschen wirtschaftlichen Verstand trau ich ja fast jedem zu... Naja, jetzt nicht mehr.

R290X. Leistung mind. GTX Titan. Preis aktuell (weit) unter der Titan. Was will man mehr? nVidia muss nachlegen, nicht AMD noch billiger werden ;)
 
Was regen sich so viele immer auf? Es geht doch hier nur um die Karte... und wer wie was wie lang spielt geht doch am *** vorbei.
Von mir aus können die Leute sich auch ein CF System kaufen, wer bock dazu hat soll es machen. Ich hab mir ja auch eine GIXXER gekauft statt eine YAMAHA R1 . Jeder will seine Bedürfnisse befriedigend , jeder hat sein Hobby und jeder Geschmack ist anders. So what? :)

LG
Satz,
 
Herdware schrieb:
Bei Features, für die die Softwareentwickler gezielt optimieren müssen, bin ich immer zurückhaltend. Ist ein nettes Sahnehäubchen oben drauf, falls es irgendwann eintrifft, aber ich würde es nicht vorab als Pluspunkt in die Kaufentscheidung mit einbeziehen.

Mantle wurde durch Leute von Dice für 15 Spiele angekündigt. Mantle ist ein fester Bestandteil der Frostbite 3 Engine geworden.
So einfach abspeißen würde ich dieses Thema als (noch) nicht....
 
moshkopp schrieb:
interessant wird die karte ja eh erst richtig, wenn mantle in den ersten spielen genutzt wird.
könnt mir vorstellen, dass sich die r9 in solchen spielen schon sehr stark absetzt.

so wie Nvidia mit PhysX?
Ja , abzuwarten was kommt.
 
Um 180 Grad wenden? Was ist mit Pitcairn? Tahiti ohne Gigahertz? HD 7770? Oder der 290pro?
Was soll damit sein, sollen wir jetzt für jede Generation auch die low End und mid Range vergleichen, dann stehen mir in ein paar Wochen noch hier. Keine Frage die kleinen GCN sind extrem effizient, die 270X hat die Effizienz Krone nur ganz knapp verpasst. http://www.techpowerup.com/reviews/AMD/R9_290X/28.html
Aber im Allgemeinen hat NV mit Fermi in keinem Segment Land gesehen, dann mit Kepler plötzlich alles wenn auch knapp gewonnen, also hat sich das Blatt doch gewendet für NV, sodas zb. Apple wieder von AMD auf NV GPUs Umstieg beim MBPR.

Auch eine HD 7970 GHz ist nicht so ineffizient wie sie immer darstellt wird, sobald einer GTX 680 2GB Vram Krüppel Edition der Speicher ausgeht, sieht Kepler auch hier kein Land mehr.
 
Kasmopaya schrieb:
Was sah anders aus? GTX 580 war es noch schlimmer, AMD war noch Effizienter unterwegs mit der HD 6000 und bei GT 200 war AMD schon am aufholen. Erst mit Kepler hat NV das Blatt komplett um 180Grad drehen können. Sowohl bei Gaming GPUs wie klein Kepler, als auch bei GPGPU Brocken wie Titan.
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-hd-6970-und-hd-6950-test.1389/seite-26
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-hd-6970-und-hd-6950-test.1389/seite-31
Wo war bitte HD 6000er-Serie effizienter?
Sowohl in der Performance als auch im Stromverbrauch lagen GTX 570 und HD 6970 fast exakt (1080p-4AA/16AF) gleich auf.
Die GTX 580 war 15% schneller aber auch in diesem Ausmaß stromfressender, sodass die Effizienz wieder auf dem Niveau war.

Interessant war die Aussage über 1:2 statt 1:4 @ GPGPU.
Schließlich hat es nichts mit Games zu tun und wirklich viel war davon bisher nicht zu höhren (ich hörte z.B. nichts), aber wenn das kommen würde (an das ich jetzt nicht denken will und noch weniger erwarten kann), dann wäre Hawaii eine Bombe.;)

Da sehe ich sogar extremes Potenzial, durch Mantle und DX 11.2 das eine Titan nicht hat. Da sieht die Titan in Sachen Effizienz ganz schnell kein Land mehr wenn das stimmt was AMD über BF4 sagt. Aber hier und heute alles noch Theorie.
Diese Aussage sehe ich dann als Widerspruch zu deiner anderen Aussage, wo sich die Effizienz seit Kepler so verschlechtert hat.
Denn wenn GTX 480 war eben ein Ausrutscher, dass nicht sein wahres Potential zeigen konnte. So wie Hawaii jetzt laut dieser Aussage.

Wenn man die Architektur betrachtet, muss man es über längeren Zeitraum nehmen.
Wenn man das Produkt "R9 290X" betrachtet, dann eben das jetzige Gesamt-Paket.
Und das ist sehr solide.
Warum Titan wesentlich effizienter (+15-20%) ist als auch GK104, ist ja auch nich wirklich aufgeklärt. Deshalb würde ich mit Effizienz-Aussagen noch etwas vorsichtiger sein, wenn man nicht weiß, woher das bei Titan wirklich kommt. Dazu hinzu kommt noch, dass bei Hawaii viele Einheiten Tesselation & ROPs & Rasterizer verdoppelt wurden und diese Verdopplung offensichtlich noch nicht wirklich genutzt werden konnte, aber mit so 435mm² trotzdem noch eine hohe Flächen-Effizienz hat, während die Performance-pro-Watt-Effizienz zwar etwas hinter GK110 aber vor GK104 ist.

Die Chance geht gegen 0. Allerdings sollte man schon warten auf NV was die so machen. Ich hab mein Killer Argument schon gefunden, das ist der Monitor den ich haben will und die GPU dazu: http://www.pcgameshardware.de/Nvidi...-255598/Specials/Nvidia-G-Sync-Daten-1093359/
Und solche Sachen muss man dann für sich abwägen, lieber DX 11.2 Mantle oder G-Sync. Und wenn man voreilig zuschlägt gibt es eben kein abwägen.
DX11.2-Mantle vs G-Sync kann man wohl eher aber der 20nm-Serie abwägen, weil man in den nächsten paar Wochen da kaum Mehrerkenntnis bekommt und dann hat eh schon längst das Schielen auf 20nm-Produkte begonnen.
 
Zuletzt bearbeitet:
Tom Tom schrieb:
Glaube ich hab genug Ahnung, lasse mich aber gerne von dir verbessern und aufklären.

BTT:
Wäre toll, wenn AMD zum hohen Verbrauch unter Windows oder Blu-ray Stellung nimmt. Vielleicht lässt sich das ja durch ein neues BIOS beheben.

Ich habe Dir oben noch etwas geschrieben, kannst ja selber eingeben bei der Stromkostenrechnung (oben, auf der rechten Seite) und Dich überzeugen, was es aufs Jahr gerechnet mehr kosten würde: Stromkostenrechner

Man könnte z.B. auch den Stromanbieter wechseln, was sich dann auf den gesamten Haushalt nur positiv auswirken würde.

Also zwischen der GTX 780 (288W) und der 290X (337W) sind es (laut CB) 49Watt, die die 290X mehr verbraucht.
Sagen wir, man spielt 4 Stunden am Tag unter Vollast und das ein Jahr lang (was ein normaler Mensch, der auch arbeiten/studieren/lernen muss, auf keinen Fall jeden Tag schaffen würde) bei einem durchschnittlichen Strompreis von 25Cent/kWh (gibt natürlich auch günstigere Tarife).

Meine Rechnung:

(49Watt * 4Stunden * 365 Tage) / 1000 = 71,54kWh pro Jahr.

So, eine kWh kostet in unserem (realitätsfernen) Beispiel 25 Cent ----> 71.54 * 0.25 = 17,89€ im Jahr.

Eine GTX 780 kostet ca. 520€. Eine 290X UVP 479€. Macht ungefähr 40€ Differenz. Jetzt müsstest Du mit der GTX 780 etwas mehr als 2 Jahre lang spielen, bis Du die 40 Euro rausgeholt hast aus dem besseren Verbrauch der GTX 780. Bis dahin holt man sich schon ein neueres und schnelleres Model, um die neuesten Games mit der besten Bildqualität/Effekten flüssig spielen zu können. Hättest Du Dich für die 290X entschieden, hättest Du in den über 2 Jahren das eindeutig schnellere Model gehabt und die "Geburt", "Pubertät" und das "Erwachsen werden" von Mantle hautnah mitbekommen. Meiner Meinung nach wird Mantle für sehr positive Überraschungen sorgen. Und natürlich wärst Du in der Zeit auch in den Genuß von TrueAudio gekommen.
 
Zuletzt bearbeitet:
Zucksi schrieb:
Habe mir auch gerade grob so eine Rechnung gemacht (zw. Titan und R290X)....Die Karte verbraucht zwar verhältnismäßig zu viel aber angesichts der Preislage der Titan ist sie immernoch viel effizienter.

Wie du bereits sagst spielt auch keiner 12 Stunden am Tag.

Man muss in der Rechnung auch berücksichtigen, dass GPUs in Multiplayertiteln selten am Limit laufen. Gerade Planetside 2 ist ein Paradebeispiel. Am Warpgate stemmt meine 7950 Boost noch knapp dreistellige Frames. In großen Schlachten ist dann bei 35 fps Schluß und es steht nur noch CPU-Limit bei der Frameanzeige. Da darf dann mein FX-8350 den Strom ziehen :D Die Grafikkarte wird dann eher wenig brauchen. In PS2 kann man die Frames selber über die Engine einbremsen, ansonsten tut das auch Radeon Pro. Da setze ich das Limit auf 59fps und reduziere den Stromverbrauch der GPU auch deutlich.
 
Zuletzt bearbeitet:
Ich sehe die 290X deshalb auch ohne Mantle und DX11.2 mindestens auf Augenhöhe mit der Titan.
Wenn du keine 1k€ ausgeben willst für Titan Ultra und dir sicher bist das du G-Sync nicht haben willst, dann würde ich an deiner Stelle auch zuschlagen. Die Titan lässt man mit den Costum Designs hinter sich, wie es mit der Vram Entwicklung aussieht ist schwer zu sagen. 4GB müssten eigentlich reichen, üppig ist aber was anderes.

Mantle ist ein fester Bestandteil der Frostbite 3 Engine geworden.
So einfach abspeißen würde ich dieses Thema als (noch) nicht....
Ich auch nicht, allerdings zu seiner Verteidigung, es werden alles EA(Origin) Spiele. :eek:

Wo war bitte HD 6000er-Serie effizienter?
HD 6970 kämpfte gegen die 580, da der mini Vram der 570 schnell überlief. Und die 6970 war die mit Abstand ineffizienteste die AMD auffahren konnte, schaust du selber hier, Stichwort HD 6950 die gerade zu den Boden gewischt hat mit Thermi, die kleinen 6000er waren auch alle meilenweit vor Thermi: http://www.techpowerup.com/
Werde jetzt nicht schon wieder zum x mal den Generationen Vergleich machen. Es heißt nicht umsonst Thermi. Die ineffiziente Generation ever.

Denn wenn GTX 480 war eben ein Ausrutscher, dass nicht sein wahres Potential zeigen konnte. So wie Hawaii jetzt laut dieser Aussage.
Welche Aussage? Das ist alles hätte wäre, wenn, das sind keine Fakten, genauer hinschauen... Es besteht das theoretische POTENZIAL. Und AMD hat sich nicht so stark verschlechtert, NV hat angezogen, aber gewaltig. Vor allem die Titan, vorher waren alle GPGPU Chips ineffizient, mit der Titan hat man plötzlich die schnellste und fast effizienteste Karte weit und breit.

Denn wenn GTX 480 war eben ein Ausrutscher, dass nicht sein wahres Potential zeigen konnte.
Ja die 5800 Ultra Reborn war das. Aber ein langer Ausrutscher, denn mit der 580 1,5GB besserte sich gar nix. Das verändert aber die Fakten Lage nicht. Thermi bleibt Thermi, für alle Zeiten.
 
Zuletzt bearbeitet:
Zum Test an sich, Euch ist ein Fehler unterlaufen beim FPS Limiter Test bei Bioshock. Hier wurden die Leistungsaufnahmewerte vertauscht, im Text ists jedoch richtig.
Schade find ich nur das es keine Tests zum undervolting gibt, Bei so vielen Transistoren tut sich da bestimmt ne Menge.

Zu dem Preis ist die Karte schon ziemlich beeindruckend ^^ Straßenpreise könnten ja nochmal tiefer liegen. Und schön zu sehen dass sie trotz größerem Chip und breiterem SI die effizienz dennoch steigern konnten.
Fest steht aber für mich, dass ich wohl aber auf die nächsten 20nm Produkte warten werde, da das für mich interessante Preissegment von R9 /GF 7xx eh nur aus alten Chips besteht.

Edit: Auch sollte man nicht vergessen, dass wohl noch 1-2% durch Treiber kommen können, da dieser sicher noch nicht optimal mit dem neuen Frontend abgestimmt ist.
 
Zuletzt bearbeitet:
Marco^^ schrieb:
Unigine Heaven Tessellation, OpenGL Benchmark, deswegen kann ich nix mit AMD GraKa's anfangen ...

Test's ohne Unigine Heaven kann ich auch nicht einstufen.

Unigine wurde eh getestet (siehe deinen Link). Bei wenig Tesselation ist die R9 290X viel besser als die Konkurenz (zumindest in SubD11). Bei mehr Tesselation bricht sie ein. Es wird aber auch angemerkt, dass es sich dabei eventuell um einen Treiberfehler handelt. Bei diesem Einbruch irgendwie ein logischer Schluß.
 
Zuletzt bearbeitet:
Aber ehrlich warum keine Computerbase empfehlung?
Sagen wir die Leistungen zw. Titan und R9 290X ist in etwa gleich.

Mit den 300 Euro differenz(?) die man sich spart wenn man statt eine Titan eine R9 290X kauft kann man sich einen custom Kühler kaufen (sagen wir ~70€) und hat noch 230.- differenz und das geht dann sicherlich lange lange für den "mehrverbrauch" an Strom drauf. Versteht ihr worauf ich hinaus will?
Ist das nicht so?
Ich kann mich auch irren, der Markt wird das sowieso wieder regeln.
 
Die Spezifikationen der R9 290X waren vielversprechend. Aber offensichtlich hat AMD Mühe, die Leistungsaufnahme des Hawaii-Chips in den Griff zu kriegen, sodass nVidia bzgl. Performance/Watt (GTX 780) die Nase vorn hat.
 
Dr.Duschlampe schrieb:
Ich habe Dir oben noch etwas geschrieben, kannst ja selber eingeben bei der Stromkostenrechnung (oben, auf der rechten Seite) und Dich überzeugen, was es aufs Jahr gerechnet mehr kosten würde: Stromkostenrechner

Man könnte z.B. auch den Stromanbieter wechseln, was sich dann auf den gesamten Haushalt nur positiv auswirken würde.

Also zwischen der GTX 780 (288W) und der 290X (337W) sind es (laut CB) 49Watt, die die 290X mehr verbraucht.
Sagen wir, man spielt 4 Stunden am Tag unter Vollast und das ein Jahr lang (was ein normaler Mensch, der auch arbeiten/studieren/lernen muss, auf keinen Fall jeden Tag schaffen würde) bei einem durschschnittlichen Strompreis von 25Cent/kWh (gibt natürlich auch günstigere Tarife).

Meine Rechnung:

(49Watt * 4Stunden * 365 Tage) / 1000 = 71,54kWh pro Jahr.

So, eine kWh kostet in unserem (realitätsfernen) Beispiel 25 Cent ----> 71.54 * 0.25 = 17,89€ im Jahr.

Eine GTX 780 kostet ca. 520€. Eine 290X UVP 479€. Macht ungefähr 40€ Differenz. Jetzt müsstest Du mit der GTX 780 etwas mehr als 2 Jahre lang spielen, bis Du die 40 Euro rausgeholt hast aus dem besseren Verbrauch der GTX 780. Bis dahin holt man sich schon ein neueres und schnelleres Model, um die neuesten Games mit der besten Bildqualität/Effekten flüssig spielen zu können. Hättest Du Dich für die 290X entschieden, hättest Du in den über 2 Jahren das eindeutig schnellere Model gehabt und die "Geburt", "Pubertät" und das "Erwachsen werden" von Mantle hautnah mitbekommen. Meiner Meinung nach wird Mantle für sehr positive Überraschungen sorgen.

Danke für deine Mühe.

Ich fasse zusammen: hab mich mit meiner Aussage bissl weit aus dem Fenster gelehnt und nicht so sehr nachgedacht.
Positiv finde ich, dass jetzt hier so intensiv über den Verbrauch diskutiert wird.
Auch wenn der ein oder andere ein wenig übertreibt in seiner Ausdrucksweise. Ich wollte eure roten Herzen nicht verletzen. Bin immer wieder erstaunt über einige Reaktionen, wenn es um nvidia vs AMD geht.
 
Tom Tom schrieb:
BTT:
Wäre toll, wenn AMD zum hohen Verbrauch unter Windows oder Blu-ray Stellung nimmt. Vielleicht lässt sich das ja durch ein neues BIOS beheben.

Blu-Ray und 2 Monitore sind leicht erklärt.

AMD Radeon R9 290x

[Takt GPU (MHz); Takt Speicher (MHz); Spannung GPU (Volt); Spannung Speicher (Volt)]

Lastfreier Betrieb [300; 150; 0,864; 1,507]
Blu-ray-Wiedergabe [426 – 470; 1250; 0,949; 1,515]
Multi-Monitor-Betrieb (2 Geräte) [300; 1250; 0,951; 1,515]
Multi-Monitor-Betrieb (3 Geräte) [300; 1250; 0,951; 1,515]

NVIDIA GeForce GTX Titan

[Takt GPU (MHz); Takt Speicher (MHz); Spannung GPU (Volt); Spannung Speicher (Volt)]

Lastfreier Betrieb [324; 162; 0,874; 1,387]
Blu-ray-Wiedergabe [324; 162; 0,875; 1,389]
Multi-Monitor-Betrieb (2 Geräte) [324; 162; 0,875; 1,388]
Multi-Monitor-Betrieb (3 Geräte) [627; 1502; 0,886; 1,624]


AMD läßt bei Blu-Ray und 2 Monitore die GPU mit 10% mehr V-Core als Idle und den Speicher auf vollen Takt laufen, wärend Nvidia bei Idle Taktraten/Spannungen bleibt.
 
Mir stößt es zwar auch sauer auf, dass es keine Empfehlung gibt, schließlich heißt es selbst im Text: "Wer dieser Tage eine High-End-Karte kaufen möchte, sollte daher zur AMD-Karte greifen."
Jedoch kann ich es nachvollziehen. Titan bzw. GK110 hat eine Empfehlung bekommen, trotz des absurden Preises. CB hat sich dazu geäußert, indem für sie die Technik zählt, nicht aber P/L.
Jetzt muss man die Schiene halt konsequent durchziehen, und aus rein technischer Sicht, ist Hawaii dem GK110 unterlegen, leider.
 
PR3D4TOR schrieb:
Warum sollte eine Karte die sehr viel Strom frisst, noch lauter ist & auch durchschnittlich langsamer als die Titan arbeitet, eine Empfehlung bekommen? Nur wegen dem Preis?
Auf jeden Fall, das Kriterium ist genauso wichtig wie die Leistung. Diese beiden Kriterien sind mindestens zu 80% zu gewichten. Klar kann dann ein Parameter wie die Lautstärke noch alles über den Haufen schmeissen, aber solang das etwa auf dem gleichen Niveau ist, zählen Preis und Leistung zu mindestens 80%.

Ich würde ja nix sagen, wenn die Nvidia-Karte ein Stromspar-Wunder wäre, aber die verbraucht unter dem Strich auch extrem viel Strom. Da noch gross zu unterscheiden, ist barer Unsinn, da sündigen beide Karten auf nahezu gleichem Niveau.
Und dass die Titan durchschnittlich schneller sein soll, ist doch Quatsch. In den hohen Auflösungen wo es drauf ankommt, schneidet sie schlechter ab. Du kaufst doch nicht eine Titan für ne Mini-Auflösung. HDTV ist für die meisten die sich solche Karten sicher keine Option mehr, die befeuern höhere Auflösungen.

Hier geht es ja in erster Linie um die Technik & nicht primär um den Preis.
^^ Ja gut, da kann ich dir fürs spätere Leben viel Glück wünschen. P/L ist alles, nur für Leute die exorbitant viel Geld verdienen (in der Regel sind es die es nicht wirklich verdienen, aber bekommen), spielt der Preis keine Rolle.

... aber ist auf einer Technik versierten Seite wie CB definitiv nachrangig zu behandeln.
Auf keinen Fall, CB hat doch nicht die Aufgabe Gucci-Taschen zu promoten, wach doch mal auf. CB muss und tut es in der Regel auch, objektiv über Hardware zu berichten und sicher nicht immer den teuersten Technikkram zu hypen.
 
DocWindows schrieb:
Die einfachste Lösung wäre IMHO die verkaufenfach auf(780 Ti umzulabeln und eine neue Titan rauszubringen die wieder alle anderen Karten hinter sich lässt. Werde mir dazu mal die neuesten Spekulationen reinziehen :D

Genau das habe ich mir auch gedacht.
Titan umbennen in GTX 780ti und diese auf den Preis der GTX 780 senken.
Titan 2 (Vollausbau) herausbringen und wieder munter für 800€+ verkaufen.
 
Habe mit einer etwas schwächeren Leistung und höherem Preis gerechnet, weswegen ich nun positiv überrascht bin.
Was mich hingegen schockt ist die Temperatur und damit verbunden auch der hohe Verbrauch, was größeres OC bisher nicht ermöglicht. Daher bin ich hier auf die Custom-Versionen gespannt und hoffe, diese machen es besser!

Mit einem möglichen Kauf, werde ich trotzdem nochmal die ein oder andere Woche warten, da das wirklich interessante nun die Reaktionen seitens Nvidia und die 780ti werden. Wie weit werden die Preise senkt? Wie wird die 780ti aussehen? Was wird sie kosten?

Erst dann lässt sich eine vernünftige Kaufentscheidung treffen, da aktuell nV zu teuer ist und die AMD auch noch nicht wirklich gut verfügbar. Generell halte ich die 780 in custom Versionen für sehr interessant, da schneller als eine Titan und somit Vergleichbar mit einer 290X - mal schauen wie sich deren custom-Versionen schlagen und was dann in beiden Fällen das OC macht.
Sollte aber die 780 den Preis halten, wird es wohl je nach Qualität der Customs eine 290X.
Bei einer guten 780ti oder interessanten Preisen zur 780 könnte es auch eine von denen werden.
Da die 10% mehr der 290X zwar messbar aber keinesfalls fühlbar sind - ist so ein Vorsprung für einem höheren Preis uninteressant für mich. 20 oder 22FPS ruckeln beide mal - ab 30% mehr sind es da dann anders aus, weswegen aktuell bei +/- 10-20% der Preis bei mir entscheidet.
Eine höher getaktete 780 könnte also bei Leistung auf Titan-Niveau, niedrigerem Verbrauch und OC/Reserven als P/L Sieger hervorgehen, wenn sie sich deutlich vor einer 290 absetzen kann und bei 400 oder 450€ landet.
Sollte jedoch der Ladentheken-Preis bei 500€ bleiben, die 290X dank besser Custom-Lösungen dann weniger verbrauchen, bessere Temps haben und somit mehr OC-Reserve aufbieten, wird diese eindeutig eine im High-End-Segment unverfehlbare Karte sein...aktuell sind dafür die Wermuts-Tropfen meinen Augen zu groß, da die Titan trotz ihres horrenden und niemals Massenausgleichen Preises gezeigt hat (unabhängig von der Architketur), dass eine solche Leistung eben schon früher, bei weniger Verbrauch und mit - wegen dem Ref-Kühler der 290X (bisher) - besserem OC möglich ist.

Mantle und True Audio sind zwar nett, aber 1. spiele ich kein BF4 und werde es auch nicht und 2. muss sich das alles erst mal etablieren, was bedeutet, dass diese Karten bis dato ohnehin veraltet sind.

4K Auflösungen sind zwar ebenfalls nett für SuperSampling etc, aber als native Auflösung ebenfalls aktuell völlig uninteressant, da die entsprechenden Monitor noch viel zu teuer sind - schon 2560er sind gesalzen im Preis ;)
Daher sehe ich auch das hier wie mit Mantle: bis es Standard wird, ist die Karte alt und nur noch Midrange.

Ich handhabe es daher so:
Egal ob es nun eine nVidia oder eine AMD wird, wichtig ist mir eine überdurchschnittliche Leistung um auch in hohen Settings meinen künftigen 120Hz-er zu füttern und etwas Puffer zu haben, damit das nach Moglichkeit auch nächstes Jahr noch geht. Wegen 10 oder 15% Zahle ich aber sicherlich keine 100€ mehr - bei 400 vllt auch noch 450€ liegt meine Grenze. Da ist P/L ohnehin schon "weltfremd", darüber nicht mehr existent.
 
Korion schrieb:
Aber ehrlich warum keine Computerbase Empfehlung?

Weil es evtll sehr schnell bessere (Custom) Modelle der 290x geben wird?
 
Zurück
Oben