Test AMD Radeon R9 290X im Test

xen0x schrieb:
Jederzeit wieder...

Keine Ahnung wie guru3d auf 68€ kommt ...

(5 d * 4 hr * 30W * 52w) / 1000 = 31,2 kWh
31,2 kWh * 0,25 € = 7,80€

Ändert aber alles nichts an der Tatsache, dass du über eine Karte redest, die 500€ (!!) kostet und dir Gedanken über die peanuts machst, die das alles an Stromkosten verursachst.

Ich persönlich zahle 20,5 Cent pro kWh bei energieGut und die 30W mehr wären gerade mal 9€ im Jahr, wenn ich 4 Stunden am Tag unter Vollast spielen würde. Der Mehrpreis einer Geforce GTX 780 (ca. 520€) beträgt ca. 40 Euronen gegenüber einer 290X (ca. 480€). Also müsstest Du für 4 Jahre(!) jeden Tag 4 Stunden(!) unter Vollast mit der Geforce GTX 780 zocken, damit es sich mit der (um 30W erhöhten) Stromrechnung ausgleicht, Herr Tom Tom.

Stromkostenrechner
 
Zuletzt bearbeitet:
Wieso sonst hört man ständig bei AMD oder NV 4k ?
Weil es für NV und AMD eine absolute Goldgrube wäre, würden sich 4K Displays in Masse durchsetzten. Die Rohleistung die man dafür braucht ist gigantisch. Ständig aufrüsten damit man die Details einigermaßen hoch drehen kann wäre Pflicht. Aber das beste an Trends ist ja, man muss sie nicht mitmachen. Jemand der den Iphone; 3D oder 4K Trend mitmacht muss das auch wirklich wollen und die Kohle dafür ausgeben wollen. Den Trend erzwingen können sie nicht.

Andres sieht es bei Mantle aus, da kann AMD ein paar Millionen rein buttern und so die Schnittstelle quasi fördern. Sieht man ja an Witcher III PhysX das es irgend wann dann mal eine Perle(theoretisch) treffen kann die das dann dabei hat.

Den würde ich nicht als Bezug für Effizienz-Entwicklung nehmen, wenn es mit GTX 280/285 und 580 eben anders aussah.
Was sah anders aus? GTX 580 war es noch schlimmer, AMD war noch Effizienter unterwegs mit der HD 6000 und bei GT 200 war AMD schon am aufholen. Erst mit Kepler hat NV das Blatt komplett um 180Grad drehen können. Sowohl bei Gaming GPUs wie klein Kepler, als auch bei GPGPU Brocken wie Titan.
R9 290X sehe ich jetzt auch nicht als optimal konfiguriert an und hat Hardware-Technisch & Sofware-Technisch sicher noch etwas potential.
Fakt ist, R9 290X ist jetzt da und ist mit einem guten Gesamtpaket um 500 Euro momentan günstig.
Da sehe ich sogar extremes Potenzial, durch Mantle und DX 11.2 das eine Titan nicht hat. Da sieht die Titan in Sachen Effizienz ganz schnell kein Land mehr wenn das stimmt was AMD über BF4 sagt. Aber hier und heute alles noch Theorie.


nicht besonders groß, dass Nvidia da Preis-Leistungs-Mäßig unterbietet (siehe Vergangenheit)
Die Chance geht gegen 0. Allerdings sollte man schon warten auf NV was die so machen. Ich hab mein Killer Argument schon gefunden, das ist der Monitor den ich haben will und die GPU dazu: http://www.pcgameshardware.de/Nvidi...-255598/Specials/Nvidia-G-Sync-Daten-1093359/
Und solche Sachen muss man dann für sich abwägen, lieber DX 11.2 Mantle oder G-Sync. Und wenn man voreilig zuschlägt gibt es eben kein abwägen.
 
Zuletzt bearbeitet:
Ja, die Titan-Käufer kommen sich sehr verarscht vor, konnten gerade mal 8 Monate Spitzenleistung genießen und jetzt kommt der Nachbar und macht nebenan Krach mit seiner Uber-290X! :rolleyes:
 
JNS-K schrieb:
ca. 500€ für die 680 + ca. 500€ für die 290X = ca. 1000€
oder einmalig 949€ für die Titan.

Es dürfte aber auch nicht allzu viele geben, die ein Upgrade von GTX680 oder HD7970(GHz) auf die R9 290X für notwendig/sinnvoll erachten. Das sind gerade mal 20-30% mehr Leistung. (Aus dem selben Grund war auch die Titan damals kein wirklicher Kandidat für so ein Update, selbst wenn sie nicht so absurd teuer gewesen wäre.)

Ich zähle mich selbst schon zu den großzügigeren Computer-Hobbyisten (z.B. weil ich überhaupt >500€ für eine Grafikkarte bezahle), aber ein Grafikkartenupgrade mache ich gewöhnlich nur bei ca. 70-100% Performancezuwachs. Meine GTX580 wird also so langsam fällig. ;)

Außerdem vergisst du eine Option, nämlich eine weitere GTX680 oder HD7970(GHz) dazu zu kaufen. Ich bin zwar auch kein wirklicher Fan von Multi-GPU, aber wenn man schon eine aktuelle High-End-Karte hat und das trotzdem nicht reicht, dann würde ich es durchaus in Erwägung ziehen.
 
Kasmopaya schrieb:
Erst mit Kepler hat NV das Blatt komplett um 180Grad drehen könne. Sowohl bei Gaming GPUs wie klein Kepler, als auch bei GPGPU Brocken wie Titan.

Um 180 Grad wenden? Was ist mit Pitcairn? Tahiti ohne Gigahertz? HD 7770? Oder der 290pro?
 
Tom Tom schrieb:
Hier mal ein Zitat von guru3d.com:

Power Consumption:

Cost per Year 5 days week / 4 hrs day / € € 68,41

Da fehlt noch der Vergleich:

290X: 68,41€
Titan: 60,04€
780: 55,26€
 
4k Auflösung in Benches ist zwar toll, aber doch absolut irrelevant was die Realität angeht, weder eine Titan noch eine 290X haben genug Power um aktuelle Spiele in vollen Details mit AA usw. in 4K mit dauerhaft mehr als 30FPS darzustellen.
Daher sind die relevanten Auflösungen doch definitiv FHD und 2560x1600/1440.
Hier sind dann die Karten 780/Titan/290X so nah beieinander das eigentlich nur Features/Preis interessant sind.

Somit kann ich aus meiner Sicht nur sagen wer sich vor 8 Monaten eine Titan oder vor ein paar Monaten eine 780 gekauft hat, genauso alles richtig gemacht hat, wie jemand der sich jetzt eine 290X kauft (solange man mit den kleinen Abstrichen bei der 290x leben kann).
Preisverfall ist halt normal bei technischen Produkten, und somit absolut kein Argument. Nicht nachvollziehen kann ich halt sich jetzt eine Titan zu kaufen ;)
 
Dr.Duschlampe schrieb:
Die AMD Radeon R9 290X verbraucht gerade mal 30Watt mehr als die Titan und ist gleich schnell und schneller unter einer 4K-Auflösung. Übrigens auch tolles Argument, ich bin begeistert von deiner auf den Punkt gebrachten Analyse mit der Stromrechnung! Dann rechne mal aus, wann du die Stromkosten eingespart hast xD. Oh man, es gibt Leute, die überhaupt keine Ahnung haben, was eine kWh kostet...da lohnt es sich doch viel mehr zu einem günstigeren Stromanbieter zu wechseln, als die 30Watt mehr so zu verteufeln, als wären es 300 Watt. Wieso machst Du Dir um die 30 Watt solche sorgen? Zockst Du etwa jeden Tag 18 Stunden auf Volllast und gehst nicht zur Schule/Arbeit?

Du hast glaub ich nicht die Ironie meiner Aussage verstanden. Es ging mir lediglich um die Argumentation meines Vorredners. Darum hab ich ein Argument gebracht, welches seine Aussage komplett unterstreicht und eher angebracht gewesen wäre. Gleichzeitig wird meine Aussage zum Stromverbrauch relativiert. Hatte bis dahin auch erst das cb Review gelesen.
Zu deinem sonstigen Kommentar: Habe gestern den Stromanbieter gewechselt, nach ewiger Recherche ;-)

Glaube ich hab genug Ahnung, lasse mich aber gerne von dir verbessern und aufklären.

BTT:
Wäre toll, wenn AMD zum hohen Verbrauch unter Windows oder Blu-ray Stellung nimmt. Vielleicht lässt sich das ja durch ein neues BIOS beheben.
 
@Volker
@ComputerBase

Ab wann erlaubt AMD die Custom Design und sind anschließend lieferbar
Könntet IHR bitte diesbezüglich mal bei AMD nachhaken.
Würe sicher viele Käufer interessieren, wie lange man sich in etwa gedulden muss.

Dank!
 
Matzegr schrieb:
Da fehlt noch der Vergleich:

290X: 68,41€
Titan: 60,04€
780: 55,26€

Also ich würde trotzdem die GTX Titan kaufen sie hat doch PhysX *ironie off*.
 
Thanok schrieb:
Zu Punkt 1: Wenn dir bei High-End die Leistung egal ist, solange das P/L stimmt, dann hast du was falsch verstanden. Bei High-End ist P/L sekundär. Dass AMD hier über den Preis ein für High-End exorbitant gutes P/L liefert ist ein Pluspunkt - macht die Karte aber nicht zur besten.
Wenn dir nur das P/L wichtig ist solltest du nur die iGPU von modernen Prozessoren nutzen (aber keine APUs da du bei denen für die Grafik extra zahlst), die sind dann nämlich kostenlos dabei.
Zu Punkt 2: Ich weiß ja nicht was du anstellst, aber meine Titan ist bei FullHD vollkommen ausgelastet. Und ich habe noch Luft nach oben was die BQ angeht. Außerdem ist FullHD zur Zeit die wohl geläufigste Auflösung.
Daher finde ich die Methode von CB, die Performance einfach zwischen allen Auflösungen zu mitteln (von denen 2/3 jenseits von FullHD sind) durchaus angemessen.
Zu 3: Das Problem ist hierbei dass CB an der Steckdose misst. Der Prozentuale Unterschied zwischen den Karten an sich ist wesentlich größer.

Wenn bei 90% Effizienz eines Netzteils ein Unterschied von 10% im Verbrauch an der STeckdose gemessen wird, so ist die Differenz abzüglich Netzteileffizienz etwas geringer und nicht höher.
 
Kasmopaya schrieb:
Da sehe ich sogar extremes Potenzial, durch Mantle und DX 11.2 das eine Titan nicht hat.

Bei Features, für die die Softwareentwickler gezielt optimieren müssen, bin ich immer zurückhaltend. Ist ein nettes Sahnehäubchen oben drauf, falls es irgendwann eintrifft, aber ich würde es nicht vorab als Pluspunkt in die Kaufentscheidung mit einbeziehen.
(Und DX11.2 funktioniert leider sowieso nur mit Windows 8 und ich weiß ehrlich nicht, ob ich bereit bin mir für ein paar mehr FPS ein Tablet-OS anzutun. ;) )

Aber das muss man in diesem Fall auch gar nicht.Die 290X schöpft schon allein weges ihres Referenzkühlers ihr Potential nicht ansatzweise aus. Sie läuft immer hart am Temperaturlimit und kann so nicht mal ihre nominelle Turbofrequenz dauerhaft halten, geschweige denn irgendeinen nenneswerten OC-Spielraum bieten.
Mit guten Custom-Kühlern wird die 290X ständig so laufen wie im "Uber"-Modus, ohne den Nachteil der hohen Lautstärke und Temperaturen. Das eine oder andere Prozent wird auch noch durch Treiberoptimierungen dazu kommen usw.

Ich sehe die 290X deshalb auch ohne Mantle und DX11.2 mindestens auf Augenhöhe mit der Titan. Es würde mich jedenfalls stark wundern, wenn Custom-OC-Modelle der 290X ausgehend von dem miesen Referenzkühler nicht deutlich mehr zulegen könnten, als Custom-Modelle der GTX780 ausgehend von dem schon ziemlich guten Titan-Kühler (welche die Titan ja auch locker überholen).
 
Satzzeichen schrieb:
Hab Sie mir bestellt und müsste Freitag/Samstag da sein, aber trotzdem bin ich etwas geschockt von der Wärme... Artic schrieb ich auch schon an wegen dem Hybrid Cooler ob der kompatibel sei. :)

jaja, und das letzte mal sollte die karte bereits am freitag ausgeliefert werden.
Den quatsch glaub doch eh keiner... traurig wenn du der letzte wärst
 
schöner test :daumen:

jetzt muss sapphire nur noch ne schöne leise dual-fan lösung bringen und das ding ist gekauft.
 
Schicker Test, danke CB.

Mein Senf:

Ich wollte nach langer Zeit AMD wieder eine Chance in meinem System geben und die Karte hier hat richtig Spannung aufkommen lassen- und teilweise den Hype erfüllt und teilweise enttäuscht.

Für mich ist nun ausschlaggebend, dass die Leistungsaufnahme gerade im Idle/Multi Betrieb unverständlich hoch- und im "Uber" Modus unverhältnismässig ist. Es wird sicherlich noch einiges im Custom Bereich machbar sein, aber für den Moment ist die Begeisterung verflogen.


Mich wundert die hier allgemein diskutierte Tendenz zu 4K Auflösungen.
Ein gesundes Auge kann/könnte auf 1cm Entfernung etwa 7000dpi ausmachen. Ich für meinen Teil sitze 105cm von meinem 27er FullHD Monitor (~82 dpi) entfernt- und somit wäre eine höhere Auflösung jetzt schon fast hinfällig. Auf diese Entfernung könnte nur noch (ca.) ein Unterschied unter einem Wert von 68 dpi wahrgenommen werden.
Sicherlich profitiert die gesamte Bildqualität von einem höheren Detailgrad, aber ob das in Dimensionen von 4k (wenn man nicht gerade einen 55" TV ansteuert) noch einen Sinn macht, wage ich zu bezweifeln.
 
shimmy schrieb:
Ja, die Titan-Käufer kommen sich sehr verarscht vor, konnten gerade mal 8 Monate Spitzenleistung genießen und jetzt kommt der Nachbar und macht nebenan Krach mit seiner Uber-290X! :rolleyes:

Aber passend zur jetzt kommenden kühleren Jahreszeit kann der Titan-Käufer jetzt wenigstens Heizkosten sparen. Der Nachbar heizt ja mit ;-)
 
Hallo,

Knecht_Ruprecht schrieb:
Ja, ein Fullquote, aber ich möchte mich dieser Bitte genau so anschließen. Ich habe ebenfalls noch eine Karte aus der AMD 6900 Reihe und genau für solche Karten ist ein Upgrade demnächst schon interessant.

das hatte ich auch schon angeregt. Wurde abgelehnt, begründet AFAIR mit damals anderen Testverfahren und daher nur eingeschränkter Vergleichbarkeit. Ich halte das für wenig überzeugend.

/elwu
 
interessant wird die karte ja eh erst richtig, wenn mantle in den ersten spielen genutzt wird.
könnt mir vorstellen, dass sich die r9 in solchen spielen schon sehr stark absetzt.
 
Zurück
Oben