Test AMD Radeon R9 290X im Test

MikelMolto schrieb:
Die 780Ti ist für Mitte November 2013 angekündigt und man munkelt, dass die etwas früher kommen könnte.
Hat das "wenn überhaupt" irgendeine Grundlage oder enspringt das Deiner persöhnlichen Einschätzung?

Mein Ratschlag ist: Einfach einmal abwarten. Evtl. sind die aktuellen Testberichte ja in kürze hinnfällig, weil es keine GTX 780 mehr gibt.

Nein du hast recht - ist für Mitte november angekündigt. Hatte die News falsch im Kopf.

Das mit dem wenn überhaupt die 780 Ti erscheint

1.) nur weil etwas angekündig ist muss es nicht erscheinen.
- überhaupt, oder auch nur zum angegeben Zeitpunkt. Man denke nur mal an den Newflash zum R9 (wobei ja da NIE was angekündigt wurde von produkt, es wurde nur immer so interpretiert)....oder eben thermi, usw. gibt genug beispiele wo vieles angekündigt wird und dann entweder ANDERS eintritt oder eben Später.

und 2. wie viele meinen den R9 290 oder Titan mal einfach so in den Boden stampft entspringt dem kritischen news von 3denter.
http://www.3dcenter.org/news/angebl...780-ti-als-neuen-kontrahent-der-radeon-r9-290

Kannst du das mit dem "man munkelt eher schon früher" vielleicht näher erläutern ? Gibt es denn irgendeinen Grund anzunehmen dass eine vermeintlich höher getaktete Titan mit 2 deaktivierten clustern schon ausgeliefert ist ? Wen nicht dann wirds knapp mit der Logistik anzufangen da mitte november ja in 2-3 Wochen wäre. Wenn die Karten also nicht schon produziert sind....

Daher würde ich eher annehmen nVidia bringt definitiv etwas bis ca. Dezember um im Weihnachtsgeschäft noch gut mitmischen zu können.

Entweder ne OC780 vglbar zu 7970 GHz oder ne OC Titan zum Preis von 600€ ???

Ne OC780 ist mir das wahrscheinlichste - Titan is de facto EOL, selbst mit 2 deaktivierten Clustern sehe ich das nicht. Zumal man die KArten immer noch im Prosegment für mehr geld verkaufen kann.

Daher eher ne OC 780.... Aber das ist alles nur meine Spekulation.
 
Mal ehrlich letzten Endes ist man immer wieder beim Preis. Egal was man auch vergleicht, Temp.,Lautstärke,Effizienz,Die,Leistung, wenn es nicht weiter geht muss der Preis herhalten. Was AMD abgeliefert hat ist durchaus solide, aber kein Fortschritt,im Sinne von wesentlichen Verbesserungen.
 
@Iscaran
Das mit dem spekulieren ist ja im Augenblick bei NV auch nicht anders als es die letzten Wochen mit AMD war. Viele Wissen was aber keiner weiß was genaues. Informationen kommen häppchenweise.
Ich denke, sicher ist, dass NV sich nicht kampflos die Wurst von der Stulle stehlen lässt und schnell eine Antwort bringt.
Genauso wie AMD hat auch NV eine Fan Gemeinde, die jetzt natürlich darauf wartet, wie NV reagiert.

Ich denke, dass es in kürze eine GTX 780Ti geben wird, die schneller sein wird als die 290X und etwas mehr Strom verbraucht als die GTX 780.
Der Preis wird etwas höher sein als von der 290X. Es gibt ja auch keinen Grund dafür eine bessere GPU zum gleichen Preis wie die von AMD zu bringen außer man wollte in einen Preiskampf gehen und das wollen mit Sicherheit beide nicht. Leben und Leben lassen ist hier das Motto. Ein Preiskampf würde die Marge von beiden drücken.
 
Iscaran schrieb:
Mit 32 W realem GPU verbrauch Unterschied: hingegen ergeben sich ziemlich genau 9,11€ pro Jahr bei den angenommenen Zeiten die diese Differenz auftreten soll.
Versteh ich dich richtig, dass du NICHT das rechnest was primärseitig an Strom 'verbraucht' wird, weil ja nur ein Teil der Leistung auf die Grafikkarte entfällt und der andere aufs Netzteil?

Iscaran schrieb:
Aber bleib mal realistisch 3h pro Tag @LIMIT zocken
Ist das nicht sogar noch wenig? Drei Stunden schafft man doch locker an nem normalen Arbeitstag. Dazu kommen die Wochenenden, Feiertage, Urlaub und Krankheit. Ich hab zur Zeit gerade zwei Wochen Urlaub, bei Steam hab ich 115,1 Spielstunden in den letzten zwei Wochen. 1095 Stunden im Jahr sind locker drin.
 
Zuletzt bearbeitet:
Schöner Test, dafür erstmal ein dickes Lob an die Redaktion.
Zu den Karten: Endlich ist ruhe in der Gerüchteküche. Ich persönlich bin nicht so der HighEnd Kunde und werde die Karten wohl eh nie verbauen aber schön zu sehen wie Leistungsfähig beide sind und mir mal wieder bewusst wird was meine Karte doch für ein Schnäpchen war :D
Wenn erstmal die Custom Varianten kommen dürfte die Karte von AMD Lautstärkenmäßig wieder im rahmen sein.

@Sheldon
Und ich dachte ich wäre mit im Schnitt 3-4h/Tag zocken süchtig :D

Edit
Muss aber dazu sagen das ich dafür dann auch kaum TV schaue :p
 
Zuletzt bearbeitet:
@Sheldon Cooper:

Respekt du sitzt als im Urlaub pro Woche fast 60 h vor dem Computer und zockst "ausschliesslich" full load nutzende Spiele.

60h pro woche sind btw. 8.5h am Tag. Ich meine ja sowas kommt schon vor - aber an Arbeits tagen ist es deutlich weniger. Auf jeden Fall eher weniger als 3h.

Wie gesagt MITTELWERT über alle Tage ist gefragt....es gibt schon tage da ist es so. Aber dann ist man wieder 1 woche irgendwo oder hat überstunden in arbeit oder geht ins kino etc. 3h / Tag ist enorm. Ich sage nicht dass es nicht zu schaffen ist, aber sicherlich nicht der "norm" fall -selbst für hardcore viel zocker.

Aber falls du nicht gerade mit zocken beschäftigt bist solltes du lieber wieder aufhören hier zu posten sonst sinkt noch dein Jahreszockdurchschnitt und die ganze Stromvergleichsrechnung ist wieder hinfällig.

@Netzteil mitrechnen oder nicht....ein effizienteres Netzteil zeiht auch strom und dass die CPU mehr strom zieht weil die GPU 5% mehr leistung bringt rechnest du also lieber auch mit als Stromkosten der "Grafikkarte". Vor allem weil der Mehrstrom der CPU * Netzeileffizienz den Wert weiter verfälscht. Nicht ohne Grund misst HT4U deshalb allein den Strom der GPU.
Das ist das realistischte das den tatsächlichen Stromverbrauchswert einer GPU darstellt....und NUR DIESER STROM ist doch was eine R9 mehr braucht als eine GTX 780 oder nicht ? Also 32W auch wenn du es nicht wahrhaben willst.

Ideal wäre es man hätte die R9 290 genau auf die 100% Performance der GTX 780 abgestimmt, würde nur den Strom der GPU messen und das über sagen wir mal 20 Spiele für sagen wir je 1h.....DANN hätte man einen ziemlich exakten Stromverbrauch gemessen....den Wert haben wir leider nicht da ihn keiner gemessen hat.

Eigentlich müsste man das ja noch auf Leistung korrigieren also -5-10% nach unten da man ja Mehrleistung auch noch hat....
 
Hallo,

ich bin doch etwas entäuscht von der 290er.
eigentlich nicht schneller als ne gtx 780, aber mit wesentlichen nachteilen.
schade amd, so wird das nichts. dabei könnte nvidia etwas mehr konkurenz net schaden.

gruss
kemen
 
Iscaran schrieb:
Respekt du sitzt als im Urlaub pro Woche fast 60 h vor dem Computer und zockst "ausschliesslich" full load nutzende Spiele.
Wenn du bei irgendeinem Spiel nicht die GraKa voll auslastest hast du dein Einstellungen falsch gesetzt ;) Außerdem zock ich meist in 3D.
Iscaran schrieb:
60h pro woche sind btw. 8.5h am Tag. Ich meine ja sowas kommt schon vor - aber an Arbeits tagen ist es deutlich weniger. Auf jeden Fall eher weniger als 3h.
Mmm, 17:00 Uhr Feierabend -> 17:15 daheim / Essen machen -> 17:30 essen -> ab 17:45 zocken bis ~23:00 Uhr sind 5h. Sind bei 44 Wochen (52 - 6W Urlaub - 2W krank) und nur 3 Tagen zocken schon 660h. Dazu kommen 44 Wochenenden, 6 Wochen Urlaub, 2 Wochen krank = 100 Tage. Wenn man von den 100 Tagen an 70 Tagen 6h zockt kommt man auf etwa 3h / Tag. Und man wird wohl nicht an weniger als 3 Tagen die Woche zocken und wenn man frei hat sind 70% auch wenig und auch die 6 Stunden sind schon niedrig geschätzt.

Iscaran schrieb:
Aber falls du nicht gerade mit zocken beschäftigt bist solltes du lieber wieder aufhören hier zu posten sonst sinkt noch dein Jahreszockdurchschnitt und die ganze Stromvergleichsrechnung ist wieder hinfällig.
Passt schon, war in den letzten zwei Wochen auch nicht anders.

Iscaran schrieb:
NUR DIESER STROM ist doch was eine R9 mehr braucht als eine GTX 780 oder nicht ?
Das stimmt solange wie du nicht in Euro umrechnest. Sobald es um Geld geht ist das einzig realistische, das was du nachher auch zahlst, oder? Trotzdem ist der Stromverbrauch eigentlich total egal meiner Meinung nach.
 
SheldonCooper schrieb:
Wenn du bei irgendeinem Spiel nicht die GraKa voll auslastest hast du dein Einstellungen falsch gesetzt ;) Außerdem zock ich meist in 3D.

Schonmal was von Vsync gehört? Die Grafikkarte ist dann nämlich so gut wie nie voll ausgelastet.
 
BelneaHP schrieb:
Schonmal was von Vsync gehört? Die Grafikkarte ist dann nämlich so gut wie nie voll ausgelastet.
Nur DAUs haben VSync aus. Ist aber auch egal, taktet deine GraKa runter wenn du VSync an hast? Solange sie mit vollem Takt läuft zieht sie volle Leistung. Selbst wenn du die Taktrate auf maximalem Takt fixierst und der PC im Idle ist zieht die GraKa vollen Strom.
 
..... die Graka vebraucht nicht immer gleich viel Strom blos weil sie immer den gleichen Takt hat.

btw Gibts eigentlich schon User die eine 290X haben? Und Übertakten ? Hab ich den "AMD R9-290X Overclocking Thread" bisher einfach verpasst oder fehlt der noch?


P.S mein Beileid an die Mods die diesen thread überwachen xD
 
Tschuldigung, aber was redest Du da?
Die Grafikkarten ziehen natürlich nicht volle Leistung, wenn sie nicht voll ausgelastet sind.
Wenn eine Grafikkarte bei einem Spiel 60 FPS liefert und dabei nur zu 50% beansprucht wird, dann verbrauchst sie bedeutend weniger Energie als wenn Sie die vollen 120FPS berechnen würde.
Genausowenig zieht Sie auf dem Desktop vollen Saft, wenn Sie auf maximalem Takt fixiert ist - natürlich aber bedeutend mehr als im Idle.

Es gibt übrigens auch Leute die Vsync aus haben, weil Sie keinen Unterschied bemerken. Man muss dazu also kein DAU sein.
 
Selbst wenn du die Taktrate auf maximalem Takt fixierst und der PC im Idle ist zieht die GraKa vollen Strom.
Unsinn, wie eigentlich alles von Dir - ich habe hier die ganze Zeit in Augenhöhe ein Strommessgerät vor Augen, da dies an der Wand / Steckdosenleiste montiert ist - die Stromaufnahme pendelt ständig und zwar ziemlich deutlich mit Auslastung der Graka - natürlich aber auch nach Auslastung der CPU!
 
Lars_SHG schrieb:
die Stromaufnahme pendelt ständig und zwar ziemlich deutlich mit Auslastung der Graka - natürlich aber auch nach Auslastung der CPU!
Hast du dabei sämtliche Takte fixiert, und auch alles Spannungen und alle Stromsparmaßnahmen abgestellt?
 
Mmm, 17:00 Uhr Feierabend -> 17:15 daheim / Essen machen -> 17:30 essen -> ab 17:45 zocken bis ~23:00 Uhr sind 5h. Sind bei 44 Wochen (52 - 6W Urlaub - 2W krank) und nur 3 Tagen zocken schon 660h. Dazu kommen 44 Wochenenden, 6 Wochen Urlaub, 2 Wochen krank = 100 Tage. Wenn man von den 100 Tagen an 70 Tagen 6h zockt kommt man auf etwa 3h / Tag. Und man wird wohl nicht an weniger als 3 Tagen die Woche zocken und wenn man frei hat sind 70% auch wenig und auch die 6 Stunden sind schon niedrig geschätzt.

Schöne Rechnung...also mit 5h am Tag zocken und das 3Tage die Woche in der normalen Arbeitszeit...respekt du hast ne entspannte arbeit und ne gute Frau die dir den Rest abnimmt und dich beim zocken unterstützt !. Cool.

6 Wochen Urlaub bei denen du in der Regel 70% des Tages mit Zocken verbringst...auch nett. Bestimmt absolut im "normalfall" angesiedelt - macht das nicht jeder so ?

Nur um die Erinnerung aufzufrischen: Ich schrieb..."3h / Tag ist enorm. Ich sage nicht dass es nicht zu schaffen ist, aber sicherlich nicht der "norm" fall -selbst für hardcore viel zocker."

3h Am Tag im Jahresmittel schafft also nach deiner Beispiel rechnung nur jemand der total computersüchtig ist und nur vorm Bildschirm lebt und du vergisst IMMER noch dass eine GPU selten @100% läuft. Crysis 3 hat man dann auch irgendwann durch. Man schreibt auch emails in der Zeit und liest forum => alles nicht 100% LOAD ZEiten und damit schlecht für die Stromverbrauchsvergleich.
15 min heimweg von der Arbeit ist i.d.R. auch nicht der Normfall. Ich pendle an "guten" Tagen 60min....an schlechten auch mal 2h einfacher weg. Ich bin zwar sicher auch nicht der "normalfall" aber ich hab mal was von gelesen dass 30-40min Arbeitsweg durchaus den Durchschnitt darstellen - wohl gemerkt einfacher weg.

und 15min essen ist auch sportlich....vom Hygienezeiten mal abgesehn. Selbstverständlich hast du einen Zockersessel mit eingebautem Klo und Duschzelle mit Bildschirm und Maus/Tastatur um nicht ausversehen mit zocken aufhören zu müssen.

Außerdem zock ich meist in 3D.

Schön. Das ist auch bestimmt der "normalfall" der user... AFAIK sind gerade mal 0.001% der Gamer 3D Zocker. Selbst in 3D muss eine GPU weder auf 100% ausgelastet sein noch ist der "Verbrauch" von jedem Spiel gleich hoch => Also ist es immer noch bedenklich von dem bei Crysis 3 ermittelten Wert auf die Allgemeinheit zu schliessen. Viele Spiele brauchen ja eher weniger - das ist ja der Grund warum man gerade Crysis 3 nimmt um den "lastverbrauch" zu bestimmen. Nachdem man gemerkt hat dass Furmark eben nur unsinnige Ergebnisse weitab einer "Spielerealität" liefert.

Nur DAUs haben VSync aus. Ist aber auch egal, taktet deine GraKa runter wenn du VSync an hast? Solange sie mit vollem Takt läuft zieht sie volle Leistung. Selbst wenn du die Taktrate auf maximalem Takt fixierst und der PC im Idle ist zieht die GraKa vollen Strom.
NEIN. Es gibt einfache Messungen dazu dass das so nicht ist. Es hängt schon auch davon ab WAS die GPU macht oder ob sie nur idlet. Sieht man doch allein schon daran wie unterschiedliche Spiele Leistung ziehen ;)....deswegen ist es ja auch so "bedenklich" nur aus dem bei Crysis 3 gemessen Wert auf die tatsächlich verbrauchte mehr Leistung zu schätzen.

Wenn du bei irgendeinem Spiel nicht die GraKa voll auslastest hast du dein Einstellungen falsch gesetzt Außerdem zock ich meist in 3D.

Nächster punkt wo du wieder von dir ausnahmezocker auf die allgemeinheit der Spieler verallgemeinrst und noch dazu falsche Gerüchte rumkolportierst.
Es gibt Spiele da kriegst du die GPU nicht auf Last....nicht jedes Spiel ist Crysis 3 oder irgendeiner der anderen 5 millionen ego shooter clone...schonmal daran gedacht. Ältere shooter kriegst du die GPU auch nicht auf 100% Load mit VSync an...
Aber klar um den Stromverbrauch schlecht zu rechnen muss man schon mal Halflife 1 ohne V-Sync @500 FPS zocken 8h am tag....OMG lern mal nachzudenken bevor so einen unsinn schreibst.


Zumal nur durch AA und konsorten hochdrehen die GPU last auch nicht unbedingt ins unermessliche steigt.....Aber klar 16x SSAA mit 5760x768 auf nem 1280x768 Bildschirm macht schon sinn....man muss die GPU Last hochhalten damit man sich nicht in der Stromvergleichsrechnung verkalkuliert hat und das Pseudonegativ argument auch richtig gewichtet ist.


NUR DIESER STROM ist doch was eine R9 mehr braucht als eine GTX 780 oder nicht ?
Das stimmt solange wie du nicht in Euro umrechnest. Sobald es um Geld geht ist das einzig realistische, das was du nachher auch zahlst, oder? Trotzdem ist der Stromverbrauch eigentlich total egal meiner Meinung nach.

Das macht es auch nicht richtiger den GESAMTSystem verbrauch einzig auf die grafikkarte umzulegen und zu behaupte die R9 290X ist xx € teurer pro Jahr...
Ich kann die 290X ja evtl. auch 5-10% drosseln, habe dann weniger CPU last und damit auch weniger Netzteil overhead usw usf. und auch wieder weniger als deine verteidigten 49W stromverbrauch ???? Aber ist doch völlig egal ob du nun 13,95 €/Jahr oder 9,11 €/Jahr mehr hast...du vernachlässigst aber immer noch dass diese Zahlen nur enstehen unter der völlig absurden Annahme von 1095h VOLLLAST Betrieb. Das du so schön oben gezeigt hast was dazu erforderlich ist allein am ´faktor Lebenszeit als auch die weitere Bedingung erfordert NUR und aussschliesslich in dieser Zeit volllast Spiele zu zocken....exklusive all der Zeit wo selbst in diesen Spielen die GPU nicht @Max ist (z.B. Videosequenzen, Ladebildschirme, ....).

Merkst du eigentlich wie surreal deine ganze argumentationskette ist und das nur um durchzudrücken dass die R9 14€ statt vielleicht 9€ oder 5€ im JAHR mehr strom braucht ?!?

Aber von mir aus...dann rechne ich halt folgendes vielleicht verstehst du es dann:

R9 Quite mode: 107% Performance einer GTX 780
Preis: gleich ~ 505 € (siehe oben)

=> ne GTX 780 "kostet 7%" mehr als ne R9....7% von 505 € = 35,35 €. (Bei gleicher Leistung)

Ich hab also wenn ich die R9 kaufe leistungsbereinigt eine "Reserve" von 35,35€ die ich in MEHRSTROM umsetzen kann und komme am Ende noch gleich mit der GTX780 raus. Rein kostenmäßig. => selbst wenn ich deine unterstellten 13,95€/Jahr nehme kann ich ziemlich genau 2,5 JAHRE damit zocken und hab erst dann den kostenneutralpunkt erreicht ?

In 2,5 Jahren würde man eh ne neue GPU kaufen (müssen um auf dem GPU-Erlebnisniveau zu bleiben das du jetzt hast).

Jetzt hab ich leider schon selbst den Überblick verloren - bleibt dann noch eines der Argumente offen/unbeantwortet ?
 
Zuletzt bearbeitet:
kemen schrieb:
Hallo,

ich bin doch etwas entäuscht von der 290er.
eigentlich nicht schneller als ne gtx 780, aber mit wesentlichen nachteilen.
schade amd, so wird das nichts. dabei könnte nvidia etwas mehr konkurenz net schaden.

gruss
kemen

hast du dir die Tests nicht angesehen ? Da liegen fast "bei Referenz-Karten" 10% Mehrleistung an -- HALLO -- !
Also solche Sprünge und ein niedrigerer Preis stimmen dann doch schon zur R9 . Knapp unter der Titan und zum Teil auch drüber laut verschiedener Tests auf anderen Seiten.
Also das Fazit : R9 290X ist schneller und billiger als die GTX 780.
 
Zuletzt bearbeitet:
Man sollte nicht nach Leistung kaufen...
 
Zurück
Oben