Test AMD Radeon R9 290X im Test

Jeder, der auf Seite 4 des Tests war, kennt das Video ;)
 
Matzegr schrieb:
Ich glaube, da tut sich nicht mehr viel.

Es wird noch irgendwelche 290X OC Partnerkarten geben.
Bei Nvidia kommt ne leicht schnellere 780Ti, Titan wird eingestellt und dann beginnt das Warten auf die 20nm Generationen, da rechne ich frühestens im Spätsommer mit.


Das einzig Spannende was dieses Jahr im GPU Sektor noch passieren wird ist der BF4 Mantle Support, mal sehn was der bringt. Wenn Mantle draußen ist wird dann im Q1 2014 Nvidia ihr G-Sync noch Mal groß präsentieren.

Danke für deine Antwort.
Hm vielleicht reicht die 6950 ja noch aus.
Sofern man sich von den 20nm dann was erwarten kann? Vorallem die Temperaturen sollten passen. Meine 6950 ist im idle bei etwas über 30 grad :)
 
Ich möchte jetzt nicht die rote oder die grüne Karte bewerten.

In diesem Test wird eine Möglichkeit beschrieben, wie man den Energiehunger von Pixelbeschleunigern in Zaum hält.

https://www.computerbase.de/artikel/grafikkarten/amd-radeon-r9-290x-test.2263/seite-16

Der Framelimiter ist ein echt nützliches Tool, um eine performante Grafikkarten bei nicht fordernden Games genügsam zu halten.

Seit über zwei Jahren nutze ich Framelimiter. Damit gibt es keine VSync-Drops von 60 FPS auf 30 FPS, sondern immer so etwas wie eine konstante Frame-Rate, oder bei der richtigen Einstellung hin und wieder Frame-Rates etwas darunter. Tearing gibts damit garnicht bei einer Einstellung unter 55 FPS bei einem 60Hz-Monitor. Ein ausgewogenes und konstantes Gaming-Erlebnis ist damit so gut wie sicher.

Ein Mehrzahl der Games sind auf die hohe Performance vieler aktueller Grafkkarten garnicht angewiesen. Warum sollte man die Grakas dann durch die Decke knallen lassen? Wenn man seine Hardware an die Kandare nimmt spart man nicht nur Strom, sondern verlängert auch die Lebensdauer dieser Komponenten.

Ich spiele jetzt schon hunderte von Stunden Skyrim @1080p/16AF/8AA via 3DVision und SLI mit diversen Mods und anderen Tweakings und sehr niedrigen Temperaturen: Framelimit-50FPS/GPU0-56°C/GPU1-48°C.

Ich denke zur gegebener Zeit kann ich meine beiden Gigabyte GTX670 fehlerfrei und guten Gewissens in der Bucht verkaufen, aber halt erst später.

Auf den Framelimiter sollte öfter hingewiesen werden.
 
Frage mich, warum scheinbar die AMD Referenzkühler so viel schlechter sind als die von Nvidia. Beides sind Radiallüfter und sehen auch von der Größe her in etwa gleich aus. Was kann sich da groß unterscheiden? Sollte AMD vielleicht mal ein paar Aerodynamik Experten hinzuziehen, die ihnen einen anständigen Luftstrom und anständige Rotorblätter kontruieren?

Ich bevorzuge ja eigentlich die Radiallüfter, weil sie die Abwärme gleich abtransportieren, statt sie im Gehäuse zu verteilen. Hab nun schon mehrfach Berichte gelesen, dass die Custom Kühler zwar an sich die Karte gut kühlen, aber die Abwärme im Gehäuse dann eben auch z.B. die CPU Temp um mehrere Grad erhöht.
 
Also langsam glaube ich echt das CB von nvidia gesponsert wird. Alle anderen Tests geben einen dicken award für dieses schöne Stück Hardware.

Komisch auch das hier die Leistungsaufnahme Viel höher ist als bei den anderen Tests. Die r290x kann sogar sparsamer sein als die Titan! http://www.tomshardware.de/radeon-r9-290x-hawaii-gpu-review-test,testberichte-241413-29.html
Wenn ich die Titan auch hoch Prügel und auf 94 Grad laufen lasse, will ich gar nicht auf den Stromzähler schauen.

Den ganzen nvidia fanboys die hier mit ach und Krach versuchen sich ihre Karte schön zu reden(als Titan Käufer wäre ich auch angepisst :D) werden sich noch umgucken. Wenn auf der 290x erstmal ein windforce kühler sitzt dann sieht die Welt (Temperaturen von 70/75 grad/Leistungsaufnahme ein ordentliches Stück niedriger/übertaktbarkeit um einiges erhöt) ganz anders aus.

Klar ist die Leistung mit Gewalt provoziert aber was hat nvidia damals mit der gtx 480 gemacht nur damit die den längsten haben? Das war deutlich schlimmer.

Auch amüsant zu lesen von den Grünen Kindern das AMD kein Land mehr sieht.

Mhh ich erinnere mal an die hd4xxx/5xxx/7xxx Serie. Alleine die 7xxx Serie hat gezeigt das AMD es noch mehr als drauf hat.
Bin froh mir keine 7990 zugelegt zu haben. Im Dezember kommt eine Costum 290x rein und im März vielleicht noch eine, mal schauen was der Geldbeutel hergibt.

Nvidia werde ich boykottieren, auch wenn die gtx780ti ultra Mega kommt. Wenn man überlegt das der gk110 der wirkliche high end Chip ist und damals die gtx680 (mit dem kleinen gk104) als high end Produkt vermarktet wurde. Ich bin leider drauf reingefallen. Dazu solche Preispolitik die nvidia führt kann und werde nicht unterstützten. Was soll denn die gtx 980 kosten 2000€ und für ne kleine gtx 960 dann 500€?

Rechtschreibfehler könnt ihr gerne behalten wenn ihr welche findet.

Gesendet vom: Samsung galaxy s3
 
Zuletzt bearbeitet:
Volker

Habe exakt die Sapphire HD7950 OC 900
Jene ist mit 32,5 und 42,5 Dba extrem leise !!

Eine R9 290X ist im Idle auf 33,5 und Last 50,5
Werde ich somit im Idle einen Unterschied zu meiner Sapphire gewahren,-
und unter Last ist die R9 290X schon ein ganzes Stück lauter: 50,5 dba gegen 42,5 dba bei meiner derzeitigen Sapphire Karte.
 
Black&White schrieb:
werden sich noch umgucken. Wenn auf der 290x erstmal ein windforce kühler sitzt dann sieht die Welt (Temperaturen von 70/75 grad/Leistungsaufnahme ein ordentliches Stück niedriger/übertaktbarkeit um einiges erhöt) ganz anders aus.

Die Welt wird schon im November ganz anders aussehen wenn nach nichtmal einen Monat die Ausgangssituation wieder die alte ist

AMD hat für den Anschluss an Titan ganze 9 Monate gebraucht u ein paar Wochen später wird wieder hinterhergehechelt:evillol:


Team Grün dreht ein bisschen am Takt bei Titan u bringt nen zweiten Chip im architektonischen Vollausbau u voila fertig ist die Katz bis Maxwell

Logisch das sie den Preis nicht in Titanregionen dreschen können weil jeder Spitzbub schon erkennen kann das Nvidia entsprechend antworten wird

So bleibt nur der 500Euro Bereich um sich mit Ex Titan alias 780 Ti zu duellieren während Atlas wieder das oberer Ende bedient
 
Zuletzt bearbeitet:
Die R9 290X ist auch nichtn im Vollausbau (44 statt 48 CUs), und ist im Takt wegen dem Stromverbrauch limitiert, weil zu Beginn und mitten in dem Projekt ausgegangen wurde, dass der Chip bereits in 20nm kommt.
Jetzt hat AMD gewartet aber musste ihn dennoch in 28nm rausbringen.
Also freuen wir uns auf die 20nm Refreshchips, die TSMC ab Ende2013/Anfang2014 angeblich in Serie produzieren soll.
Maxwell kommt dann auch irgendwann Q2/Q3.
Das wird dann für mich spannender ;)
Und die Leistungsaufnahme im idle bitte auch wieder senken, bzw mit einen neuen BIOS und höherwertigen Komponenten auf dem PCB nachbessern!


MfG
 
Meiner Meinung nach handelt es sich bei der R9 290X um ein gelungenes Stück Hardware.
Abgesehen von der hohen Leistungsaufnahme unter Vollast/BD Wiedergabe, und der einhergehenden hohen Wärmeentwicklung.

Wirklich interessant sind erst die Eigenkreationen sämtlicher Partner von AMD.
Jene Kühlkonzepte werden bessere Ergebnisse erzielen, als das Referenzdesign von AMD.

Nun ist Nvidia gezwungen zu handeln, die 290X ist ein gutes Pfund.
Auch wenn die 290X mehr Stromhunger hat, ein Computer agiert ja nicht 24/7 unter Vollast, also wird der Mehrverbrauch nicht stark ins Gewicht fallen.
Was eher stört sind dann schlechte Kühllösungen, als optimal ist jene nicht zu bezeichnen.
Aber das wird sich ja noch ändern in nächster Zeit, wenn die Hersteller ihre eigenen Lösungen anbieten dürfen.

Jedenfalls ist Nvidia in Zugzwang, AMD liegt nun vorne, nicht nur im Preis auch mit der Leistung, und das nicht zu knapp.
Eine 780ti wird nicht das Allheilmittel sein, außer Nvidia ändert seine Preispolitik in Gänze beim kompletten Portfolio.
Denn nur so kann Nvidia wieder attraktiver werden.

Nicht zu vergessen, die R9 Serie ist neu, sprich mit Treiberoptimierungen lassen sich bestimmt noch einige FPS finden.
Die Vorteile sehe ich bei AMD, die nächsten Wochen/Monate werden sehr interessant im Bezug auf Kühllösungen der AMD-Partner, Treiberoptimierungen und Preisentwicklung.

Nvidia, its your turn!
 
Zuletzt bearbeitet:
Taxxor schrieb:
Klar eine Titan gibt sich mit 30W weniger zufrieden, liegt aber mit irrelevanten 3% Mehrleistung gleichauf und kostet 300€ mehr.
Sofern man die Karte also nicht für die nächsten 20 Jahre behalten möchte, holt man den Aufpreis durch die Stromkosten nicht wieder rein

Es geht doch nicht um Stromkosten. Eine GraKa, und auch ein Prozessor, wandeln Strom zu 99,8% in Wärme um. Diese Wärme muß abgeführt werden. Und bei der jetzigen 290x passiert das nicht so ganz optimal. Beim abführen der Wärme mit Luftkühler enstehen nun mal Geräusche.
Ich würde auch, genauso wie CB, keine Kaufempfehlung geben.
Klar, die Verlockung ist groß. CB titelt selbst "Konkurrenz für Titan. Für 500 Euro." Aber die jetzige Situation ist total instabil, nur eine kurze Momentaufnahme.

1. Verfügbarkeit - Ist diese gewährleistet, geht der Preis nach unten
2. Partnerkarten - machen es mit alternativen Kühllösungen meist besser
3. Nvidia - wird 100% Preise anpassen und/oder Titan Ti (TiTaTi) releasen (ich liebe dieses Wortspiel)

Also, warum sollte ich mir JETZT eine 290x kaufen, wenn es absehbar ist, dass sich die Situation in wenigen Tagen ändern kann (Preis/Lautstärke/bessereNvidia)?
Deshalb keine Kaufempfehlung zu dieser Zeit für diese 290x


PS: Eine 770, 780 oder Titan jetzt zu kaufen wäre natürlich doppelt hirnrissig


Edit:
Falcon schrieb:

Ja, jetzt treiben sie Nvidia in den Ruin :eek:
Ich würde es ehr so formulieren: Sie zwingen Nvidia dazu ihre Preispolitiuk anzupassen.
Nigs Headshot. Die haben sich mal nach 8 Monaten getraut einen Schuß vorm Bug zu setzten.
 
Zuletzt bearbeitet:
Antimon schrieb:
War es nicht bei der 7970 genau so und hat sie nicht als GHz Edition dann richtig aufgetrumpft? Warten wir einfach mal ab, wir werden es sicher erleben :smokin:

Nunja, die 7970 war imho die bessere Karte. Mit der Ghz hat man auf biegen und brechen versucht an der 680 vorbeizuziehen. Das hat man zwar geschafft, allerdings auf Kosten eines hohen Stromverbrauchs und eines unbrauchbaren Refdesigns. Auch hier mussten es die Partnerkarten richten. Ich denke mit der 290X wird es ähnlich, auch wenn das Ref-Design sich nun wenigstens leise trimmen lässt.

Oromis schrieb:
I
Und ob die Titan älter ist als die 290x interessiert JETZT niemanden, der Durchschnittskäufer kauft wenn ers braucht, der wartet nicht.
Gut gesprochen. Deswegen wundert es mich auch immer wieso hier einige Leute meinen dass 780/Titan Käufer sich jetzt in den Hintern beißen. Die haben die Leistung "damals" gebraucht und auch bekommen, AMD hat jetzt gleichgezogen. Wenn NV bald eine 780Ti bringt müssten diese Leute dann ja die 290X Kunden auslachen weil es ja etwas schnelleres gibt.:freak:

GinoBambino schrieb:
Also ich bin von der Leistung enttäuscht: Gerade mal 30 % mehr Leistung im Vergleich zu einer GTX 7970 GHz Edition.
[...]
Bei der 7970 waren es über 50 % mehr Leistung im Vergleich zur Vorgänger-Karte.

Die 7970 war bei Release gerade einmal 30% schneller, die Ghz hat durch den erhöhten Takt dann nochmal einiges rausgeholt. Bei letzterer ist der Stromverbrauch allerdings im Vergleich zur 6970 angestiegen.
Und 30% sind für einen Shrink echt nicht viel. NV hat bei gleichem Verbrauch z.B. 60% geschafft (beide FullHD @8xAA).
Entsprechend halte ich 30% bei einem bloßen Refresh für durchaus sehenswert. Außerdem hat AMD den Stromverbrauch (ausgehend vom Quiet-Mode) auch noch verringert.

Max007 schrieb:
Wegen Kleinigkeiten gibt es keine Empfehlung? Oder ist die Kleinigkeit eher die, dass Euer Geschäftsführer auch für Intel arbeitet?

99% aller renommierten Hardware-Seiten vergeben der R9 290X einen Award! Allein die Tatsache, dass man mit der 290X die Leistung einer Titan für 499,- UVP bekommt, ist einen Award wert.

Es gibt folgende Möglichkeiten: CB wird von NV und Intel geschmiert.
Oder aber CB vergibt Empfehlungen aufgrund des Produktes in der aktuellen Marktsituation, nicht aufgrund des P/Ls. Da eben ein Produkt für eine Empfehlung imho besser sein sollte als das was auf dem Markt derzeit erhältlich ist, muss man den Vergleich zur 780 oder Titan, also den High-End Referenzen, ziehen. Dort steht bei ähnlicher Leistung ein geringerer Verbrauch, ein ausgereifterer Turbo (naja ob der zählt), der bessere Kühler und die Geringere Lautstärke auf dem Papier. Die 290X kann lediglich über den Preis Trumpfen.

Max007 schrieb:
Das sind also Eure Kritik-Punkte:

Ungewöhnlich hohe Leistungsaufnahme unter Windows
R9 290X Idle: 106
GTX Titan Idle: 104

Wollt Ihr mich vera*schen?

Im Test steht drin dass man derzeit versucht zu klären wieso das so ist. Derzeit steht aber dieser Verbrauch auf dem Papier, und muss eben auch einbezogen werden. Btw sind es laut CB-Test 6 Watt (10%) Unterschied bei einem Monitor, bei zweien schon 40.
Rechnet man nun das Restsystem raus (38Watt) sind wir bei einem Verbrauch der GraKas von 23(Titan) bzw. 29(290X) Watt. Da reden wir von schlappen 26%, und das obwohl Titan den größeren Chip hat.

Max007 schrieb:
Sehr hohe Leistungsaufnahme unter Last

R9 290X Idle: 416
GTX Titan Idle: 387
Wir reden hier von 6% Differenz!!!!!! Sind 6% sehr hoch?
Ich finde 850€ für eine Grafikkarte ist SEHR HOCH.

6% im Gesamtsystem. Für einen Ordentlichen Vergleich müsstest du die 30 Watt in Relation auf den Verbrauch an sich angucken. Ich gehe mal davon aus dass die Titan permanent im Powerlimit hängt (was sie aufgrund des Temp-Limits auch bei Crysis 3 NICHT tut), dann braucht sie alleine 250 Watt. Davon 30 Watt mehr sind schon 12%. Nun hängt sie aber aufgrund des Templimits für gewöhnlich bei unter 80% Powerlimit rum, was 200 Watt entspricht. Dann liegen wir schon bei 15% Mehrverbrauch.

Der Titan wird übrigens im Fazit auch eine Hohe Leistungsaufnahme Attestiert - ebenso wie die Tatsache dass sie unter Last hörbar ist. Nicht laut, hörbar.
Und natürlich: 850€ ist ein sehr hoher Preis, aber wird die Karte dadurch langsamer, lauter, unbrauchbarer? Sie wird nur von weniger Leuten gekauft, das Produkt wird aber nicht durch den Preis verschlechtert, da geht lediglich das P/L in den Keller.

Oromis schrieb:
Ich stelle jetzt hier mal die magische Frage:
Wer betreibt hier eine Karte im Referenzdesign?
(Titan Nutzer ausgenommen)
Ich nicht ;) MK-26, der wird aber wohl doch bald runter kommen. Die SpaWas tun mir darunter einfach Leid.
 
scully1234 schrieb:
Team Grün dreht ein bisschen am Takt bei Titan u bringt nen zweiten Chip im architektonischen Vollausbau u voila fertig ist die Katz bis Maxwell

Ich würde von einer GK110-Vollausbaukarte nicht allzu viel erwarten.

Die Titan hat 14 der 15 SMX Cluster aktiviert. Die GTX 780 nur 12. Wir alle wissen, wie nah die 780 trotzdem an der Titan ist, und dass sie sie mit etwas OC sogar locker überholt. Zusätzliche "Breite" scheint zumindest für Spiele nicht so furchtbar viel zu bringen. Da sind irgendwelche anderen Flaschenhälse im Weg.

Es wäre also schon merkwürdig, wenn ein einziger zusätzlicher Cluster auf einmal Welten bringen würde. Optimistisch gesehen wohl nur 3-4%.
Der Rest der Performancesteigerung der "Titan Ultra" müsste über Takterhöhungen laufen. Aber auch der gute Titan-Kühler hat nicht mehr allzuviele thermische Reserven. Wesentlich mehr Takt wird entweder ein deutlich hochgesetztes Temp-Target bedeuten (wohl auch um die 90°, falls die GPU dafür ausgelegt sein sollte) oder mehr Lüfterlärm, oder eine Mischung aus beidem. Die Vorteile, die Titan und GTX780 derzeit noch über die 290X haben, wären wohl weitgehend dahin. Und das, um sich insgesamt vielleicht um 10% davor zu setzen, was sich Nvidia aber sicher wieder mit einem >900€-Preis bezahlen lassen wird.

Wirklich kontern können wird Nvidia erst mit der nächsten Generation auf 20nm (Maxwell), was sicher nicht im ersten Halbjahr des nächsten Jahres passiert. Bis da hin sind die Zeiten, in denen Nvidia das absolute High-End-Segment für sich allein hatte und die Preise nach Belieben diktieren konnte, vorbei. Und darüber sollten auch alle froh sein, einschließlich der Nvidia-Fans.
 
Zuletzt bearbeitet:
Klar kann man jetzt viel über die Antwort von NV (780Ti) diskutieren, aber das gehört imo nicht in diesen Thread hier rein. Theorien dazu gibt es viele (wovon meine natürlich die einzig richtige ist ;))
 
ToniMacaroni schrieb:
Frage mich, warum scheinbar die AMD Referenzkühler so viel schlechter sind als die von Nvidia. Beides sind Radiallüfter und sehen auch von der Größe her in etwa gleich aus. Was kann sich da groß unterscheiden?

Bei der Titan müßen bei Spielelast 198W über eine Chipfläche von 551mm² abgeführt werden.
Bei der 290X müßen bei Spielelast 231W über eine Chipfläche von 438mm² abgeführt werden.
 
Ich weiss auch nicht warum ihr die 290X immer mit der 780 vergleicht... jetzt wartet doch einfach einen Monat bis zu ersten Partnerkarte mit anderem Kühler dann läuft sie leise im "Ueber" Modus also bei 1000Mhz ist dann so schnell wie eine Titan und kostet nur 500€ und wird durch die niedrigere Temperatur noch mal etwa 20 W weniger brauchen (für die Öko-zocker hier...) da gibts es kein vergleichen die R290X schlägt die 780 in jeder Hinsicht!
Auch wenn diese vlt. bald auf den preis der 290X fällt (denn leute wenn Nvidia eine 780TI bringt wird diese mit Sicherheit 100€ Teurer als die 290X macht euch da mal nix vor)
 
TrabT schrieb:
... jetzt wartet doch einfach einen Monat bis zu ersten Partnerkarte mit anderem Kühler dann läuft sie leise im "Ueber" Modus also bei 1000Mhz ist dann so schnell wie eine Titan und kostet nur 500€ ...

Oder sie verkaufen die nun bessere Karte zu einen höheren Preis ;)
Nein, die pösen Kapitalisten wieder!
 
Ich weiß ja nicht wo du dir deine 280X bestellen wolltest, aber ein Freund von mir hat seine am Montag bestellt und seit Mittwoch zu Haus. Und das ist dann auch gleich die schöne MSI Variante.

@Matzegr: Zum einen müssen natürlich mehr W/mm² angeführt werden, aber was ich persönlich schlimmer finde ist die Tonhöhe des Lüfters. In den CB-Videos klingt das Ding wie eine Flugzeugturbine, meine alte 6970 schrie um Hilfe (wobei es sicherlich einen Unterschied macht ob man es nur im Video oder eben real hört) und die Titan hat ein leichtes, eher tiefes Rauschen. Dadurch ist selbst bei ähnlicher Lautstärke die Titan angenehmer zu hören.
Das ist zwar kein Grund für die Lautstärke an sich, aber für die subjektiv Empfundene.

@TrabT:
Wenn du schon mit einer Custom 290X vergleichen willst musst du auch eine Custom780 nehmen. Die SuperJetstream schreit ja fast nach einem Vergleich^^
 
Der AMD-Referenzkühler ist einfach wesentlich schlechter, als der "Titan"-Kühler. Der selbe AMD-Kühler scheitert ja auch schon an einer "kleinen" HD7970GHz. Kein Wunder, dass er sich mit dem größeren Hawaii-Chip auch nicht viel besser schlägt, trotz auf Lautsstärke optimierter Lüftersteuerung.

Ich kann auch nicht sagen, was genau Nvidia beim Titan-Kühler so viel besser gemacht hat. Wahrscheinlich sind es letztlich nur kleine Details z.B. bei der Form der Lüfterblätter oder der Kühlrippen usw. (Und das Teil ist definitiv auch nicht billig. Ich hab was von $80 Herstellungskosten gelesen, wobei das meiste davon wohl für das schicke Gussmetall-Gehäuse drauf geht, das eher der Optik dient als der Kühlleistung.)

Auch wenn fast alle Referenzkühler beider Hersteller von der Funktionsweise gleich sind (geschlossene Blower mit Radiallüfter), gibt es offensichtlich immer wieder sehr große Unterschiede.
Man erinnere sich z.B. an den Referenzkühler der GF100-Karten. Das Ding war eine Katastrophe, trotz beeindruckender Heatpipes usw. Oder auch den legendären "Reiseföhn" der alten GeForce FX. (Der erste Dualslotkühler dieser Art.) Die Verbrauchswerte der alten Karte waren garantiert ein Witz, verglichen mit heutigen High-End-Karten, aber trotzdem war der Kühler derartig grottig und vor allem laut, dass er es praktisch im Alleingang schaffte, Lautstärke und Abwärme überhaupt zu einem Thema bei Grafikkarten zu machen. Vorher wurde über sowas in Reviews gar kein Wort verloren.
Dabei war das Konzept des FX-Kühlers auf den ersten Blick gar nicht schlecht. Der holte sich sogar kühle Luft von außerhalb des Gehäuses und bließ sie direkt wieder raus. Aber es hat einfach nicht funktioniert.

Gute Kühler zu entwickeln, ist offensichtlich keine leichte Sache, sondern erfordert eine Menge Know How. Nvidia hat da, nach den schlechten Erfahrungen mit Fermi, offensichtlich in letzter Zeit mehr investiert, als AMD.
 
Zurück
Oben