Test AMD Radeon R9 290X im Test

Wolfgang schrieb:
So kann sich die Radeon R9 290X in einigen Tests kaum von der Radeon HD 7970 GHz Edition absetzen und liegt in Folding@Home bei doppelter Genauigkeit gar hinter der Vorgängerkarte zurück. AMD hat das Verhalten intern reproduzieren können und wird den Fehler in einem zukünftigen Treiber beheben.

Hoffentlich. Mich würden die richtigen Werte mal interessieren, bessert ihr den Test dann nach?

Was mich auch interessieren würde ist, ob denn die neue Generation mit aktuellem Treiber endlich voll kompatibel zum Cycles Renderer von Blender kompatibel ist. Könnte das eventuell jemand testen, der sich die Karte anschaffen möchte?
Anleitung um GPU Rendering zu aktivieren (sehr simpel) gibt es hier: click. Wäre für mich sehr hilfreich, wenn auch vielleicht etwas viel verlangt ;)
 
Meine Sapphire BF4 ist heute eingetroffen. Freitag bestellt für 519,90€ portofrei. Da kann man sich nicht beschweren ^^

Bei den Systemanforderungen auf dem Karton wurde die Netzteilanforderung überklebt und da steht jetzt 750W :freak: Ich gehe mal davon aus, dass mein Seasonic M12 700 ausreicht .... :rolleyes:
 
Nai schrieb:
Ich bewerte Hardware nicht wie sie eventuell mal seien könnte, sondern wie sie gerade im Moment ist, zumal es keinerlei Ankündigungen für OpenCL 2.0 bei der 290xer Serie gegeben hat. Denn was bringen mir eventuelle zukünftige Hardwarefeatures, wenn ich diese *jetzt* für ein Projekt benötigen würde.
AMD kann ja noch keine Ankündigung für OpenCL 2.0 machen, weil OpenCL 2.0 eben nicht offiziell draußen ist, sondern nur in Provisional OpenCL 2.0 Sepcs. Daher kann man ich doch keinen Vorwurf machen, oder doch?

Bis jetzt ist AMD mit OpenCL 1.0 & OpenCL 1.1 & OpenCL 1.2 ja noch jede Version mitgegangen.
Warum sollten sie OpenCL 2.0 nicht machen? und somit deren eventuelle zukünftige Hardwarefeatures ansprechen?

Aktuell kann eben den Nachteil haben, dass es am nächsten Werktag wieder anders aussieht.
Gerade im diesem Thread meinten ja einige, dass die R290X so 570 Euro kosten. Am Montag (also 1 (oder 2) Werktag(e) später) gabs dann eine R290X um <500 Euro lieferbar und schon sah die Welt wieder völlig anders aus.

Aktuell ist schön und gut, aber es sollte doch im Rahmen passen. Sonst kann man da schnell ein verzerrtes Bild bringen.
AMD hat seit fast 1 Jahr kein neues APP rausgebracht, was sie früher in Quartals-Rhythmus rausbrachten.
Und APU-13 steht mit < 2Wochen auch kurz vor der Türe.

Aber gut, immerhin hast du mal Ahnung über das was du hier in diesem Thread schreibst, was hier selten ist.
 
zittrig schrieb:
Bei den Systemanforderungen auf dem Karton wurde die Netzteilanforderung überklebt und da steht jetzt 750W :freak: Ich gehe mal davon aus, dass mein Seasonic M12 700 ausreicht .... :rolleyes:
Bei meiner (von HIS) steht 500W. Und viel Spaß mit der 290X. ;)
 
500W tauchen sicher auf, wenn ich den Aufkleber entferne :D

Danke, Dir auch! :freaky:
 
Klar reicht das, bei Anandtech zB zieht das Gesamtsystem unter Last 405W bei Crysis 3. Wohlgemerkt im "Über"-Modus. Wer kommt auf den Schmarrn mit 750W?

zittrig schrieb:
Bei den Systemanforderungen auf dem Karton wurde die Netzteilanforderung überklebt und da steht jetzt 750W :freak: Ich gehe mal davon aus, dass mein Seasonic M12 700 ausreicht .... :rolleyes:
 
Iscaran schrieb:
Es scheint sich mehr und mehr zu bewahrheiten dass gerade bei hohen Auflösungen die R9s zunehmend die nVidia Karten abhängen können.

Ganz ehrlich, was bringt es mir, in der 4K Auflösung mit der Titan resp. GTX-780 OC auf "nur" 25FPS komme und die R9 290X in dieser Auflösung 20% vor den nVidia Karten liegt? Nichts, die 30FPS der R9 290X sind immer noch unspielbar. Und bis eine Karte, egal ob von AMD oder nVidia in 4K sinnvolle Bildwiederholraten (50-60FPS...) liefert, sind schon wieder ein paar Generationen erschienen und damit ist es auch völlig offen, ob nVidia oder AMD vorne liegen wird.

Mir geht die elende Erbsenzählerei auf den Wecker, bis 10% Unterschied in den FPS merkt kein Schwein. Gerade in der häufigen FullHD Auflösung müsste der Unterschied zweier Karten schon gegen besagte 20% tendieren, damit man überhaupt wirklich was merken würde in einem Spiel. Denn, was bringts mir, wenn meine nVidia Karte in Spiel XY 55FPS liefert und die 10% schnellere Karte R9 290X deren 60? Merk ich sowieso nicht. Genauso andersrum. Wenn ich mit der nVidia Karte in Spiel AB 65FPS habe und die R9 290X ist 10% langsamer, so what.

Fakt ist, auf dem Preis-/Leistungschart liegen die Punkte für die beiden Karten nach der Preissenkung von nVidia nun fast übereinander. Somit bleibts wie meist: je nach Vorliebe gibt man nun entweder dem AMD Produkt oder dem nVidia Produkt den Vorzug.

Wobei: GTX-780 ist verfügbar, gibts als Customversion, benötigt weniger Strom, hat so unnützes Zeugs wie PhysX etc. Die R9 290X wiederum ist kaum verfügbar, macht nen Höllenlärm im Referenzdesign, benötigt mehr Strom und hat so unnützes Zeug wie Mantle und TrueAudio. Und ihr schlagt euch deswegen fast den Kopf ein. Lustig :freak:
 
Ich frage mich immer noch warum AMD die 290X mit so lumpigen 5 GHz Ramtakt ins Rennen schickt.
Selbst die alten 780er kamen mit 6GHz, wovon die guten locker bis 7GHz gingen, da liegt noch ne Menge brach.
 
Monster916 schrieb:
das gleicht doch das Speicherinterface aus, schau dir mal die Speicherbandbreite im Vergleich zur Konkurrenz und dem Vorgänger an ;)

Trotzdem verschenkt man hier doch aber gewaltig Performance und will die Performancekrone nicht zu hoch hängen damit noch eine schnellere Variante der 290X kommen kann oder weil der 20nm Nachfolger wieder mit 384 oder 448 Interface kommt.
 
Bisher war ein 512bit SI immer nur eine kurzzeitige Lösung bis neue Speicherchips verfügbar waren - so wohl auch in diesem Fall. Da ein so großes SI natürlich auch einiges kostet, konnte AMD sicherlich ein bisschen was an den Chips sparen indem sie "nur" 5Ghz Chips verbauen. Außerdem kann man so bei Bedarf ganz schnell noch die Bandbreite um 20 oder gar 40% steigern.
 
Habe die Karte heute einmal Schwitzen lassen.
FurMark mit 1080p und AAX8 .
Temperatur ging bis 84 Grad.
Zur Lautstärke : Der Lüfter wurde erst bei Programmstatus 62% hörbar ,
der Fan Speed lag da bei 40% ( 1957 U/min).
Nach Abschluss des Test war der Lüfter auf 44% und die Lautstärke als hörbar aber noch nicht wirklich extrem laut zu bezeichnen.

Ich hatte zum Vergleich mal die Zotac GTX 780 AMP am laufen und die war gefühlt nicht leiser.

Hier der Screen direkt nach Abschluss des Tests. 1zu1

 
Zuletzt bearbeitet:
Ich frage mich immer noch warum AMD die 290X mit so lumpigen 5 GHz Ramtakt ins Rennen schickt.
...das ist ein cleverer Schachzug! Mit dem breiten Speicherinterface kann man schnell über den RAM-Takt mehr Leistung erzielen!
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-r9-290x-test.2263/seite-11
Ganz anders dagegen der 4.096 MB große GDDR5-VRAM, der ein ordentliches Plus ermöglicht. 550 MHz mehr und damit eine Frequenz von 3.050 MHz macht unser Exemplar der Radeon R9 290X problemlos mit.

Damit steigt die Geschwindigkeit je nach Spiel um sechs bis elf Prozent, was ein interessantes Detail offenbart. Denn die höhere GPU-Frequenz lässt nur sieben Prozent Mehrleistung zu, sodass der Rest durch die höhere Speicherbandbreite kommen muss. Trotz des 512-Bit-Interfaces bietet diese somit noch ungenutztes Potential.
Die Frage ist, warum macht AMD es so?
a) Wollen sie sich diesmal nicht von nVidia auskontern lassen und heben sich so ein deutliches Leistungsplus für ein Treiber bzw. Firmware update auf? - Die aktuellen Nachrichten mit der verspäteten Veröffentlichung der 290 (ohne X) könnten die Antwort geben!
b) Sie haben vor wie bei der 7970, im nächsten Jahr eine R9 290 GHz zu bringen - da kommt die zusätzliche Leistung aus dem Speicher sehr gelegen

Ich würde mich ja scheckig lachen, wenn in Wirklichkeit die 290 die schnellere Karte wäre als die 290X - Fehlinformationen streuen, mehr Shader in der 290 als in der 290X und dann einen höheren Takt und alle Welt wäre verblüfft - aber das ist wohl Wunschdenken, aber ich fänds lustig............
 
...bei Anandtech zB zieht das Gesamtsystem unter Last 405W bei Crysis 3. Wohlgemerkt im "Über"-Modus. Wer kommt auf den Schmarrn mit 750W?

die 750 watt-angabe hat weniger was mit der karte zu tun. der hersteller geht von daus aus, die ein lc-power oder anderen china-böller verbaut hat. und ein billigst-"500 watt"-netzteil kann auch schon bei geringer last in rauch aufgehen. bei neueren netzteilen ist das risiko zum glück nicht mehr so groß, da die vorgaben gestiegen sind, aber n altes noname "500 watt"-netzteil kann auch mit mittelklasse-hardware durchgebraten werden.

ein gescheites seasonic/enermax/cougar/etc. 500 watt-netzteil reicht da locker aus.
 
Das ist natürlich klar. Aber das ist eine Karte für Enthusiasten, da sind i.d.R. keine Billignetzteile mehr verbaut. 550W mit Ampereangabe sollten da doch genügen.

Lübke schrieb:
die 750 watt-angabe hat weniger was mit der karte zu tun. der hersteller geht von daus aus, die ein lc-power oder anderen china-böller verbaut hat. und ein billigst-"500 watt"-netzteil kann auch schon bei geringer last in rauch aufgehen.
 
Thanok schrieb:
Bisher war ein 512bit SI immer nur eine kurzzeitige Lösung bis neue Speicherchips verfügbar waren - so wohl auch in diesem Fall.Da ein so großes SI natürlich auch einiges kostet, konnte AMD sicherlich ein bisschen was an den Chips sparen indem sie "nur" 5Ghz Chips verbauen.
Bisher hatten aber 512-SI eben auch viel Die-Fläche benötigt.
Und wenn die jetzigen 512Bit-SI 20% weniger Platz benötigten als die alten 384Bit-SI, dann macht es schon Sinn, weil man eben noch billigere & besser Verfügbare Speicherchips nehmen kann. Das könnte trotzdem (deutlich) billiger kommen, als wenn man die Die etwas geringermacht, aber teure Chips nehmen muss.

Langfristig könnte das ziemlich zum Vorteil werden, weil man entweder ein kleineres SI mit hochgetakten Speicher (Eben bei neuem unreifer Fertigung) nimmt oder später eben ein großes SI mit niedrig getakteten Speicher (Eben bei altem ausgereifter Fertigung)

Ob AMD Kontert, wird langsam irrelevant, weil die Customer 290X-Desgin eh erst Dezember kommen und dann 20nm ab so 6 Monate später eh schon recht knapp sind.
 
neo-bahamuth schrieb:
Aber das ist eine Karte für Enthusiasten, da sind i.d.R. keine Billignetzteile mehr verbaut.

Würde ich nciht sagen... Wie viele Enthusiasten gibt es die meinen ein Rechner mit Grafikkarten für ~500 €, CPUs für ~300 und Mainboard für ~200 € haben und dan aber genau beim NT und Monitor sparen? Ich würde sagen viele.

Da halt alles viel gekostet hat, darf das NT nur noch 40 € kosten und der Monitor in 24" mit FHD darf nur 150 € kosten. Wobei man die 2 Teile natürlich über mehrere Genrationen hat... Mein Syncmaster 244T war nicht billig (~1200 €) aber das Teil läuft und läuft nun schon seit ca. 8 Jahren. Der Monitor hat schon eine X1900XT, 8800 GTX, GTX 285, GTX 570 und nun eine GTX 660 Ti gesehen.

Und genau deswegen müssen die Hersteller eben mit den China Böllern rechnen bzw. mit dem extremsten was geht.
 
Wie soll denn ein 512bit SI kleiner sein als eins mit 384bit? Das sind 2 64bit Controller mehr, die werden ja wohl kaum einen negativen Platzbedarf haben.

Ansonsten wäre es natürlich interessant zu erfahren wie viel das größere SI letztlich kostet - Die Speicherchips dürften wohl kaum billiger gewesen sein, das sind normale 6Ghz Chips die eben nur auf 5Ghz laufen.
 
Aber das ist eine Karte für Enthusiasten, ...
jeder zocker der n bissel kohle hat, kann sich die karte kaufen, egal ob dau oder enthusiast und auch jeder dazwischen. und die wenigsten kennen sich mit netzteilen aus. große wattzahl und kleiner preis dürften im regelfall die einzigen kaufkriterien sein. damit sind lc-power und co ganz weit oben.
 
Zurück
Oben