Test AMD Radeon R9 290X im Test

@Kabuiak

ich bezweifle gar nicht, dass die Karte 1200 Mhz macht, die Frage ist bei welcher Spannung. Hast du uns vllt noch nen Screenshot, mit welchem tool OC du? Kannste mal 3D Mark 11 oder 12 loopen oder mit Furmark 5 Min auf Vollast testen? Erst dann ist es in meinen Augen stabil. Games reagieren komplett unterschiedlich...

Der Eine im Forum braucht schon >1,4 V bei 1200 Mhz was mich auch nicht sonderlich wundert.

Wenns darum geht was die Karte mit ordentlich Spannung macht dann macht auch jede TITAN / GTX 780 1200 Mhz... vorallem unter Wasser. Da wäre interessant wie weit die R9 290X tatsächlich geht denn ich finde den Spannungsspielraum mit >1,4V recht groß, gerade unter Wasser sollte die Karte damit weit besser skalieren als unter Luft. 20°C machen da schnell 100-200 Mhz mehr aus.

Edit: Ahja, Spannung is ja da, sry. 1,34V is okay, haste noch Bilder und Benches?
 
Zuletzt bearbeitet:
Ich werde dann wohl auf die 290 ohne X warten, wird bestimmt super P/L verhältnis.
 
Nai schrieb:
Gemäß http://compubench.com/device-environment.jsp?config=16822976 hat die R290X immer noch nur OpenCL 1.2 Support. Damit ist man CUDA weiterhin Jahre hinterher und befindet sich irgendwo zwischen Compute Capability 1.2 (GTX 280) und 2.0 (Fermi); Titan mittlerweile hat 3.5.

Irgendwie wirfst Du hier wild Zeug durcheinander. Eine Titan (GK110) hat genauso wie eine R9 290X OpenCL 1.2 Support. CUDA können nur die nVidia, da hat die Titan Support für 3.5. Die CUDA Versionsnummern haben aber nix mit den openCL Nummern zu tun.
OpenCL ist aktuelle Stand Mitte 2013 bei 2.0, da haben alle aktuellen Karten noch keinen Support für.
 
Zuletzt bearbeitet:
Die Titan unterstützt im Gegensatz zur NVIDIA Werbung nur OpenCL 1.1. Ich verglich hier aber den Featureset der OpenCL 1.2er Version mit dem CUDA-Featureset. In OpenCL 1.2 sind fast alle Features von Compute Capability 1.2 und einige von 2.0 enthalten, jedoch fehlen viele 2.0 Features in OpenCL 1.2. Dadurch befindet man sich irgendwo zwischen Compute Capability 1.2 und 2.0.
 
Naja irgendwie kann ich ihn schon verstehen -> OpenCL hamse beide, CUDA haben nur die Nvidia karten, wenn man bedenkt dass OpenCL EIGENTLICH mal AMDs Eigenfeature war, und dass Nvidia mittlerweile dasselbe unterstützt wie AMD Karten auch, dann merkt man, dass bei AMD einfach mal total zurückgestuft wurde in der Entwicklung bezüglich extra-features.... Während Nvidia weiterhin an CUDA entwickelt reitet AMD schon seit Jahren auf ein und derselben OpenCL-Version rum, die sogar Nvidia schon unterstützt auf seinen Karten.
 
Nai schrieb:
Die Titan unterstützt im Gegensatz zur NVIDIA Werbung nur OpenCL 1.1. Ich verglich hier aber den Featureset der OpenCL 1.2er Version mit dem CUDA-Featureset. In OpenCL 1.2 sind fast alle Features von Compute Capability 1.2 und einige von 2.0 enthalten, jedoch fehlen viele 2.0 Features in OpenCL 1.2. Dadurch befindet man sich irgendwo zwischen Compute Capability 1.2 und 2.0.

Da AMD aber überhaupt kein CUDA bietet braucht man den Vergleich nicht anstellen. Als die Karten designt wurden gabs nix aktuelleres als openCL 1.2, was sollen sie also mehr können? Wenn Du CUDA nutzen willst musste ohnehin nVidia kaufen. Von daher versteh ich nun nicht worauf Du hinaus willst? AMD kann ja aktuell gar nicht mehr bieten.

OpenCL kommt ursprünglich von Apple und liegt nun bei dieser Khronos Klitsche. Was soll AMD da also mehr bieten außer den aktuellsten offenen Standard?
 
Zuletzt bearbeitet:
Da AMD aber überhaupt kein CUDA bietet braucht man den Vergleich nicht anstellen.

Sofern man fortgeschrittene GPGPU-Features benötigt, ist ein Vergleich, welche Features beide Karten unterstützen, schon entscheidend. Da schneidet dann AMD extrem schlecht ab.

Als die Karten designt wurden gabs nix aktuelleres als openCL 1.2, was sollen sie also mehr können?

Ich fand es soweit interessant anzumerken, da zumindest die Provisional OpenCL 2.0 Sepcs schon seit 3 Monaten draußen sind.

Wenn Du CUDA nutzen willst musste ohnehin nVidia kaufen.

Das wäre unter anderem nicht gegeben, wenn AMD Karten ein größeres GPGPU-Featureset hätten.

OpenCL kommt ursprünglich von Apple und liegt nun bei dieser Khronos Klitsche. Was soll AMD da also mehr bieten außer den aktuellsten offenen Standard?

Als Mitglied extrem stressen, dass es in die Gänge kommt oder noch besser seinen eigenen (offenen) GPGPU-Standard designen.
 
Nvidia und AMD erwarten doch nicht das wir uns ständig neue aktuelle Grafikkarten kaufen.

Macht kein Spass mehr
 
Nai schrieb:
Ich fand es soweit interessant anzumerken, da zumindest die Provisional OpenCL 2.0 Sepcs schon seit 3 Monaten draußen sind.

Ist das nun dein Ernst? Als ob in der Zeit noch ein Redesign möglich gewesen wäre... evtl. kann der Support auch per Treiber nachgereicht werden...
 
Ich weiß zwar nicht, wo ich es einfügen soll.
Aber AMD wird TressFX 2.0 @ APU-13 vorstellen.

TressFX is AMD’s realistic hair rendering technology which renders and simulates the physics of thousands of individual strands of hair. It was first used in Crystal Dynamic’s Tomb Raider, released earlier this year. Now AMD is introducing TressFX 2.0, a newer version of TressFX with better performance and easier integration into games. Additionally research is now being done to use TressFX for other things besides hair, like grass and fur. In this talk we will cover how TressFX rendering and physics works, the improvements made in TressFX 2.0, and the research which will be used in future products.


Nai schrieb:
Ich fand es soweit interessant anzumerken, da zumindest die Provisional OpenCL 2.0 Sepcs schon seit 3 Monaten draußen sind.
Du solltest es doch besser wissen, dass die OpenCL 2.0-Treiber doch erst in der Endgültigen Fassung rauskommen.
Und das wird noch so 3 Monate dauern.

OpenCL wird ein Bedeutender Schritt.
Wegen Shared Virtual Memory richtet sich OpenCL gleich an HSA an.
Und mit Dynamic Parallelism wird etwas umgesetzt, was bei Kepler sehr bedeutsam war.

Logisch, dass nicht alles auf einmal umgesetzt weden kann, aber mit HSA bzw Shard Virtual Memory werden bei OpenCL 2.0 Techniken eingesetzt, mit dem sich AFAIK sogar vor CUDA dran sein werden.
 
Mit welchem Treiber wurde eigentlich gestestet?
Sehe da nirgends eine Info.
Der 13.11 Beta verspricht ja in den gängigsten Games noch einmal 3-10% mehr Performance.
 
Du solltest es doch besser wissen, dass die OpenCL 2.0-Treiber doch erst in der Endgültigen Fassung rauskommen.
Und das wird noch so 3 Monate dauern.

Ich bewerte Hardware nicht wie sie eventuell mal seien könnte, sondern wie sie gerade im Moment ist, zumal es keinerlei Ankündigungen für OpenCL 2.0 bei der 290xer Serie gegeben hat. Denn was bringen mir eventuelle zukünftige Hardwarefeatures, wenn ich diese *jetzt* für ein Projekt benötigen würde.


Wegen Shared Virtual Memory richtet sich OpenCL gleich an HSA an.
Und mit Dynamic Parallelism wird etwas umgesetzt, was bei Kepler sehr bedeutsam war.

Logisch, dass nicht alles auf einmal umgesetzt weden kann, aber mit HSA bzw Shard Virtual Memory werden bei OpenCL 2.0 Techniken eingesetzt, mit dem sich AFAIK sogar vor CUDA dran sein werden.

CUDA besitzt bereits seit Fermi einen Unified Virtual Address Space, welches so ziemlich dem Shared Virtual Memory in OpenCL 2.0 entspricht. Der einzige Vorteil von OpenCL 2.0 ist (sofern ich die hier etwas abstrakten und unklaren Spezifikationen richtig deute), dass es optional unterstützt wird, dass die Kernel bzw. die GPU per Zeiger wahlfreien Zugriff auch auf pageable Memory haben. (Anmerkung am Rande: Wie kann man nur so ****** sein und eine 281 Seiten lange OpenCL-Spezifikation zu schreiben ohne die Wörter "pinned memory" und "pageable memory" zu verwenden; ein weiterer Grund OpenCL zu meiden.) Bei CUDA funktioniert der Zugriff nur per DMA auf pinned Memory. Der Nutzen vom UVA bzw. SVM ist jedoch meines Wissens nach bei Systemen, bei welchen GPU und Host sich nicht den selben phyiskalischen Speicher teilen, stark eingeschränkt, da der PCI-E zum Flaschenhals wird. So ist mir kein Anwendungsfall bekannt, bei welchem Host und GPU in CUDA sich die selbe Datenstruktur im Pageable-Memory teilen. Meines Wissens nach wird der UVA meist nur dafür verwendet um sich das Zurückkopieren der Ergebnisse zu sparen, indem man die Ergebnisse gleich in den Host-Speicher zurückschreibt.
 
Eigentlich müsste man direkt eine 290X kaufen, sobald ein Modell mit einem besseren Kühler da ist (und irgendwie PhysX funktioniert). Ich rechne es AMD hoch an, dass sie mit der Karte eine direkt so offensive Preisstrategie gegenüber nVidia fahren.

Was nVidia zuletzt preislich bei der GTX 780 versucht hat, war eine gestiefelte Frechheit.

Selbst jetzt ist noch nicht sicher, ob der GK110 Vollausbau endlich kommt und die 80 % "funktionstüchtigen" GPUs kosten immer noch über 400 Euro...
 
PhysX ist doch nur ein Gag, braucht niemand heutzutage.
 
@deathscythemk2

Das stimmt schon. Kaum ein Spiel macht von PhysX gebrauch und selbst wenn, ließen sich die selben Effekte in der Regel auch einfach per CPU erreichen (wenn es denn gewollt wäre).

Aber z.B. TrueAudio sehe ich als genau das Selbe an. Es kann mir keiner einreden, dass 3D-Soundeffekte derartig aufwändig zu berechnen sind, dass man sie unbedingt auf die GPU auslagern muss. Das erscheint mir noch unnötiger, als bei Physik-Effekten.
Zumal auf typischen Gaming-PCs sowieso die GPU schon der Flaschenhals ist, wärend diverse CPU-Cores ungenutzt brachliegen. Da halse ich der GPU doch nicht noch zusätzliche Arbeit auf...

Am Ende sind das einfach nur nette kleine Logos, die man auf die Grafikkartenkartons malen kann. :)
Die Kaufentscheidung würde ich von sowas aber nicht abhängig machen.
 
Ich benutze Razer Surround für die Raumklangsimulation. Gibt oder gab es auf der Razer Homepage gratis und funktioniert perfekt selbst mit onboard Sound ohne spürbare Last
 
Herdware schrieb:
Aber z.B. TrueAudio sehe ich als genau das Selbe an. Es kann mir keiner einreden, dass 3D-Soundeffekte derartig aufwändig zu berechnen sind, dass man sie unbedingt auf die GPU auslagern muss. Das erscheint mir noch unnötiger, als bei Physik-Effekten.

ich denke es geht eher darum die 3D Welt als solche akustisch zu berechnen, Wände die den Sound zurückwerfen, verschiedene Materialen die Sound anders absorbieren ... vielleicht sogar Soundverzögerung von entfernten Geräuschen... das ganze muss erst berechnet werden für jeden Kanal, dann zu einem DTS oder DTS HD Stream zusammengebaut werden, in Echtzeit, um dann über HDMI auch an das passende 5.7 - 7.1 System gegeben werden zu können.
Diese in Echtzeit zu Dolby/DTS Komprimierung können nicht mal die älteren X-FI, ich glaube nur die ASUS und die X-Fi Titanium.

Wer mit einem Headset und ohnehin "fake 3D Sound" leben kann... der braucht eh kein komprimiertes MultiChannel am HDMI.
 
Zurück
Oben