Test AMD Radeon R9 295X2 im Test

https://www.computerbase.de/2014-04/amd-radeon-r9-295x2-benchmark-test/2/

"Netzteil-Anforderungen", verlinkt und erwähnt auch unter Leistungsaufnahme.

Ohne die restlichen Komponenten und ohne den Einfluss des Wirkungsgrades des Netzteils verbraucht die Radeon R9 295X in der Standard-Konfiguration knapp über 500 Watt und mit angehobenem Power Target knapp 550 Watt, wie unsere Messungen ihm Rahmen der Netzteil-Kompatibilität zeigen.

Und:

Anderen ist z.B. aufgefallen, dass übers Mainboard sogar unter Last nur noch 28 Watt gezogen werden und die 3.3-Volt Schiene unbenutzt bleibt. Gesamtsystemmessungen sind wirklich uninteressant und nichtssagend.

Uns auch, siehe Link.

Und nun?
 
@Dr.Schiwago: Lesen...

danke für den Test, Graka kann man allerdings gleich wieder vergessen.

mfg
 
Nun ja. Vielleicht trotz allem nicht das gelbe vom Ei aber ein super Konter zur lächerlichen Titan Z ;)

@CB: bitte fügt doch wirklich die Mantle-Ergebnisse ins Rating mit ein! Wenn ihrs nicht tut verfälscht ihr doch das ganze total. Oder muss das 780Ti SLI zwingend ganz oben stehen? :D
 
Zuletzt bearbeitet:
mcsteph schrieb:
@CB Wieso werden die Mantle-Ergebnisse nicht in das Rating einbezogen?

Versteh da den Grund nicht...

Frage ich mich auch ...
 
Jan schrieb:

KainerM schrieb:
@Dr.Schiwago: Lesen...

Es beweist, dass ihr nichts gemessen habt. Das langsame und ungenaue Zangenamperemeter ist nur ein gröberer Anhaltspunkt, bessere Baumarktware. Über den PEG zieht die Karte ja laut anderen Seiten nur noch 28 Watt, Ihr rechnet fröhlich und brav mit 75 Watt, ohne das mal zu hinterfragen. Um knapp 50 Watt daneben zu liegen, muss man schon früh aufstehen ;)
 
also wenn ich das Ding 6h am Tag 365 Tage unter 500W Volllast betreiben würde wären das 1095kwh also ca. 300€ für den Strom nur für die Graka. :D
 
Es beweist, dass ihr nichts gemessen habt. Das Zangenamperemeter ist nur ein gröberer Anhaltspunkt, bessere Baumarktware. Über den PEG zieht die Karte ja laut anderen Seiten nur noch 28 Watt, Ihr rechnet fröhlich und brav mit 75 Watt, ohne das mal zu hinterfragen. Um kanpp 50 Watt daneben zu liegen muss man schon früh aufstehen

Wir messen 26 Watt. Bitte lass uns diese Diskussion in die privaten Nachrichten verlagern.
 
nVVater schrieb:
wieso liegt das Temperatur Target bei 75°C?
und wieso kann man das nicht erhöhen?

siehe meinen Post
 
Immense Leistungsaufnahme, aber das kümmert wohl die wenigsten Käufer solch einer Karte.

Danke für den Test.
 
Krasses Teil.
650Watt ist schon ne kleine Hausnummer :evillol:

Die Karte ist echt Brachial!
 
Dr.Schiwago schrieb:
Es beweist, dass ihr nichts gemessen habt. Das langsame und ungenaue Zangenamperemeter ist nur ein gröberer Anhaltspunkt, bessere Baumarktware. Über den PEG zieht die Karte ja laut anderen Seiten nur noch 28 Watt, Ihr rechnet fröhlich und brav mit 75 Watt, ohne das mal zu hinterfragen. Um knapp 50 Watt daneben zu liegen, muss man schon früh aufstehen ;)
Du versuchsts immer wieder, aber du scheiterst schon zum dritten Mal. Und andere Publikationen bestätigen das Bild. Kleiner Tipp: CB listet 26W für den PCIe-Slot.

mfg
 
Nicht nur damit unterscheidet sie sich deutlich von Nvidias Dual-GPU-Lösung GeForce GTX Titan Z, die mit einem Preis von 3.000 US-Dollar klar auf professionelle Anwender abzielt, auch wenn Nvidia per Blog den „5K-Gamer“ zum Kunden macht. Nvidia hat das Gespann aus zwei GK110-GPUs auch massiv beim Takt beschnitten, um die typische Leistungsaufnahme bei unter 300 Watt zu halten.

Sicher ? Die Titan Z soll weniger als 300 Watt brauchen? Ich denke es sind weinger als 400 Watt sprich 375.

@ Karte

Endlich mal eine Karte die keine Kompromisse eingeht. Die brachiale Leistung wird zwar mit vielen Nachteilen erkauft aber das wird die Zielgruppe verschmerzen können.

Ich erwarte bei meiner nächsten Graka auch bei Single GPU eine AIO Lösung@ Hersteller.
 
richtig krasses Teil doch mir dennoch eindeutig zu teuer und vorallem zu hunrig was den Strom betrifft, also nein danke :) Zudem schafft auch die Karte annehmbare FPS in 4K (was noch nicht mal richtiges 4K ist)
 
Man sieht aber auch das AMD sich hier noch übern Treiber klar von Nvidia wird absetzen können, bei manchen Spielen hackts nur im Multi GPU Profil. Mit einem neuen Treiber steigt das Rating nochmal..
 
Wieso gibt es eigentlich keine GPGPU Tests, inklusive Lightcoin Benches?
 
Die Grafikkarte in der Woche nach dem 21. April im Handel erhältlich sein.

Da fehlt ein "wird" ;)

Oh man, was ein stromhungriges Biest, es wäre echt besser gewesen noch einen weiteren 6er oder 8er Pin hinzuzufügen, dann hätte man die Probleme nicht gehabt die mit Netzteilen auftreten können.
 
Zurück
Oben