Test AMD Radeon R9 290X im Test

PulsarS schrieb:
Bist du nicht etwas durcheinander gekommen?
BF4 wird Mantle bekommen, was hat das mit DX11.x zu tun?
Wobei du mit DX11.1/2 recht haben könntest.
DX 10.1 wurde (von vielen) auch als nicht nötig angesehen. Dabei brachte 10.1 einen Performanceboost von satten 20-30% bei der Verwendung von MSAA im Vergleich zu 10.0.

Das hat sehr viel mit BF4 zu tun!
Ja BF4 bekommt Mantle aber bis dahin unterstuzt das Game auch DX11.1!
Und ich bin schon echt gespannt in wie weit das in dem Spiel dann Vorteile bringt.

(Mantle wird bei BF4 nachgeliefert und ist nicht zu Release mit dabei)
 
@thanok ich schaue nach den Verfügbarkeiten, schau doch mal selber, ich kauf hier nichts auf blauen Dunst und hoffe dann das sie noch rechtzeitig kommt .

Es mag sich langsam einzupendeln , aber die his und die msi sind schwer zu bekommen , den Rest kann man doch vergessen, die Gigabyte so schlimm sein ( lüftersteuerung )

Aber egal ich bin raus , werde hier nicht über Seiten argumentieren wie es hier andere machen , habe mir meine Meinung gebildet .
 
Zuletzt bearbeitet:
Herdware schrieb:
Der AMD-Referenzkühler ist einfach wesentlich schlechter, als der "Titan"-Kühler. Der selbe AMD-Kühler scheitert ja auch schon an einer "kleinen" HD7970GHz. Kein Wunder, dass er sich mit dem größeren Hawaii-Chip auch nicht viel besser schlägt, trotz auf Lautsstärke optimierter Lüftersteuerung.

der "große" Hawaii-Chip ist doch wesentlich besser zu Kühlen als der "kleine" Tahiti.

GK110: 0,36 W/mm²
Hawaii: 0,53 W/mm²
Tahiti: 0,70 W/mm²
 
Haudrauff schrieb:
Oder sie verkaufen die nun bessere Karte zu einen höheren Preis ;)
Nein, die pösen Kapitalisten wieder!

Nja etwas mehr kosten die Partnerkarten mit alternativem Kühler meistens schon ich hab nun einfach mal angenommen das der Preis eh etwas fällt und mit neuem Kühler sollten 500€ in einem Monat schon realistisch sein um viel mehr sind die Preise noch nie gestiegen ;) dafür gibts es ja Erfahrungswerte aus vorherigen Generation an GraKas

@Thanok: Ja klar da hast du recht :) viele tun das ja aber jetzt schon mit dem Referenzdesign der 290X und irgendwelchen OC 780er Karten mit anderem Kühler :) ich glaube aber trotzdem das die 290X da weg zieht sowohl vom Preis als auch der Leistung aber dafür müssen natürlich tests her.
 
Zuletzt bearbeitet:
@Matzegr
Warum wird eigentlich kein Heatspreader wie bei den CPUs verwendet wenn die Fläche das Problem ist?!
 
Thanok schrieb:
@Matzegr: Zum einen müssen natürlich mehr W/mm² angeführt werden, aber was ich persönlich schlimmer finde ist die Tonhöhe des Lüfters. In den CB-Videos klingt das Ding wie eine Flugzeugturbine, meine alte 6970 schrie um Hilfe (wobei es sicherlich einen Unterschied macht ob man es nur im Video oder eben real hört) und die Titan hat ein leichtes, eher tiefes Rauschen. Dadurch ist selbst bei ähnlicher Lautstärke die Titan angenehmer zu hören.
Das ist zwar kein Grund für die Lautstärke an sich, aber für die subjektiv Empfundene.

Hallo,

ohne mir die Kühler jetzt im Detail angeschaut zu haben, habe ich folgende Vermutung.

Da Amd mehr Hitze verteilt auf weniger Fläche Ableiten muss, sind sie gezwungen die Fläche des Wärmetauschers, in diesem Falle Kühllamellen zu erhöhen. Dies schafft man nur, (wenn man die Gesamtgröße des Kühlers nicht ins unermessliche treiben will), durch die Erhöhung der Anzahl der Kühllamellen.
Dieses hat den unangenehmen Nebeneffekt, das die Abstände der Kühllamellen sehr viel kleiner werden.
Um die Luft nun durch diese engen Kanäle zu pressen, welche einen weitaus höheren Luftwiderstand haben, als großzügig dimensionierte, brauchst du mehr Luftdruck und erhälst als Nebeneffekt dann eine sehr hohe Luftgeschwindigkeit in den jeweiligen Kanälen. Je höher die Luftgeschwindigkeit in einem Kanal, desto fieser wird die Frequenz.
Merkst du ja, wenn du z.B 8 bar Druckluft duch ne Pistole mit unterschiedlich großen Düsen bläst. Je größer die Öffnung desto angenehmer die Frequenz und auch die Lautheit.

Wäre so mein Erklärungsversuch, für das sehr hohe Lüftergeräusch der AMD Karten.
 
Matzegr schrieb:
der "große" Hawaii-Chip ist doch wesentlich besser zu Kühlen als der "kleine" Tahiti.

W/mm^2 ist nur einer von vielen Faktoren. Ich denke nicht, dass der Referenzkühler nur (oder vor allem) daran scheitert.
Außerdem würde man diese Wärmedichte-Probleme wohl auch erst gar nicht sehen, denn letztlich melden die Temperatursensoren ja nur den Wert an einem Punkt irgendwo in der Nähe des Chips, nicht irgendwelche über die gesamte Chip-Fläche gemittelten Werte.

(Die vermeintlich hohe Wärmedichte hat sich auch schon bei Ivy Bridge und Haswell als unhaltbarer Mythos herausgestellt. Die Ursache für die hohen Temperaturen lag nicht bei den kleinen 22nm-Chips, sondern zwischen Chip und Heatspreader.)

Das Problem ist eher, dass der AMD-Referenzkühler die Gesamtmenge der Abwärme einfach nicht leise auf die Luft übertragen und diese abtransportiert bekommt. Da macht der Titan-Kühler wie gesagt einen sehr viel besseren Job. (Und das sowohl auf der großen GK110-Karten, als auch bei dem viel kleineren GK104-Chips der GTX770.)
 
Herdware schrieb:
Ich würde von einer GK110-Vollausbaukarte nicht allzu viel erwarten.

Die Titan hat 14 der 15 SMX Cluster aktiviert. Die GTX 780 nur 12. Wir alle wissen, wie nah die 780 trotzdem an der Titan ist, und dass sie sie mit etwas OC sogar locker überholt. .


So etwas wie OC funktioniert auch mit einer Geforce Titan alias 780 TI oder etwa nicht? Ich nehme sogar zu 99,9% an das sie den Takt anheben werden um die 290X auszumanövrieren

Somal die Chipentwicklung seit 9 Monaten auch bei Nvidia nicht auf der Stelle getreten ist u GK110 garantiert ne neue Revision erfährt

An K40 alias Atlas mit brachialen 12GB Vram einem SMX Cluster mehr,der selben Taktung u der selben TDP wie der Vorgänger K20X sollte schon ersichtlich sein das hier was passiert ist.Denn der zusätzliche Vram von 6GB schluckt auch nochmals Energie


Nichts desto trotz, kann man über all diesem noch nen Prestigechip platzieren, der wiederum nen 1000Euro Preispunkt bedient, die Gelegenheit ist da wenn man Ex Titan u Radeongegner nicht zu stark auslegt;)

Austarieren kann man ja nun in aller Seelenruhe nachdem AMD released hat
 
Zuletzt bearbeitet:
Der Titan/780/770 Kühler hat ja am "oberen" Ende auch eine viel grössere Öffnung (bzw. die Kühlrippen gehen da weiter), siehe:
http://www.hartware.de/media/news/57000/57134_2b.jpg

Bei der R290X ist da alles zu, mit Ausnahme von den drei winzigen Öffnungen. Die AMD-Lösung sorgt wohl dafür, dass mehr Luft aus dem Gehäuse geblasen wird, dafür ist sie auch viel lauter, weil eben viel mehr durch kleine Öffnungen gezwängt werden muss. Am Lüfter selber scheint sich btw. seit der 5000er Reihe auch nix mehr geändert zu haben (?)...
 
SheldonCooper schrieb:
Schade, dass AMD es mal wieder so richtig verkackt hat. Manchmal hab ich das Gefühl, dass alles was AMD in den letzten Jahren angefasst hat totaler Müll ist. Schade, weil ohne Konkurrenz weder Intel noch Nvidia bessere Produkte bringen. Bei den CPUs gings seit Sandy Bridge nur bergab (wenn man Rechenleistung bei maximalem OC vergleicht, ohne Hardwaremodifikationen wie Köpfen) und Nvidia hat den GK110 ja auch schon seit Anfang letzten Jahres fertig gehabt, aber da die AMDs so schlecht waren kamen erst in diesem Jahr entsprechende GK100-Karten auf dem Markt. Und die kommenden Konsolen haben beide AMD drin - es ist das erste Mal, seit ich mich erinnern kann, dass eine neue Konsole einem zwei Jahre alten PC unterlegen ist.

Die Posts hier werden immer unterhaltsamer. Leute die selber wahrscheinlich nichts auf die Reihe kriegen (oder vielleicht doch bei mehr als 600 Euro Wochengehalt? Wobei ich hoffe, dass zwischen brutto und netto unterschieden werden kann ;)) nörgeln groß herum. IMHO hat AMD ein Prachtstück auf den Markt gelassen. Mit Custom Kühllösungen wird es nochmals besser aussehen - der Standardkühler war ja schon immer eine AMD Schwäche.
Auch die Speichertaktproblematik dürfte sich bis zum Release von Custom Karten in Luft auflösen (außer die 290X hat das gleiche Problem wie die HD3870 damals).
Nvidia wird nur mit einer GK110 kontern können und die ist von der Die Größe her in einer anderen Liga und wird somit auch eine entsprechend gute Ausbeute haben :evillol:. Ist aber eh egal, da eine solche Karte wahrscheinlich die Titan ablösen wird und nicht für hohe Stückzahlen gedacht ist. Trotzdem hat AMD sein Ziel erreicht. Nvidia muss nachlegen. Das schadet dem Verein nicht.
AMD kann dann auch noch an der Taktfrequenz schrauben. Der Test zeigt eh gut, wie positiv sich das auf die Performance auswirkt. Da stehen uns noch tolle Karten von den AMD Partnern bevor.
 
Zuletzt bearbeitet:
Hallo Computerbase-Team,

auch wenn ich davon ausgehe das mein Kommentar in der Masse untergeht möchte ich doch meine Meinungs los werden. Ich finde es mehr als Ungerechtfertigt einen dickes Minus für die 7 Watt mehr verbrauch im Desktop-Betrieb zu geben, zu mal das noch nicht verifiziert ist!

Und selbst wenn, komme ich bei 5h Betrieb am Tag auf unter 2 kWh mehr Verbrauch pro Jahr, das sind weniger als 40 Euro oder 10 Cent pro Tag. Da kann man nicht von einem dicken Minus sprechen.

MfG Miyata
 
@miyata
Na wie soll man es denn sonst bewerten? Positiv? Zudem kommt noch der massiv höhere Verbrauch im BluRay und MultiMonitor Betrieb dazu.
 
Die Karte ist in meinen Augen ihr Geld wert, preiswerter als die 780 und schneller dazu. Wen interessiert in der Preisklasse der Stromverbrauch?

Dieses Argument ist völlig irrational, weil man um die Anschaffungskosten reinzubekommen deutlich länger spielen müsste, als die Karte im Rechner verweilt. Dem Lärm rück man eh mit Custom Designs auf die Pelle.

Warum man momentan im High End zu Nvidia greifen sollte, ist mir unverständlich. Das ist dann wohl eher ne Philosophie Frage.
 
tokad schrieb:
Nvidia wird nur mit einer GK110 kontern können und die ist von der Die Größe her in einer anderen Liga und wird somit auch eine entsprechend gute Ausbeute haben :evillol:.

Über Chip-Ausbeuten kann man als Außenstehender nur wild spekulieren. Nvidia sagte schon vor fast einem Jahr, dass die GK110-Ausbeute großartig sei. Seit dem ist es sicher nur noch besser geworden. (Und sie werden sich schon eine goldenen Nase mit den extrem teuren GK110-Karten verdient haben.)

Außerdem hängt es wohl auch nicht nur an der Chipgröße allein.
Die Hawaii-GPU packt 6,2 Mrd. Transistoren auf 420mm². Die GK110 7,1 Mrd. auf 551mm². Die Hawaii ist also wesentlich "dichter", was möglicherweise fertigungstechnisch nicht ganz unproblematisch ist. Außerdem ist Hawaii eine nagelneue GPU (wenn auch auf einem bewährten Prozess), wärend die seit Mitte 20012 in Serie gefertigte GK110 inzwischen wohl schon die eine oder andere fertigungsbezogene Optimierung durchlaufen hat.

Aber wie gesagt sehe ich es so, dass aus der GK110 nicht mehr allzuviel herauszuholen ist. Auch im Vollausbau wird es nur für ein paar Prozent mehr Leistung reichen. Zumindest bezogen auf Spiele. Ebenso ist die Referenz-Kühllösung schon ziemlich optimal. Eine wesentlich höher getaktete Titan (oder GTX780) wird auch wesentlich lauter werden.

Hawaii hingegen läuft derzeit auf den grottigen Referenzdesign-290X die meiste Zeit mit angezogener Handbremse. Zumindest im ohrenschonenden Quiet-Modus. Gute Custom-Designs werden konstant die Leistung des "Uber"-Modus (und wahrscheinlich oft noch etwas OC oben drauf) bei Temperaturen und Lautsstärken wie im Quiet-Modus bieten können und dann sieht die Titan im Vergleich schon längst nicht mehr so souverän aus.
 
miyata schrieb:
Und selbst wenn, komme ich bei 5h Betrieb am Tag auf unter 2 kWh mehr Verbrauch pro Jahr, das sind weniger als 40 Euro oder 10 Cent pro Tag. Da kann man nicht von einem dicken Minus sprechen.

MfG Miyata

7 Watt x5 Std. =35 Wattstunden x 365/1000 = 12,7 kWh = ca 3,20 EUR
 
Lobos84 schrieb:
Die Karte ist in meinen Augen ihr Geld wert, preiswerter als die 780 und schneller dazu. Wen interessiert in der Preisklasse der Stromverbrauch?
Im Quiet Mode ist sie nur leicht schneller als eine 780. Der Stromverbrauch interessiert, weil er unter Last u.U. ein Limit ans Netzteil stellen könnte und unter idle macht er den ganzen Fortschritt der in den letzten Jahren, insbesondere auch von Intel gemacht wurde, zunichte, führt zu höheren Temperaturen und damit höherem Lärm im idle. Das habe ich bereits jetzt mit meiner 5850, wo der Lüfter im Multimonitor betrieb ständig höher drehen muss, was einfach nervt.

Dieses Argument ist völlig irrational, weil man um die Anschaffungskosten reinzubekommen deutlich länger spielen müsste, als die Karte im Rechner verweilt. Dem Lärm rück man eh mit Custom Designs auf die Pelle.

Warum man momentan im High End zu Nvidia greifen sollte, ist mir unverständlich. Das ist dann wohl eher ne Philosophie Frage.
Weil es momentan und wohl bis Ende Jahr keine custom designs geben wird. Was zählt und was auch im Test bewertet wurde ist das Referenzdesign. Und momentan bekommt man eine custom design 780, welche schneller, leiser, kühler und stromsparender als eine 290X ist für einen kleinen Aufpreis. Wer also nicht plant auf einen anderen Kühler umzusatteln ist mit der derzeitigen 290X eher schlecht bedient.
 
Apropos Custom Desing... Gibt es schon irgendwelche Infos von Accelero oder Prolimatech ob die Selbstbastelkühler auf die R9 290X passen ? Oder ist das PCB zu unterschiedlich zur vorherigen Generation.
 
Eggcake schrieb:
Warum wird eigentlich kein Heatspreader wie bei den CPUs verwendet wenn die Fläche das Problem ist?!

Die->WLP->Heatspreader-WLP->Kühler wäre ineffizienter als Die->WLP->Kühler wie bei CPUs auch schon. Nen Heatspreader bei CPUs gibt es nur, damit man beim Kühler drauf bauen keine Ecke vom Die abbricht.

Der Kühlkörper hat ja auch so eine größere Fläche als die eigentliche Die.
 
G3cko schrieb:
Computerbase hat auch eine Macke. Sry, aber ist halt so.

Warum bekommt die Karte keine Empfehlung? Zwischen Titan und der AMD 290X liegen über 350€ Preisdifferenz. Wenn sich der Preis eingependelt hat wahrscheinlich noch mehr.
Im Worstcase sind das 50Watt Mehrverbraucht. Das reicht bei !durchschnittlich! 4 Std Hardcore-Nerd-Daddeln für 18,5 Jahre, bevor der Stromanbieter den Saft abreht!!!!

Mal drüber nachdenken!


Und wenn Jemand mit Green-IT um die Ecke kommt: Mal die Definition nachlesen. Das ist nämlich weit mehr als nur der Verbrauch! Amen.

u.a. deshalb:

http://www.youtube.com/watch?v=QQhqOKKAq7o

_________________________________________________________________________________

Viel Stom -> desh. sehr heiß + schlechte Kühlung -> desh. kaum noch Übertaktung + extrem laut
(außer man braucht nen Elektro-Heißlüfter für die kalten und langen Winterabende),
da alles grenzwertig und so schon am Limit läuft.
__________________________________________________________________

Diese Graka so in einem Wohngebiet nachts, am Wochenende sowie an Feiertagen
darf man diese Karten gesetzlich ja gar nicht im "uber-Bios" betreiben,
da die gesetzliche Lärmschutzemmission überschritten wird.

f. NRW: Immissionsrichtwert in dB(A)

allgemeines Wohngebiete und Kleinsiedlungsgebiete:

Tag außerhalb der Ruhezeiten -> 55

Tag innerhalb der Ruhezeiten sowie an Sonn- und Feiertagen -> 50

Nacht -> 40

reine Wohngebiete:

Tag außerhalb der Ruhezeiten -> 50

Tag innerhalb der Ruhezeiten sowie an Sonn- und Feiertagen -> 45

Nacht -> 35

Außer man betreibt die Graka extra in einem eigens eingerichtetem Schallschutzraum, -zimmer.


Radeon R9 290X Geräuschpegel Test, Parodie
http://www.youtube.com/watch?v=45lErq-qMns

PS.
liegt der Graka-Verpackung, als Zubehör für den "uber-Bios" und für die Overclocker,
eigentlich nen Päckel Gehörschutzwatte, Ohrenstöpsel bei?
 
Zuletzt bearbeitet:
Zurück
Oben