Test AMD Radeon R9 390X, 390, 380 und R7 370 im Test: Den Unterschieden zur R9-200-Serie auf der Spur

Status
Für weitere Antworten geschlossen.
Naja....für rembrands finde ich die richtig gut. Nicht zu heis , gute lautstärke...also,da hat AMD schon ganz gut abgeliefert. Denke der Preiskampf kann dann beginnen.
Fury wird sich sicher mit der Titan und 980ti anlegen. Dann sind die diesmal ganz ordentlich gleichwertig aufgestellt.
Denke mit Fury gibts ne gute Vorstellung....im High-End-Segment.:cool_alt:

Ich persönlich finde ja die R9 390 und R9 390x recht ansprechend und mit 8GB Ram gut bestückt. Der Preis geht mal in ordnung.:)

Alles in allem. AMD hat seinen Job gemacht;)
 
Danke für den Test! Aber hätte man nicht auch eine 290x mit 8GB dazu nehmen können? So macht das den Eindruck, als würden die 8GB 290xer nicht existieren und der doppelte Speicher wäre "DIE" Neuerung.

Ich finde sie machen ihrem Namen nicht alle Ehre, da eigt nur minimale Updates! (Was ja vorher schon klar war - aber für den durchschnitts Kunden, der denkt er würde eine neue Generation kaufen...)

Hoffe der Preis regelt es dann und dass die 290er nun günstiger werden (ob man das hoffen kann?^^).
 
Na es ist trotzdem noch besser als ich dachte. Die R9 390 legt bei der Leistung zu, gleichzeitig verbraucht sie weniger als ihr Pendant und kann sich minimal vor der 290x platzieren. Zudem noch 8gb Speicher also so verkehrt is das nicht. Problematisch sind halt wirklich so Themen wie 25% weniger Verbrauch bei der GTX980, welche dann auch noch nebenbei sämtliche AMD Karten schlägt. Aber die x ist wieder ein völliger Overkill im Verbrauch. Schade schade.

Man muss schauen wie sich die Preise entwickeln.
 
Die meisten die die karten schlecht reden dürften wohl im nvidia lager auffindbar sein. Man muss ehrlich sagen das die AMD Chips sich für ihr alter wacker schlagen. Man könnte das ganze auch umdrehen und einfach mal fragen weshalb nvidia's neuste generation nicht deutlich schneller als diese "alten" chips von amd sind?

gruß
 
Mich würde jetzt stark interessieren, ob eine R9 290X auch per BIOS Mod zu einer R9 390X verwandelt werden kann, v.a. bei den 4GB Varianten. Die geringere Voltage und der höhere Takt würde ich gefallen :p
 
Mhhh... 9 Monate nachdem NV Maxwell2.0 gebracht hat (der Test Mitte Sept. 2014 https://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/), hat es AMD "schon" geschafft die Lücke etwas zu schließen :( Wäre das spätestens Nov./Dez. 2014 passiert, hätte ich noch gesagt "okay", aber dieser Rückstand ist schon recht hoch, denn NV arbeitet bestimmt die letzten 9 Monate am Nachfolger dessen, worauf AMD erst "aufgeholt" hat und dann sind sie wieder locker 20-25% voraus in Sachen Leistung/FPS + sie gehen in Sachen Energieeffizienz wieder enorm in Führung.
 
UHD Test wäre auch nicht schlecht gewesen
Da würde die 390X sicher durch die 8Gb die 980 etwas überholen.
Denke das kommt sicher zum Fury Test.
 
Entscheiden für den Erfolg der R9 390(X)wird imho sein, wo sich der Preis im verglich mit der R9 290(X) bzw, R9 290X mit 8 GB einpendelt.

Die 390X liegt aktuell knapp 50 € über der R9 290X mit 8 GB
https://geizhals.de/?cat=gra16_512&xf=1440_R9+290X~132_8192~1440_R9+390X#xf_top

(Beide Karten haben (bis auf 5 MHz) den gleichen Takt.
-> 8 % schneller (basis R9 290X OC Karten), bei 12 % mehr Preis.

Allerdings ist die R9 390X im vergleich zur R9 290X mit 4 GB bis 32 % teurer (Günstigstes Modell mit 1050 MHz). Wobei der die Leistung wieder 8 % mehr ist.
https://geizhals.de/?cat=gra16_512&xf=1440_R9+290X~1440_R9+390X#xf_top

-> Wem 4 GB langen, wird wohl noch eine Zeit mit der R9 290X deutlich besser fahren. Wer 8 GB will, sollte bald mit der R9 390X das bessere Paket bekommen.
 
fox40phil schrieb:
Danke für den Test! Aber hätte man nicht auch eine 290x mit 8GB dazu nehmen können? So macht das den Eindruck, als würden die 8GB 290xer nicht existieren und der doppelte Speicher wäre "DIE" Neuerung.

Die 290x mit 8GB ist aber sehr wenig verbreitet. Die Standard 290x hat nunmal 4GB.
Darum finde ich es schon richtig die Standard-Karten zu vergleichen...und da hat die neue nunmal
jetzt generell 8GB.
 
Naja ich verstehe eines nicht,die tests sind im grunde nicht relevant,es ist doch eher wichtig was die Karten unter DX12 leisten könne,ohne Windows 10 und einem DX12 spiel oder 3dMark ist doch nicht wichtig was sie bei einem DX11 spiel kann.

Denke ich zumindest,weil Dx12 ja noch mal was ganz anderes für die Karten sein werden nach allen angaben der Redmonder.
 
SSJ schrieb:
Davon gehe ich überhaupt nicht aus.

Kommt von dir auch irgendwas sinnvolles oder möchtest nur deine GTX970 um jeden Preis hochleben
lassen? Schön dass du so ein Nvidia-Fan bist. Es interessiert aber keinen..
 
Naja ich verstehe eines nicht,die tests sind im grunde nicht relevant,es ist doch eher wichtig was die Karten unter DX12 leisten könne,ohne Windows 10 und einem DX12 spiel oder 3dMark ist doch nicht wichtig was sie bei einem DX11 spiel kann.

Denke ich zumindest,weil Dx12 ja noch mal was ganz anderes für die Karten sein werden nach allen angaben der Redmonder.
 
@SSJ
Danke für den ersten unqualifizierten Troll-Beitrag !

@struboO
will ich auch...und noch so einiges mehr (muss mich hier selber zensieren) :cool_alt:

@topic
Mir stellt sich hier noch die Frage der Übertaktbarkeit ... fand die 290(x)er Serie ja nun nicht so wirklich (über)taktfreudig...wobei die erhöhte Leistungsaufnahme der 300er wahrscheinlich ein Anhaltspunkt dafür sein wird, dass sich im Mittel kaum was daran geändert haben dürfte.

Wenn nun keine Furys kämen, würde ich auch sagen: Eher durchwachsene Runde von AMD !

Kann mir das in Gänze eigentlich nur so erklären, dass AMD sich hier durchaus etwas dabei gedacht hat:
Warum in der Performace bzw. Low-Budget Klasse neue Chips für teuer Geld entwickeln, wenn man Hawaii mit kleinen Optimierungen gegen die 970/980 stellen kann...halten ja doch recht gut mit...doppelter Speicher drauf und das muss dann mal reichen. Tut es wohl auch. Effizienz hin oder her...Karten scheinen kühl zu bleiben und ruhig zu sein...Stromverbrauch ist dann monetär tatsächlich nicht mehr so wild, wie einige das gerne glaubhaft machen möchten.

"Low Budget" (<150€) war AMD ohnehin mit vielen unterschiedlichen Chips gut im Rennen...finde ich gut, wenn hier nicht allzuviele aufgelegt würden...lieber klar und gut abgestuft, anstatt gefühlt 28 verschiedene, sich nur marginal in der Performance unterscheidende, Karten auf den Markt prügeln.
Wobei ich glaube hier werden noch einige nachgeschoben (R7 350 & Co.).
Da von "unten" jedoch die APUs und die iGPUs kommen und immer mehr Konkurrenz werden, bräuchte man das nicht wirklich. Ein paar "alte" 200er weiterleben lassen nen Jahr und fertig (abverkaufen bis die Regale leer sind).

Für die "Enthusiasten" dann die Neuentwicklung Fury mit HBM in verschiedenen Formaten, die einerseits performant und effizient genug sind, um die Maxwells mindestens einzuholen und andererseits zukunftsweisend genug sind, um als architektonische Plattform für die nächste Generation mit der Strukturgrößenverkleinerung zu dienen.

Dazu über attraktive Preise (angemesse Marge muss drin sein) wieder Marktanteile vergrößern und der Schachzug könnte ein richtiger gewesen sein. Mit regelmäßigem und ordentlichem Marketing kann was draus werden ... die Leute müssen davon nämlich etwas mitbekommen !

Nun möchten wir bitte die Fury sehen :D
 
Denke ich zumindest,weil Dx12 ja noch mal was ganz anderes für die Karten sein werden nach allen angaben der Redmonder.
Es wird noch dauern bis die ersten Dx12 Spiele kommen.
Bis sich das mal als Standard durchsetzt ist die 3xx wahrscheinlich schon wieder "Alt"
 
Herdware schrieb:
Es ist ein cleverer Zug von AMD, erst gar keine Referenz-Modelle für die 300er-Serie zu bringen.

Es gibt doch Referenz-Modelle?
 
Kann CB eigentlich auch Beitrage zu AMD-Produkten schreiben, die nicht tendenziös (abwertend) und damit unterschwellig manipulativ sind?!

Schon im ersten Satz:

"Während AMDs Fury-Serie auf die neue Fiji-GPU setzt, handelt es sich bei der neuen R9-300-Serie in erster Linie um schnellere Varianten der Radeon-R9-200-Serie mit durchweg bekannten, alten GPUs."

Hätte es nicht gereicht " ... mit durchweg bekannten GPUs." zu schreiben? Durch den Zusatz "alten" suggeriert man unterschwellig dem Leser, es handle sich um "alte" und somit "veraltete" und somit nicht mehr zeitgemäße GPUs.

Ersetzt man im Artikel "alte(e)" durch "vorherige" wirkt der Artikel schon wesentlich objektiver und weniger manipulativ...
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben