Test AMD Radeon R9 390X, 390, 380 und R7 370 im Test: Den Unterschieden zur R9-200-Serie auf der Spur

Status
Für weitere Antworten geschlossen.
mambokurt schrieb:
AMD bringt mit Fiji neue Karten und könnte die neuen Chips durchaus auch im Midrange anbringen, wollen sie aber augenscheinlich nicht. Das hat nichts mit verbrennen zu tun, die produzieren die alten Chips ja fröhlich weiter. Wenn sie jetzt nach dem umlabeln die Preise entsprechend runternehmen habe ich auch kein Problem damit, fies wirds halt wenn äquivalente 2xx Chips auf einmal weniger kosten als 3xx Chips, da würde ich dann schon von Beschiss reden wollen...

Naja von Beschiss reden? Dann kauf dir doch einfach eine 2xx. Einfacher gehts ja wohl nicht !
 
mambokurt schrieb:
Wenn sie jetzt nach dem umlabeln die Preise entsprechend runternehmen habe ich auch kein Problem damit, fies wirds halt wenn äquivalente 2xx Chips auf einmal weniger kosten als 3xx Chips, da würde ich dann schon von Beschiss reden wollen...

Die einfachste Lösung wäre wohl die 2XX auf dem Leistungslevel zu günstigeren Preisen zu lassen, die 3XX-Serie teuerer anzubieten und die Treiberoptimierungen der 3XXer einfach nicht auf die 2XXer zurückzuporten. So können beide noch ne weile nebeneinander her laufen und kommen sich in Sachen Leistung und Preis nicht in die Quere.
 
c0mpu schrieb:
Wer nimmt auch bitte UHD Fernseher zum zocken? Abartiger Input lag, dachte die Zeiten wären vorbei..

Jemand, der auf Augenkrebs steht.:evillol:
Ergänzung ()

DocWindows schrieb:
3XX-Serie teuerer anzubieten und die Treiberoptimierungen der 3XXer einfach nicht auf die 2XXer zurückzuporten.
Na na. Das macht nur ein Grafikkartenhersteller und der heißt nicht AMD.
 
c0mpu schrieb:
Wer nimmt auch bitte UHD Fernseher zum zocken? Abartiger Input lag, dachte die Zeiten wären vorbei..

UHD kann ich auch nicht verstehen, das wird selbst ne Fiji nicht in vernünftigen Frameraten packen... dann lieber FullHD mit allen Details an in Flüssig. Das ganze mit 47" und auf Wunsch mit TriDef sogar in 3D, "so muss zocken" ;-)

Erfreut euch ruhig eurem Zero Input Lag an eurer Minifunzel, ich merk bei meinem LG nix weltbewegendes das mich stören würde. Aber das Bild ist einfach geil groß ^^
 
Kann dass denn wirklich sein?

Ryse Sons Of Rome:
960: 40 fps - 215 Watt
R7 370: 31 fps - 231 Watt
R9 380: 43 fps - 298 Watt

Satte 83 Watt mehr, für 3 frames?

---
@Hito, stimmt - sind 215, danke :)
 
Zuletzt bearbeitet:
Referenz vs Tri-X ist unfair. Und das sag ich obwohl ich aktuell NieVidia aus dem Weg gehe...
 
Flatan schrieb:
@Moriendor

Alle Win7 und 8 Benutzer können kostenlos auf Win 10 upgraden. Was glaubst du denn was in 1 Jahr die größte Basis hat? :freak:

Das ist mir schon völlig klar, aber die größte Basis auf PC ist völlig irrelevant in dem Zusammenhang (zumal selbst DirectX 11 Support trotz nahezu 100% Verbreitung auf PC nach wie vor eher dünn ist, also kannst Du Dir Deinen "Freak" Smiley erst recht stecken).
Die größte Basis aus Sicht der Publisher, auf die es einzig und allein ankommt, denn die bezahlen die Entwicklung von Spielen, haben PS3/PS4 und X360/Xbone. Bei den großen Publishern ist die Verteilung des Umsatzes auf die Plattformen grob gesagt so ca. 12% bis 20% PC und der Rest Konsolen. Die Publisher interessiert DirectX 12 doch überhaupt nicht. Kein Publisher wird Geld in die Hand nehmen, um den mickrigen 10% bis 20% Anteil von Spielern eine Extrawurst zu braten, zumal der Poster auf den ich mich bezog von extra angepasstem Speichermanagement gesprochen hat, was sehr aufwändig ist und damit besonders viel Zeit und Geld kostet.
Die Entwickler müssten im Grunde extra die Konsolenversionen ("normales" Speichermanagement), eine DirectX 9 - 11 Version für PC (= Konsolenport auch mit "normalem" Speichermanagement) und eine DirectX 12 Version (mit Extrawurst-Speichermanagement, das der GTX 970 "das Genick bricht") entwickeln.

Aber da Ihr ja offenbar überzeugt seid, dass jetzt die große Schwemme von DirectX 12 Games über uns hereinbrechen wird mit extra angepasstem Speichermanagement und allem PiPaPo... dann frage ich einfach mal anders herum: Welche Publisher/Entwickler glaubt Ihr denn werden das tatsächlich nutzen? Mir würde spontan höchstens Chris Roberts und Star Citizen einfallen, da ein Herr Roberts ja gerne jede Gelegenheit nutzt, um die Entwicklung weiter in die Länge zu ziehen, aber sonst...
 
Zuletzt bearbeitet von einem Moderator:
Star Wars Battlefront wird anscheinend aufjedenfall DX12 unterstützen. Natürlich wird es auch einige Titel geben die DX12 unterstützen, aber auch genausoviele die das nicht tun.

Das beste an DX12 ist doch einfach momentan, dass sogut wie jeder vom reduzierten CPU-Overhead profitiert. Bestimmte andere Features sind mir da bei weitem nicht so wichtig.
 
AMD arbeitet echt hart am schlechten Ruf...
Bin froh eine 970 gekauft zu haben, kein Ärger bisher und super leise.

Der ganze PC hat unter Game Last maximal 250W Verbrauch, etwa die Hälfte meines vorherigen Q6600 PCs :)
 
DocWindows hat recht. Den aktuellen Treiber der alten Serie vorzuenthalten sollte definitiv lautstark kritisiert werden.
Marketingtechnisch vielleicht legitim um die "neue" Generation zu pushen.
Faktisch weiß die ganze Welt jedoch das es sich nur um ein Rebrand handelt. Somit kann AMD nicht behaupten die Anpassung für die 200 Reihe wären nicht kurzfristig möglich gewesen.
 
Zu der ganzen DX-Diskussion: http://www.pcgameshardware.de/Direc...nterschiede-Feature-Levels-Tiers-AMD-1161045/
(Und wer den Artikel nicht liest möge bitte nicht mehr daran teilnehmen)

Artikel auch noch im Spoiler:
Demnach ist DirectX 12 grundlegend um das neue Resource-Binding-Modell aufgebaut, das Microsoft auf seiner Übersichtsseite zusammenfassend wie folgt beschreibt: "Das "Binding" (dt. Binden) stellt ein Prozess dar, bei dem Resource-Objekte an die Grafik-Pipeline gekoppelt werden". Das Resource-Binding-Modell wird derweil in drei "Tiers" untergliedert wie auch einige andere mit DirectX 12 mögliche Funktionen, die wiederum verschiedene Anforderungen an die Hardware stellen. Resource-Binding Tier 2 ist eine Mindestanforderungen für die Feature-Levels 12_0 und 12_1 und wird von Maxwell 2.0 unterstützt. Alle Radeons ab GCN 1.0 unterstützen bereits Tier 3 und haben diesbezüglich keine Limitierungen.

Die GPUs beherrschen folglich mehr, als die Spezifikationen der offiziellen Feature-Levels hergeben. Im Umkehrschluss decken Letztere nicht alle Funktionen ab, die aber trotzdem von Spielentwicklern genutzt werden können. GCN 1.0 zum Beispiel "kann" teilweise mehr als Maxwell 2.0, für D3D 12_0 fehlen nur die Tiled-Resources Tier 2 (1 wird unterstützt), für 12_1 fehlen wie auch GCN 1.1 und 1.2 die Rasterizer-ordered Views.

Das bedeutet letztendlich, dass die GCN-GPUs der Konkurrenz in Form von Maxwell 2.0 in kaum etwas nachstehen, teilweise sogar mehr können, bloß eben auf dem Papier schlechter dastehen. Dank Low-Level-Zugriff sollten den Entwicklern zudem Möglichkeiten offenstehen, nicht unterstützte Funktionen zu umgehen. Auf der Habenseite für AMD steht darüber hinaus noch die aktuelle Konsolen-Hardware als kleinster gemeinsamer Nenner.
 
Luftdruck schrieb:
Es gibt doch Referenz-Modelle?

Ich hatte den Satz im Testbericht, dass AMD sich auf Fury konzentriert und keine Referenz-300er zum Test vorliegen, so verstanden, dass es keine Referenz gibt (so wie seinerzeit bei den 280ern).

Wenn es doch 390(X) mit Referenzkühler gibt, will ich lieber gar nicht wissen, wie laut und heiß die sind. :rolleyes:

Die 390(X) verbrauchen ja doch wesentlich mehr als die 290(X) und schon bei denen war AMDs Referenzkühler viel zu schwach.
Diese Karten wären wohl nur interessant, wenn man eine Wasserkühlung drauf bauen will und deshalb auf ein Referenz-PCB Wert legt und den überforderten Kühler entsorgt.

Ansonsten wird wohl jeder zu den Custom-Karten greifen. Erst mit guter Kühlung zeigt Hawaii seine Stärken.
 
Flatan schrieb:
@Moriendor

Alle Win7 und 8 Benutzer können kostenlos auf Win 10 upgraden. Was glaubst du denn was in 1 Jahr die größte Basis hat? :freak:

Die Frage stellt sich sowieso nicht. MS XBOX verwendet eine modifizierte Version von DX11. Jetzt kommt eine modifizierte Version von DX12. Somit wenn ein Konsolenspiel für die XOne gemacht wird, darf man damit rechnen, dass diese Features auch für den PC kommen. Wir sehen es ja bei den nächsten Games, die neben XBOX ONE auch auf auf den PC kommen und die sind alle DX12 exklusive.
Fabel, Gears of War ect.
 
Aldaric87 schrieb:
Star Wars Battlefront wird anscheinend aufjedenfall DX12 unterstützen. Natürlich wird es auch einige Titel geben die DX12 unterstützen, aber auch genausoviele die das nicht tun.

Das beste an DX12 ist doch einfach momentan, dass sogut wie jeder vom reduzierten CPU-Overhead profitiert. Bestimmte andere Features sind mir da bei weitem nicht so wichtig.

Es geht nicht nur um "einfachen" DirectX 12 Support (mir ist selbst klar, dass es viele Spiele geben wird, die zumindest Teile des DX 12 Featuresets supporten werden). Bitte den Zusammenhang beachten. Der Poster, auf den ich mich bezogen habe, hat im Grunde behauptet, dass viele Entwickler in Zukunft das direkte Speichermanagementfeature von DirectX 12 nutzen werden und Leute mit GTX 970 wegen ihrer 3,5GB VRAM einpacken können.

Ich zitiere den Herrn am besten einfach noch mal, damit der Zusammenhang klar wird...
Dai6oro schrieb:
@Aldaric87

Also in einem Jahr nur noch niedrig auf Hawaii? Sicher nicht. Bedenke dass die Konsolen nicht schneller werden. Spätestens wenn mit DX 12 die Speicherverwaltung in den Händen der Spieleentwickler liegt wird das den 3,5 GB der 970 das Genick brechen.


!!! ES GEHT NUR UM DAS DIRECTX 12 SPEZIFISCHE SPEICHERMANAGEMENT !!!
 
Zuletzt bearbeitet von einem Moderator:
issenia schrieb:
Das macht nur ein Grafikkartenhersteller und der heißt nicht AMD.

Naja, es besteht ja immer noch die Hoffnung dass sie doch mal anfangen strategisch zu denken.
Die 2XXer werden dadurch nicht schlechter und die 3XXer können sich etwas absetzen.
Damit hätte man mehr Modelle in mehr Leistungs- und Preiskategorien.

Vielleicht haben sie das sogar insgeheim vor. Es wurde ja nicht nur die Kartenserie umbenannt, sondern auch die Chips selbst. Die Voraussetzungen wären da.

radical1983 schrieb:
DocWindows hat recht. Den aktuellen Treiber der alten Serie vorzuenthalten sollte definitiv lautstark kritisiert werden.

Da hast du mich wohl falsch verstanden ;)
 
Zuletzt bearbeitet:
Hito schrieb:
Referenz vs Tri-X ist unfair. Und das sag ich obwohl ich aktuell NieVidia aus dem Weg gehe...

Wird es denn Referenz-Modelle zum Kaufen geben ? Bisher habe ich diese Referenzbilder nur bei der AMD Präsentation gesehen. Ich nehme an, die werden wenn überhaupt vorwiegend in OEM Rechner zu finden sein.

Moriendor
Wie groß ist denn der Aufwand ein Spiel DX12 kompatibel zu machen. Soviel ich von MS gelesen habe, sollte der Aufwand nicht so groß sein. Desweiteren ist DX12 eben DX11 kompatibel. Das war ja bei DX10 damals nicht der Fall. Bei DX11 hatte man deshalb FL eingeführt und ist DX9 kompatibel und deshalb gibt es auch heute viele Games die auf DX9 aufbauen und nicht auf DX10.
Somit kann die Annahme von DX12 weit aus schneller gehen, als es bei auf DX10 oder von DX10 es war.
 
Zuletzt bearbeitet:
Aldaric87 schrieb:
Das beste an DX12 ist doch einfach momentan, dass sogut wie jeder vom reduzierten CPU-Overhead profitiert. Bestimmte andere Features sind mir da bei weitem nicht so wichtig.

Das beste an DX 12 ist,
M$ kann viele Spieler auf Windows 10 zwingen :freak:
 
Ich habe mir noch eine R9 290X geholt als sie günstig war, super Entscheidung. Ich würde aus Prinzip keine Nvidia nehmen, nachdem sie ihre Kunden so mit der GTX 970 übern Tisch gezogen haben. Ich bin noch immer der Meinung, dass man die 8GB RAM nicht unbedingt braucht, aber schön, wenn man die hat. Für GTX 970 wirds saueng wenn der Speicherbedarf wirklich derartig steigen wird.
Bin mal gespannt wie sich das mit den Treibern entwickeln wird, aber AMD ist nicht Nvidia, also glaube ich nicht, dass sie die "alten" Serien verkümmern lassen.
 
Sehe ich das richtig, dass die R9 380 nur 30 % bis 50 % schneller läuft als die R7 370, trotz 75 % mehr Shadereinheiten, 86 % mehr TMUs und generell neuerer Architektur?
Ich dachte, die R9 380 könnte eventuell meine HD 7850 ablösen, aber die rennt mit 1,2 GHz, da merk ich ja dann nochmal weniger unterschied, oder?
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben