Radeon R9 380X im Februar - R9 370X und R9 390X angekündigt.

TBrandes

Lieutenant
Registriert
Dez. 2013
Beiträge
858
Auf dem jährlichen Event in Japan hat AMD die Radeon R9 380X (basierend auf der Pirate Islands Archtektur) für Februar als Verkaufsversion in den Läden angekündigt. Dabei soll die Karte als Gegenspieler für die Nvidia Maxwell GTX 970 and 980 aufgestellt sein. Genauere Informationen wurden nicht freigegeben und AMD äusserte sich nur vage. Also wird entweder noch an den finalen Spezifikationen gearbeitet (und AMD weiss es selbst noch nicht), oder man möchte die Katze noch nicht aus dem Sack lassen und Nvidia keine Vorinformationen geben.

Erwartet wird:
20nm und HBM (für die 370X bestätigt). Ebenso wird es anscheinend für die 390X eine sogenannte 'Hydra' Kühllösung von Asetek geben, die Wasser- und Luftkühlung vereint. Vor einigen Monaten hatte Asetek in einer Pressemitteilung veröffentlicht an solch einer Lösung für einen OEM zu arbeiten. Da es bereits Bilder von einem neuen Radeonkühler gab, der Aussparungen für die Anschlüsse einer Wasserkühlung hatte, ist das zwar noch nicht offiziell bestätigt aber so gut wie sicher.

Quelle: Red Gaming Tech
 
Zuletzt bearbeitet:
Hieß es nicht überall dass der 20nm übersprungen werden soll und AMS und Nvidia gleich auf 16nm weitermachen wollen?
 
Nein, ich hab auch schon mal gelesen das die Karten in 20nm kommen :)

@Topic, super :) Weiß ich auf wann ich sparen muss und eine 390X hole :love::vernaschen::D
 
Zuletzt bearbeitet:
Ok .. erstmal Danke an TBrandes für den Link.

Kann jemand die Reputation der Seite einschätzen? Mit den ganzen Schriftfehlern im Text, scheint mir das nicht so vertrauenswürdig. Zumal dort als Datum der 1te Oktober angegeben wird. Warum kommt das dann erst 3/2 Monate später?

Weiterhin: Ist das hier ein inhaltlicher Fehler? Oder wie ist das gemeint?

The GPU is said to be using the 20nm process – TSMC have virtually perfected it at this point. We know Nvidia plans a die shrink for the Maxwell’s (the so called revision b)

Klar lässt Apfel™ schon in 20nm produzieren, aber wenn man sich anschaut, wie die bisherigen Spezifikationen einer 390X aussehen könnten, dann kann man glaub seine Zweifel daran haben, inwiefern man mit einer so komplexen GPU zurecht kommt und "Perfektion" sprechern kann. Ich würde zumindest davon ausgehen, dass in diesem Fall mit HBM eine 390(X) erst später und unter geringen Stückzahlen verfügbar sein könnte. Ob das für AMD sonderlich gut wäre?

Und wenn man das hier noch mit einbezieht: 3dc, dann hab ich gerade so ein leicht ungutes Gefähl, was die 3xx anbetrifft. Und die Geschichte mit dem potenziellen WaKü geht leider genau in diese Richtung. Ich hab ja nichts gegen eine 390X, die zwar mehr Strom zieht als das NVidia Pendant (und dabei vielleicht noch etwas günstiger ist), aber ich will nicht schon wieder so ein lautes Ding haben. Zumal mit einem Standard WaKü Design die Lebensdauer des Produktes auch beschränkt sein dürfte.
 
Zuletzt bearbeitet:
Hier mal ein paar Infos zur Technik :)

HBM soll ja 4,5x schneller sein als GDDR5 :evillol: Naja Zeit hatten sie ja bis jetzt und man hört bis jetzt auch nix, vielleicht haben sie die Technik zusammen mit TSMC optimiert, wir werden ja sehen, ich lass mich überraschen :)

Würde mich für AMD freuen wenn sie die Nvidia weit hinter sich lassen könnten :)
 
Zuletzt bearbeitet:
wahnhahn schrieb:
Hieß es nicht überall dass der 20nm übersprungen werden soll und AMS und Nvidia gleich auf 16nm weitermachen wollen?

Nvidia hat 20nm erst für 2016 angekündigt.

Ich bin jedenfalls gespannt was da noch kommt. Wenn es die R9 380X wirklich schafft der GTX 980 Paroli zu bieten, dann kann die R9 390X zu einem echten Kracher werden. Jedenfalls fange ich besser schon einmal an zu sparen... ;)


@InteGralFormat
Ich muss zugeben dass ich die Seite nicht wirklich kenne und die auch nur durch einen Zufall gefunden habe. Allerdings erscheinen mir die Informationen und Schlussfolgerungen schlüssig und würden zu den anderen Informationsbröckchen, die man so im Netz findet, passen.

Sorgen macht mir ein wenig die Hybridlösung von Asetek. Die verwenden wahrscheinlich wieder mal den billigeren Radiator aus Aluminium und meiner Meinung nach hat Aluminium - insbesondere in Kombination mit Kupfer - in einer Wasserkühlung nichts zu suchen.
 
Zuletzt bearbeitet:
Ach du Schande - Leute - bleibt mal auf dem Boden. Wenn AMD es nicht komplett verhaut, dann dürfte eine Leistungssteigerung wohl eher mittelprächtig ausfallen. Zumindest nicht so gut, dass eine potenzielle 380X (für unter 300€) einer 980 gleichauf ist. Die Vorstellung ist verrückt. Und HBM bringt sicherlich auch wenn es 4,5x schneller sein kann (Theorie?) vielleicht auf der praktischen Seite ein ganz anderes Ergebnis.
 
warum sollte eine 380x nicht mit einer gtx980 gleichziehen können?
die Vergangenheit zeigt doch, dass sich beide Hersteller Leistungsmäßig nicht viel geben.
Siehe z. Hd7970 gegen gtx 680 https://www.computerbase.de/2012-06/test-amd-radeon-hd-7970-ghz-edition/3/
und wer sagt, dass die 380x für unter 300€ erscheint. persönlich glaub ich eher, dass wir bei 300€ eher die r9 380 sehen werden als die 380x
 
Ich gebe auf diese News nichts. Es kann zwar sein aber wie vorher schon gesagt die "'News" ist vom 1.10. Wenn da was dran wäre wäre es wohl schon von allen anderen inklusive CB aufgegriffen worden.

Nvidia wird wohl 20nm überspringen und gleich Ende nächsten Jahres/Anfang 2016 auf 16nm gehen. Ob AMD 20nm nutzen wird ist immer noch Spekulation.
 
@akira883

Die 280X hatte doch einen Einstiegspreis von ca. 250€. Und die 290X war bei ca. 500€. Oder?
Wenn die jetzt eine 380X für 250€ rausbringen, die einer 980 gleich kommt, wäre das meiner Meinung nach irgendwie fraglich. Dann könnte man erstens die Preise anziehen, was AMD auch nötig haben dürfte. Damit würde dann auch eine mit potenziell (über?) 600€ angesiedelte 390X (wegen der vermutlich großen Chipfläche), nochmal teurer werden, und damit in Regionen für eine erwartete 980Ti liegen. Da AMD im Energiemanagement bisher aber im Schnitt schlechter ist als NVidia, machen sie das halt durch den Preis wieder wett. Das würde in diesem Fall nicht mehr gehen und der Grund, eine Karte von AMD zu kaufen, wäre nicht mehr vorhanden.

Von daher halte ich es einfach für nicht realistisch, eine 380X noch über 300€ anzusetzen, weil es einfach nicht in's Konzept passen würde. Dann müsste der Leistungssprung einer 390X schon ziemlich deutlich ausfallen, um einen hohen Preis zu rechtfertigen und zwischen einer 380X en par der 980 noch Platz für eine 390 zu lassen und das generell schlechtere Energiemanagement auszugleichen. Und bei einer Karte, die schon vom Referenzdesign mit WaKü kommen könnte (was ja auch nochmal auf den Preis schlägt), mach ich mir da keine sonderlichen Hoffnungen. Scheint mir auch wie von 3dc beschrieben, glaubhaft zu sein.

Nur damit wir uns nicht falsch verstehen - ich hoffe, dass die 390X irgendwo (meinetwegen auch knapp) unter 600€ angesiedelt ist, einen hohen Stromverbrauch hat, dafür aber mit mind. 8GB VRam kommt, leise ist und bezogen auf eine 970 ein deutliches Mehr an Rechenleistung bietet. Ich warte schon seit einiger Zeit auf ein 5870er-Revival :D

Aber für alles, was drunter liegt, erwarte ich nicht zu viel.
 
HBM alleine wird schon deutlich den Stromverbrauch verringern und falls wirklich 20nm verwendet werden kommen ja noch ungefähr die, zumindest laut 3dc, 20% weniger Stromverbrauch im Vergleich zu 28nm dazu.
Dies an sich wird schon deutliche Verbesserungen bringen.

Das Energiemanagement wird AMD sicherlich versuchen zu verbessern, wie stark weiss man natürlich nicht.



Die Effizienz wird sicher besser werden mit der kommenden Generation, auch wenn es vielleicht Maxwell in diesem Bezug nicht in den Schatten stellen wird. Aber wer weiss...
 
Eine 370x auf dem Niveu einer 280x bei dem Verbrauch einer 260x (oder weniger)
Das ganze nach dem anfänglichen Preisfall für 150 €
Währe für mich persönlich ein Traum, dürfte gesetz dem Fall das 20nm und HBM verwendung finden aber dennoch realistisch sein oder?
 
Zuletzt bearbeitet:
Für den Preis wirst du aber wahrscheinlich ziemlich lange warten müssen falls die Leistung einer 280X erreicht wird.
 
slumpie schrieb:
HBM alleine wird schon deutlich den Stromverbrauch verringern und falls wirklich 20nm verwendet werden kommen ja noch ungefähr die, zumindest laut 3dc, 20% weniger Stromverbrauch im Vergleich zu 28nm dazu.
Dies an sich wird schon deutliche Verbesserungen bringen.

Ich meine gelesen zu haben, dass HBM bei AMD vielleicht so ca. 50W sparen kann:

Videocardz zeigen eine "High Bandwidth Memory" Präsentation seitens Speicherchiphersteller Hynix, mittels welcher jener Werbung für diesen zukünfigen Grafikkarten-Speicher machen will. [...] Ein HBM-Interface verbraucht für die gleiche Speicherbandbreite einfach viel weniger Platz auf dem Grafikchip und spart auch noch maßgeblich an Strom – dies können durchaus 50 bis 80 Watt weniger sein, die man dann an anderer Stelle verbraten kann.

Quelle

Ich nehm jetzt mal für eine 290X in etwa 270W Maximum an (hat CB irgendwo mal in der Drehe gemessen). Kommt eine 390X mit der doppelten Anzahl an Shadern, würde ich mit doppelter Leistungsaufnahme rechnen, sprich 540W. Rechnen wir jetzt minus 20%, wegen der Strukturverkleinerung und meinetwegen nochmal 10% wegen sonstiger Optimierungen, kommen wir auf 378W. Jetzt noch die 50 bis 80W für HBM runter und wir sind bei über 300W.

Ich weiß nicht, ob man das mit der Anzahl der Shader wirklich so rechnen darf (hab ich auch nur gelesen). Es scheint mir aber mit der WaKü irgendwo wahrscheinlich zu sein, dass die Leistungsaufnahme für die Topmodelle eher bemerkbar steigen, als sinken dürfte.
 
Nein, eine 290X hat 2816 Shader Einheiten und nicht 2048 wie die 280X. Bei 3dc haben die etwas verwechselt oder einfach die Formulierung nicht richtig hingekriegt.

Die 390X wird also doppelt so viele Shader haben wie eine 280X, aber nur etwa 45% mehr wie eine 290X.
 
Kann mir/uns einer erklären, was HBM bedeutet?? - Danke

Und hm, kommen mal langsam Infos? Wollte mir nächsten Monat eigentlich eine neue Grafikkarte (280x) kaufen, aber so?

Grrrr
 
Ah ok - Danke. Hab ich auch nicht aufgepasst. :)

Wenn man die Leistungsaufnahme mit +45% Shadern berechnet, und dann die geschätzte absolute Einsparung durch HBM abzieht, dann kommt man unter aktuellen Werten raus. Da würde es mich dann aber doch wundern, warum die WaKü?
Rein von den Zahlen her wäre der Leistungszuwachs unter voller Skalierung der Shaderanzal und 15% Taktgewinn demnach bei +67% und das ohne Vorteile durch HBM ... gemessen an den Schritten der letzten Jahre wäre das zu enorm und daher unrealistich finde ich.
 
akira883 schrieb:
warum sollte eine 380x nicht mit einer gtx980 gleichziehen können?
die Vergangenheit zeigt doch, dass sich beide Hersteller Leistungsmäßig nicht viel geben.
Siehe z. Hd7970 gegen gtx 680 https://www.computerbase.de/2012-06/test-amd-radeon-hd-7970-ghz-edition/3/

Nvidias Mittelklasse-Chip gegen AMD Highend-Chip gegen sich leistungsmässig nicht viel.
Das muss natürlich für die Zukunft nichts heißen, aber die letzte Runde ging klar an Nvidia.
 
Zurück
Oben