Quelle SKHynix und deren Whitepaper zu HBM. Bin gerade mobil unterwegs und Google es diesmal nicht vor. Aber alleine, dass AMD nun das gesamte Package verkauft reduziert das Risiko von dem du redest. Auch die PCBs sind deutlich kleiner wie die Zoll Leaks gezeigt haben. Auch braucht es einige Layer weniger auf dem PCB da der Boardpartner keine VRAM Elemente anbinden muss oder überhaupt ein Speichersubsystem. Kosten die gespart werden und AMD einen höheren Preis mit mehr Marge erlauben bei selben Endpreis.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Radeon R9 390X WCE mit 8 GB HBM und Wasserkühler
- Ersteller MichaG
- Erstellt am
- Zur News: Radeon R9 390X WCE mit 8 GB HBM und Wasserkühler
Substanzlos
Lt. Commander
- Registriert
- Jan. 2006
- Beiträge
- 1.218
kayD schrieb:Und ich hoffe stark dass diverse Boardpartner eine Lösung ohne WaKü bringen werden.
Das WCE steht für "water cooled edition", die hat auch 2x8 Pin Stromversorgung, die normale 390X hat 1x8PIN und 1x6PIN.
cypeak
Commodore
- Registriert
- Dez. 2013
- Beiträge
- 4.282
kisser schrieb:[...]
Ich kanns nur nochmal sagen: 980/970 sind statistisch nicht relevant für die 28% bzw 71% Marktanteil.
ich behaupte sehr wohl, bei den aib-marktanteilen sind sie das durchaus. über etwas anderes als den aib-markt reden wir nämlich nicht; die statistik ist auch eine statistik des aib-marktes.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.408
@Daedal
Ich stimm dir auf lange Sicht sicher zu. Hab aber nicht umsonst geschrieben, dass weder du noch ich hier wirklich untermauern können. GDDR5 wird ja von zig Herstellern 10000x mehr hergestellt + verkauft. Die PCB Layouts kommen quasi von der Stange. Von der Kühlung und allem ganz zu schweigen. HBM bringt schon größere Änderungen mit sich und dürfte gerade bei kleiner Stückzahl in der Produktion nicht billiger sein als GDDR5, auch wenn es theoretisch vielleicht Einsparungen bringt. Wäre es so "einfach" gäb es das sicher schon ewig. Und Hynix verscherbelt ihre techleading Produkte ja auch nicht ...
Dass in der Hynix Präse natürlich quasi nur Vorteile rausgearbeitet werden sollte klar sein.
Aber OT, wie gesagt, kann man weder in die eine Richtung belegen.
Ich stimm dir auf lange Sicht sicher zu. Hab aber nicht umsonst geschrieben, dass weder du noch ich hier wirklich untermauern können. GDDR5 wird ja von zig Herstellern 10000x mehr hergestellt + verkauft. Die PCB Layouts kommen quasi von der Stange. Von der Kühlung und allem ganz zu schweigen. HBM bringt schon größere Änderungen mit sich und dürfte gerade bei kleiner Stückzahl in der Produktion nicht billiger sein als GDDR5, auch wenn es theoretisch vielleicht Einsparungen bringt. Wäre es so "einfach" gäb es das sicher schon ewig. Und Hynix verscherbelt ihre techleading Produkte ja auch nicht ...
Dass in der Hynix Präse natürlich quasi nur Vorteile rausgearbeitet werden sollte klar sein.
Aber OT, wie gesagt, kann man weder in die eine Richtung belegen.
Zuletzt bearbeitet:
B
BlauX
Gast
bei 2x 8pin kann man wenigstens alles aus der Karte kitzeln, wie sich das gehört, wenn man die Karte unter Wasser setzt, hoffe da gibt es noch andere Editionen. Bin gespannt.. aber selbst im CF leider nur ~120% in 4K .... nächste Gen warten, da hab ich meine 150% bzw. sogar mehr 
bubu89
Commander
- Registriert
- Apr. 2010
- Beiträge
- 2.427
Wäre ja auch mal schön, wenn es nebst der kommenden Hardware dann auch die passenden (schönen) Software Titel gibt. Ich befürchte, das sich die Entwickler dann etwas zurücklehnen: mehr Ram ist ja da... = ineffiziente Programmierung. Vielleicht liege ich ja falsch. Wer nur einen Monitor (FHD) hat, dürfte mit einer 970 noch längere Zeit gut bedient sein.
UltraWurst
Banned
- Registriert
- Aug. 2014
- Beiträge
- 2.269
Geil. Freue mich schon auf die Karte. Dann kann ich endlich mal flüssig Dwarf Fortress spielen.
psYcho-edgE
Admiral
- Registriert
- Apr. 2013
- Beiträge
- 7.605
UltraWurst schrieb:Geil. Freue mich schon auf die Karte. Dann kann ich endlich mal flüssig Dwarf Fortress spielen.
Ich beschränk mich auf Tetris, da muss ich nicht übertakten
Wie wäre es wenn wir einfach mal die vorhandenen Quellen als Massstab nehmen und nicht deine Phantasien die auch noch auf Unwissen beruhen.Krautmaster schrieb:HBM bringt schon größere Änderungen mit sich und dürfte gerade bei kleiner Stückzahl in der Produktion nicht billiger sein als GDDR5, auch wenn es theoretisch vielleicht Einsparungen bringt. Wäre es so "einfach" gäb es das sicher schon ewig. Und Hynix verscherbelt ihre techleading Produkte ja auch nicht ...
Dass in der Hynix Präse natürlich quasi nur Vorteile rausgearbeitet werden sollte klar sein.
Was ein Wafer in welchem Fertigungsprozess kostet ist bekannt und wenn du 44 Wafer mehr brauchst für die selbe Menge Speicher, dann kann dir keine Massenfertigung der Welt das kompensieren.
Dann brauchst du auch günstigere PCBs mit weniger Lagen die ebenfalls in Masse gefertigt werden wie die teureren, welche GDDR verbauen.
Und ein Whitepaper ist keine Präsentation, sondern ein präzises, technisches Dokument.
Zudem was denkst du was günstiger ist: Wenn AMD für sämtliche Boardpartner den gesamten Ram einkauft und seine GroßhändlerMarge nutzt oder wenn dutzende für ihr Design separat für sich einkaufen was sie an kleineren Mengen brauchen.
Und noch gar nicht mit eingerechnet welche Rabatte als Co-Entwickler vielleicht sogar dauerhaft genutzt werden können bei HBM. Vielleicht gibt es sogar Lizenzeinnahmen von Nvidia über FRAND, was deren zögern HBM zu nutzen zumindest mal logisch erscheinen ließe.
Zuletzt bearbeitet:
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Nö, ich mach da gar nix, das geht alles auf die Rechnung von Zotac oder EVGA mit 5-10 Jahren Garantie, kostet mich also gar nix. Wenn die ungekühlten Vram Chips auf der Rückseite der Titan abfackeln ist mir das auch egal, dann gibts eben eine Titan Y Pascal von Zotac. Das ist es eben was mich stört, ich hatte schon Wasserkühlungen und ich hab auch schon komplett Waküs im Forum gesehen die massiv rum gezickt haben. Ohne ordentliche Garantiezeiten hat AMD keine Chance bei mir.denn wenn bei der Titan X zum Beispiel der Referenzkühler kaputt ist, darfst du meist auch eine komplett neue Luftkühlung kaufen, weil man schwer ein passendes Ersatzteil (Lüfter) zum Kaufen bekommt.
Gibts überhaupt einen Partner der 5 Jahre anbietet bei AMD?
Zuletzt bearbeitet:
- Registriert
- Jan. 2011
- Beiträge
- 2.635
Zur Effizienz: HBM soll ja ein Stromsparwunder sein. Was würde denn die Karte mit GDDR5 ziehen? 350W? Oder drehen wir den Spieß um: was würden 980 oder Titan X mit HBM ziehen? So viel wie auf den ersten Blick scheint sich in Sachen Effizienz des Chips ja nicht getan zu haben.
Die Angaben zur Effizienz zwischen GDDR5 und HBM beziehen sich immer auf die gleiche Speicherbandbreite!
GTX 980 hat 224GB/s ne R9 290X 320GB/s und die R9 390 wird auf 512GB/s kommen. Da wird also durch HBM nicht viel eingespart, da die Speicherbandbreite deutlich steigen wird.
giessl
Lieutenant
- Registriert
- März 2010
- Beiträge
- 838
Der Landvogt schrieb:Zur Effizienz: HBM soll ja ein Stromsparwunder sein.
Ich zitiere:
"The power of 4GB DRAM is calculated as 60W, based on Hynix’s GDDR5 memory". Also 60W für 4GB, wie viel davon lassen sich pro 4GB einsparen? Zwanzig Watt? Dreißig? Kann man das für GDDR5 oder HBM für 8GB einfach verdoppeln?
Prozentual wären 30W Einsparung beim Vram knapp über 10% der Leistungsaufnahme der ganzen Karte. Wow.
Du berücksichtigst hier auch nicht, dass es sich um den High-End Chip handelt. Klar werden die die eingesparte Leistung eher in mehr Shader o.Ä. umwandeln um einfach das Maximum an Rechenleistung raus zu holen. Bei den Mittelklassekarten könnte das anders sein, die werden dann vielleicht eher auf geringere Leistungsaufnahme optimiert.
Der Landvogt schrieb:Was würde denn die Karte mit GDDR5 ziehen? 350W?
Wen interessiert das? Bei uns in Franken gibt's ein Sprichwort: "Wenn mei Dand' a Nudel hätt, dad i Onkel zu ihr sagn!"
Mit anderen Worten, die GTX 980 wäre mit DDR3 nicht zu gebrauchen, die neue S-Klasse würde sich ohne Servolenkung nicht schön fahren und die Klitschkos wären keine so guten Boxer wenn sie nur 130cm groß wären.
Der Landvogt schrieb:So viel wie auf den ersten Blick scheint sich in Sachen Effizienz des Chips ja nicht getan zu haben.
Hier für dich noch mal der Link zu den Leaks von Chiphell.
Daraus geht klar hervor, dass die R9 390X 4GB etwa 40-65% mehr Leistung haben soll als die R9 290X. Ferner steht da, dass die R9 390X sogar 3W weniger verbrauchen soll als die R9 290X.
Wenn du diese massive - hypothetische - Effizienzsteigerung unter "da hätte sich nicht viel getan" abstempeln möchtest, dann bitte, mach' dein Ding. Zum Vergleich: Die 980 hat laut CB-Test bei ungefähr gleichem Verbrauch des Gesamtsystems so ~30% mehr Leistung gegenüber der 780. Die 780 wiederum hat bei gleichem Verbrauch ungefähr 20-25% mehr Leistung als eine 680. Kann man den Trend erkennen?
Entweder ist die Karte viel schwächer als in den Leaks dargestellt oder du argumentierst an der Realität vorbei. Beides gleichzeitig geht nicht.
Zuletzt bearbeitet:
UltraWurst
Banned
- Registriert
- Aug. 2014
- Beiträge
- 2.269
Logisch. Da braucht's ja auch kein Anti Aliasing.psYcho-edgE schrieb:Ich beschränk mich auf Tetris, da muss ich nicht übertakten![]()
Btw @diejenigen, die jetzt wieder Shader-Vergleiche anstellen: der GM200 (angeblich ca. 600mm²) soll größer sein als Fiji (ca. 550mm²), obwohl er fast 1000 "shader units" weniger hat. Ich weiß jetzt nicht wie es mit DP-Einheiten aussieht, aber allein daran sieht man, dass Kernzahlvergleiche zw. verschiedenen GPU-Architekturen ziemlich sinnlos sind.
psYcho-edgE
Admiral
- Registriert
- Apr. 2013
- Beiträge
- 7.605
UltraWurst schrieb:Logisch. Da braucht's ja auch kein Anti Aliasing.
Ach ich liebe dieses Forum manchmal
Ergänzung ()
zeedy schrieb:Btw @diejenigen, die jetzt wieder Shader-Vergleiche anstellen: der GM200 (angeblich ca. 600mm²) soll größer sein als Fiji (ca. 550mm²), obwohl er fast 1000 "shader units" weniger hat. Ich weiß jetzt nicht wie es mit DP-Einheiten aussieht, aber allein daran sieht man, dass Kernzahlvergleiche zw. verschiedenen GPU-Architekturen ziemlich sinnlos sind.
nVidias GPUs waren schon häufig um einiges größer als die AMD Pendants. Was nicht zuletzt daran lag, dass nVidia sich ja meist den Großteil der Waferfläche bei TSMC hat reservieren lassen. Und wenn AMD gleich viele gleich starke Chips herstellen muss - dann müssen die halt kleiner sein. Deshalb sind die ja auch schwerer zu kühlen
Pure Existenz
Banned
- Registriert
- Juli 2013
- Beiträge
- 2.899
Kasmopaya schrieb:Nö, ich mach da gar nix, das geht alles auf die Rechnung von Zotac oder EVGA mit 5-10 Jahren Garantie, kostet mich also gar nix. Wenn die ungekühlten Vram Chips auf der Rückseite der Titan abfackeln ist mir das auch egal, dann gibts eben eine Titan Y Pascal von Zotac. Das ist es eben was mich stört, ich hatte schon Wasserkühlungen und ich hab auch schon komplett Waküs im Forum gesehen die massiv rum gezickt haben. Ohne ordentliche Garantiezeiten hat AMD keine Chance bei mir.
Gibts überhaupt einen Partner der 5 Jahre anbietet bei AMD?
Und nach einem halben Jahr gilt die umgekehrte Beweispflicht.
Wenn sich eine Firma quer stellt, dann viel Spaß.
Daher gebe ich persönlich nichts mehr über 5 Jahre, 10 Jahre....
Ich kaufe nur noch alles auf 2 Jahre. Wenn es länger hält ist es gut.
CyberdyneSystem
Fleet Admiral
- Registriert
- Okt. 2009
- Beiträge
- 10.865
Hört sich alles sehr gut an. Ich freue mich auf die ersten Reviews und bin gespannt wo sie preislich landen wird. Ich schätze mal bei 600-700€?
heise.de sagt $700+ eine R9 390 soll dabei $700 kosten, damit wird ein Preis von unter $849 nicht in Frage kommen IMO.
Normalerweise haben wir $=€ allerdings ist der US-Dollar stark und damit könnten wir sogar mehr in Euro zahlen als die Amis in $...
http://www.heise.de/newsticker/meld...-soll-ueber-700-US-Dollar-kosten-2575802.html
Normalerweise haben wir $=€ allerdings ist der US-Dollar stark und damit könnten wir sogar mehr in Euro zahlen als die Amis in $...
http://www.heise.de/newsticker/meld...-soll-ueber-700-US-Dollar-kosten-2575802.html