News Aquabolt: Samsung fertigt schnellsten HBM2 mit 2,4 Gbit/s in Serie

Warum rufen alle nach Vega ? Klar würde es AMD gut tun wenn sich der HBM Markt endlich mal einpendeln würde, ich habe so das gefühl das da erst mal Intel vor der Tür steht und eine "gewisse" Menge an HBM kauft für seine neuen CPU´s incl. der Vega Grafik !
Wenns dumm kommt hat AMD sogar noch weniger HBM als vorher.
 
Dark_Knight schrieb:
...das der Vega Refresh, sofern er noch kommt, in 7nm sein wird. Sondern wie beim Zen+ einfach effizienter und mit x% mehr Leistung. Würde auch vollkommen reichen. Da ja Navi in 7nm relativ zügig danach kommt.
Aber man wird sehen ob AMD noch was raushaut. :/

Ja gut, von der Leistung her reicht es ja eigentlich jetzt schon (für WQHD), was RX Vega 56 und 64 angeht (für flüssiges 60+fps, geschweige denn kompromissloses, UHD/4K reicht nicht einmal annähernd eine GTX 1080Ti in fordernden Spielen wie GTA V oder Total War - Warhammer (2) bspw.).

Die lächerlichen Diskussionen um 1-5% Mehrleistung in diesem oder jenem Spieltitel kann ich sowieso nicht ernst nehmen (selbst wenn man wie ich keinen Free- oder G-Sync-Monitor hat), da das beim spielen kaum einer unterscheiden wird können, es sei denn man fällt aus einer bestimmten/vergleichbaren Leistungsklasse heraus.

Den "wer hat den längsten Benchmarkbalken" Vergleich finde ich im CPU Bereich genauso irrelevant/wenig kaufentscheidend, wenn da um 5% mehr oder weniger gestritten wird (innerhalb der 720p-Fraktion), wonach am Ende kein Hahn kräht.

Die Probleme bei RX Vega aktuell sind aber leider die Verfügbarkeit und damit zusammenhängend natürlich der deutlich zu hoch angesetzte Preis im Vergleich zur Konkurrenz. Etwas bessere Effizienz wäre beim 12nm Refresh natürlich auch wünschenswert.

Bleibt zu hoffen, dass sich das bei beiden Herstellern mit mehr Konstanz bei der Herstellungsqualität (mehr Ausbeute, weniger Unterschiede bei den Packages) und dadurch bedingt besserer Verfügbarkeit von HBM2 seitens Samsung und SK Hynix ändern wird. Schade, dass Micron in dem Markt nicht (wohl auch wegen HMC) auch noch mitmischt.

Mit Ampere werden allerdings die Karten neu gemischt und wenn die wirklich erwartungsgemäss 40(+)% mehr Rohleistung abliefern, wird man da mit Sicherheit auch in der Oberklasse (von der Titan/80Ti Enthusiasten-/Luxusklasse ganz zu schweigen, wenn man denn sowas braucht) hinter nVidia zurück bleiben, denn soviel ist realistisch nicht mit einem Refresh machbar.

Das muss es aber auch nicht, denn Navi ist der direkte Konkurrent von Ampere, auch wenn einige nVidianer dann bestimmt das Gegenteil behaupten werden und wieder über AMD/RTG lästern werden, weil letztere nicht mehr als Preissenker für nVidia GPUs fungieren und sie so bei den neuen/noch höheren Ampere-Preisen mangels Konkurrenz finanziell so bluten müssen (als ob jemand diese Leute dazu zwingt spätestens alle 2 Jahre nVidia noch mehr Geld in den Rachen zu schieben :rolleyes:).
 
Zuletzt bearbeitet:
Die Bandbreite wird Navi nicht sonderlich helfen wenn es wieder nur eine GPGPU DIE geben wird.
Gegen die abgespeckte DX11 Pixelschleuder von NV hilft nur eine abgespeckte DX11 Pixelschleuder, 9 Jahre DX11.:rolleyes:
Oder da Navi Modular ist mehr DIEs und weniger Takt, nur wird das Ding richtig teuer, verramschen tut AMD seid Fiji nicht mehr so gerne im Retailmarkt.
So oder so wird bei Navi der Speicher wohl nicht mehr das Problem sein wie derzeit bei Vega.
Das bei einer recht neuen Technologie viel durch Optimierung geht verwundert mich jetzt nicht Liegt aber auch daran das einige RX Vegas 1200Mhz halten (AiOs mit Samsung HBM), für GDDR6 spricht damit wieder nur der Preis.


Wenn GA104(1180) wirklich 40% mehr liefert als GP104 dann tippe ich auf eine UVP irgendwo bei 900€ für die FE, die customs werden natürlich billiger.. ;=)
Ich rechne aber mit kleineren oder ca. gleich großen GPUs die um die ~15% mehr bringen als ihre Vorgänger für ca. die gleiche Kohle wie die ersten Pascal UVPs.
 
Zuletzt bearbeitet von einem Moderator:
Rock Lee schrieb:
Genau deshalb sollten die Grafikchips oder Speicherchips ja registrieren können, für was sie missbraucht werden und das im Sinne der Produkthaltbarkeit blockieren.

Nein, sollten sie nicht. Ich meine zwar nicht, doch ein Blockieren einer normalenweiser lauffähigen Funktion des Produktes ohne Kommunikation vom Hersteller ist inakzeptabel.

Vielleicht ist es dir entgangen, aber wir leben in einer sozialen Marktwirtschaft. Angebot/Nachfrage bestimmen, wie die Preise eines Produktes liegen.
Wenn du möchtest, dass es kein Mining mehr gibt, dann lass dir von zwei zu einander unabhängigen Instituten Studien erstellen, welche (und ich bin selbst davon überzeugt, dass es ein Leichtes sein dürfte) belegen, dass Mining für die Umwelt stark schädigend ist.
Dann kannst du eine Petition starten, und hoffen das eine regierende Nichtregierung sich dieser annimmt, bevor eine nichtregierende Regierung gestellt ist...
 
Stimmt schon Chismon. Aber ändert ja nichts daran, das es am Ende auf der einen wie anderen Seite doch von Vorteil ist mehr Leistung zu bekommen. Egal ob effizienter zu sein oder eben für die selbe Power mehr raus zu bekommen.

Dabei interessieren mich Benchmarkbalken eher weniger. Sondern die Performance dann in den spielen die ich spiele. ;)
 
Das würde bei Kaby Lake-Gs nur einem Stapel trotzdem 8 GB Speicher auf 307 GB/s ermöglichen.
Das ist echt eine ganz neue Dimension für die integrierte Grafik.
 
Sehr schön. Wann gibt es die Vega Nano mit 16 GB Aquabolt Speicher zu kaufen ?
 
nachdem vega refresh offensichtlich aus der pipeline geflogen ist und wir keine informationen zu vega 11 bekommen haben, lassen die offiziellen informationen nur einen schluss zu:

vor 2019 keine desktop gpus von amd mehr.

ob amd 12nm polaris oder doch noch den 12nm vega refresh bringt steht in den sternen - derzeitige informationen legen nahe, dass das NICHT der fall sein wird.

ggf. wechselt amd bei vega 10 auch klammheimlich den prozess auf 12nm um nvidia zu verwirren oder die ankündigung kommt später - oder es kommt garnix.
 
Retro-3dfx-User schrieb:
Vega64 mit zwar 945MHz auf dem HBM² hat zumindest bei mir, mit jeglichen Progs ausgelesen, GPUz + Aida64 ca. 484 GB/s und sobald man 1000MHz fährt sind es ausgelesen exakt 500GB/s usw....

Danke für den Hinweis!
Bin froh, dann geht es jetzt also mit den Zugriffszeiten doch endlich mal nach unten.
Zumindest theor.
1Ghz bedeutet eine doppelte so schnelle theor. Zugriffszeit wie bei aktuell üblichem DDR4-RAM mit nur 400-600Mhz.

Finde die Richtung gut.
Wäre mal interessant zu sehen, wie der HBM2 sich durch die CPU nutzen ließe, wenn gerade damit nicht gezockt wird.
Sollte da ja auch massive Vorteile bringen könmnen.
 
Rock Lee schrieb:
Genau deshalb sollten die Grafikchips oder Speicherchips ja registrieren können, für was sie missbraucht werden und das im Sinne der Produkthaltbarkeit blockieren.

Gefährlich. Am Ende dieser Entwicklung bestimmt der GraKa-Hersteller die Spiele, die du spielen darfst.

Mal davon abgesehen dass ich Spielen UND Minen will.
 
ThePowerOfDream schrieb:
Warum rufen alle nach Vega?

Weil der HBM in der Vega bandbreitenlimitiert ist und von AMD deshalb schon auf Anschlag gedreht wurde.

@duskstalker: ja, es ist auffällig ruhig um die Nachfolgegeneration. Abwarten, ob da noch was kommt in diesem Jahr.
 
Zuletzt bearbeitet:
Rambo5018 schrieb:
Ich schätze mit leichten Anpassungen sollte das absolut möglich sein. Fragt sich nur wie teuer die teuer der schnellste HBM-Speicher wird und ob die Karten damit nicht wieder zu teuer in der Produktion werden.

AMD soll mal reinhauen und was schnelleres als die 1080Ti liefern, dann wird die verkauft und ich hab wieder FreeSync :)

Ich glaube du hast den Sinn von Freesync nicht verstanden. Es geht nicht darum die schnellste Grafikkarte zu haben sondern ab einer relativ flüssigen Bildwiederholrate die Frequenz vom Monitor und von der Grafikkarte anzugleichen. So gibt es keine Bildversetzer genannt Tearing oder sonstige Artefakte.
 
psYcho-edgE schrieb:
bestimmt der GraKa-Hersteller die Spiele, die du spielen darfst.

Mal davon abgesehen dass ich Spielen UND Minen will.

Nee wieso? Darum geht es nicht.
Es geht darum, dass Grafikkarten zu Miningschlampen gemacht werden, wofür sie nicht ausgelegt
sind, die Hersteller müssen für den BS auch noch haften, wobei viele die Haftung bei Defekt sicher ablehnen würden.
Besonders toll find ich das wenn so eine ausgelutschte Karte dann für den Gamer nach 2 Jahren bei Ebay landet. Man kann eigentlich wegen dem Schei** keine gebrauchten GPU mehr kaufen.


Ich würde es als Hersteller so machen, dass Mining nur noch mit speziell designten Mining-Karten möglich wäre, deren Bauteile das auch länger überstehen müssten und die natürlich einiges teurer sind.

Würde auch den Zockern zugute kommen deren Karten bezahlbar bleiben.
 
Zuletzt bearbeitet:
duskstalker schrieb:
... vega refresh offensichtlich aus der pipeline geflogen ist und wir keine informationen zu vega 11 bekommen haben, lassen die offiziellen informationen nur einen schluss zu: vor 2019 keine desktop gpus von amd mehr. ob amd 12nm polaris oder doch noch den 12nm vega refresh bringt steht in den sternen - derzeitige informationen legen nahe, dass das NICHT der fall sein wird. ggf. wechselt amd bei vega 10 auch klammheimlich den prozess auf 12nm um nvidia zu verwirren oder die ankündigung kommt später - oder es kommt garnix.

So verkehrt/schlimm wäre das m.E. auch nicht, die Herrschaften bei AMD/RTG sollen erst einmal anfangen Ihre eigene Architektur besser zu handhaben/auszureizen/frei zu schalten, von all den versprochenen Features (hatte Koduri nicht einmal von über 200 kleinen und großen gesprochen?) ist bisher noch nicht alles angekommen/umgesetzt worden, wenn auch ein Refresh mit 12nm wünschenswert wäre.

Es sieht leider so aus, als ob man bzgl. RX Vega ziemlich viel gewagt und sich etwas übernommen hat und am Ende einfach nicht das halten konnte, weil die GPU am Ende anders als beabsichtigt/erhofft ausgefallen ist (nicht alles rund lief oder einfach zu implemtieren war, wie ursprünglich angedacht), zumindest ist das zu vermuten und wohl der Grund für immer noch deaktivierte Architekturneuheiten.

Leider ist die Kommunikationspolitik von AMD/RTG seit dem RX Vega Marktstart diplomatisch ausgedrückt extrem dürftig, aber das kennt man ja leider :rolleyes: ... nun ja, die Hoffnung (auf einen RX Vega Refresh im Sommer 2018) stirbt bekanntlich zuletzt ;), denn ohne einen Refresh wird man selbst in der wichtigen Mittelklasse gegen nVidias Ampere GPUs kein Land mehr sehen bis 2019 irgendwann Navi aufschlägt und ob man sich das dort im Gaming-Bereich leisten kann/will (anpeilt immer mehr zum Nischenhersteller zu werden)?
 
Zuletzt bearbeitet:
Unlimited1980 schrieb:
1Ghz bedeutet eine doppelte so schnelle theor. Zugriffszeit wie bei aktuell üblichem DDR4-RAM mit nur 400-600Mhz.

Nein. Die Zugriffszeit wird bestimmt durch die Speicherbänke. Deren Takt sowie die Latenzzeiten haben sich in den letzten Jahren kaum geändert. Die Steigerung der Übertragungsraten wurden durch immer größere Parallelisierung erreicht.
 
Es wird wohl immer abartiger, siehe PCGH Artikel über die massiv in den USA angestiegenden GPU Preise (selbst GTX 1080Ti Preise gehen dort durch die Decke) und auch in Deutschland steigen diese durch die Bank an und da behaupte noch einmal jemand, dass da nicht die massiv gestiegenen Ethereum Preise das leer kaufen des Marktes durch Miner überall bedingen würden und die beiden Hersteller (AMD und nVidia) extrem konservativ die Produktionszahlen von den GPUs kalkulieren (oder aber die Fertigungskapazitäten aktuell ausgeschöpft sind aufgrund der exorbitanten Nachfrage durch Miner und der Entwicklung der Kryptowährungen).

Ein Platzen der Krypto-Mining-Blase wird mehr als überfällig und weil diese unsäglichen-zu-nichts-sinnvollem-zu-gebrauchenden-Krypto-Mining-Firmen die GPU Märkte abgrasen und diese massiven Preisverwerfungen herbei führen, sollte langsam einmal politisch/gesetzlich gegengesteuert werden (bspw. eine Krypto-Mining-Steuer, die der Umweltbelastung Rechnung trägt für alle Miner eingeführt werden) :rolleyes:.

Bei den Preisen können sich nVidia und AMD/RTG - die natürlich beide auch eine Schuld an dieser Entwicklung tragen da sie den Minern keine Riegel vorschieben, denn das Problem gibt es ja nicht erst seit heute sondern ist lange bekannt - Ihre GPUs sonst wohin stecken, dann bleibe ich bei meiner GTX 670OC, denn das ist mir ein flüssigeres spielen aktueller/neuer, meist maximal mittelprächtige bis popelige Spiele mit Sicherheit nicht mehr wert (dann werde ich mich also mit alten Spielen in kommenden Jahren begnügen, denn so eine künstliche Verteuerung (die schon fast zwingend eine Absprache der beteiligen Unternehmen (Chipentwickler, Boardpartner, Mining-Firmen) untereinander nahelegt) bin ich nicht bereit zu unterstützen :freak:.
Ergänzung ()

Neuen Spekulatius gibt es auf WccfTech übrigens bzgl. Mobilversionen von RX Vega 56 und 64, als ob nicht schon für Desktops die Verfügbarkeit der RX Vega GPUs grausig genug wäre, soll man diese dann in relativ sinnlosen Gaming-Laptops verbraten (wer außer Die-Hard AMD/RTG Fanboys kauft denn so einen heißen und energiehungrigen Schmarrn in Gaming Notebooks?).

Außerdem wird dort immer noch über ein mögliches Erscheinen einer Nano-Version mit RX Vega Chip, von der es bisher ja nur (einen?) Prototypen der damaligen RX Vega Marktstart-Präsentation gibt, spekuliert.
 
Zuletzt bearbeitet:
smalM schrieb:
Nein. Die Zugriffszeit wird bestimmt durch die Speicherbänke. Deren Takt sowie die Latenzzeiten haben sich in den letzten Jahren kaum geändert. Die Steigerung der Übertragungsraten wurden durch immer größere Parallelisierung erreicht.

Mhja, das ist schon verrückt, ich finde einfach überhaupt keine Angaben zur Latenz von HBM.
Und auch nur sehr schwammige Aussgaen zur Frequenz...

Das hier ist das Einzige, was ich finden konnte:

hbm-latenz0xoqh.jpg
http://abload.de/img/hbm-latenz0xoqh.jpg
 
Zuletzt bearbeitet:
@Unlimited1980
Die Latenzen in den Speicherbänken werden wohl wie immer je um die 10ns–12ns für CAS Latency (CL) und Row Address to Column Address Delay (tRCD) betragen.
Auf die Unterlagen vom JEDEC kann man ja nicht zugreifen und die von den Herstellern sind oberflächliche Marketingfolien...
 
Chismon schrieb:
So verkehrt/schlimm wäre das m.E. auch nicht, die Herrschaften bei AMD/RTG sollen erst einmal anfangen Ihre eigene Architektur besser zu handhaben/auszureizen/frei zu schalten, [...] wenn auch ein Refresh mit 12nm wünschenswert wäre.

keiner weiß mit sicherheit, ob die features auf einem software oder hardware level aktiviert werden müssen - geht man vom softwarelevel aus, ist das eigentlich kein grund den 12lp refresh zu verschieben / canceln.

ich glaube amd kann mit architekturverbesserungen nur "so" viel machen - der andere teil des performancedeltas zu nvidia in bestimmten spielen kommt definitiv von der entwicklerseite. da kann sich amd im kreis drehen - wenn die nicht wollen oder bestimmte teile der engine auf nvidia ausgerichtet sind (bspw. unreal engine, fortnite / sanuas sacrifice) geht einfach nix.
in fortnite performen radeon karten so schlecht, dass man nichtmals gegen maxwell ankommt - keine architekturverbesserung der welt kann den abstand aufholen, deseidenn man würde unglaublich überzeugend nvidia-kopien herstellen.

https://youtu.be/JR-qnqcBTeU?t=9m55s

durch das mining sind radeon karten vom endkundenmarkt praktisch verschwunden - angebotstechnisch haben wir hier schon ein 100% nvidia monopol. hier gibts momentan nur einen trend, und der ist ziemlich hart pro nvidia - d.h. amd verliert hier immer weiter marktanteile.

würden radeon karten etwa 40% der verbauten grafikkarten stellen, hätten die entwickler einen gewissen druck auch für radeon karten zu optimieren - dass man selbst dx11 unglaublich performant auf radeon karten zum laufen bringen kann, sieht man an battlefront 2 - hier performt sogar die "frankenstein-fury" unglaublich gut. scheinbar kann man als "neutraler" entwickler durchaus gute performance aus den radeon karten ziehen - deshalb frage ich mich, wieviel amd also wirklich tun kann, damit andere spiele auch entsprechend performen - und ich bin der meinung, dass das nicht so viel ist, wenn die entwickler nicht mitziehen.

die beste performance bekommt amd aus marktanteilen, und nicht aus der treiberentwicklung und nur zu gewissen teilen aus der architektur. man hätte bspw. vega auch mehr aufs gaming ausrichten können, aber selbst dann hätte man nicht zuverlässig die 1080ti schlagen können. in manchen spielen liegt nvidia 1 bis eineinhalb gpu generationen vorne, das lässt sich unmöglich von amd durch kleinere fixes beheben.

würde jeder so optimieren wie dice und gäbe es kein mining, hätten wir mit der selben amd hard und software eine wesentlich größere verbreitung und imo marktanteile irgendwo um die 30-40%. könnte man polaris zu einem guten preis erwerben (bspw 240€ für die 580 nitro), wäre die 1060 praktisch tot. dann hätte man durch die verzögerung von vega nur anteile im high end markt verloren und nicht in allen performance-klassen - aber eine verfügbare vega wäre bei enthusiasten dann trotzdem angekommen - würde man manche totalausfälle an spielen herausstreichen, performt vega garnicht so schlecht - jedenfalls akzeptabel und eine gute basis für einen refresh, bis man mit navi vielleicht was besseres/innovatives nachschiebt.

aber amd steuert gerade auf <15% marktanteile zu - es gibt für kein studio auch nur ansatzweise einen anreiz mehr als die generelle kompatibilität für radeon karten in ihr spiel einzubauen - und wenn amd dann vielleicht irgendwann mitte 2019 mit navi im gaming-markt aufschlägt, kräht kein hahn mehr nach amd.

ohne software support wird navi als erstes MCM design in 100% nvidia optimierten dx11 single gpu spielen sang und klanglos untergehen.

ryzen als cpu unterscheidet sich so gesehen viel weniger von intel als navi von nvidia gpus, und trotzdem hat ryzen durch entwicklersupport in manchen spielen 20-30% performance dazubekommen, weil die architektur ursprünglich gegen eine software-mauer gerannt ist. oder man erinnere sich mal an das core-parking problem in windows 10.

wie soll navi bitte wie phönix aus der asche nvidia wegputzen, wenn alles nur auf monolithische nvidia gpus optimiert ist, weil amd zum navi release bei <10% marktanteilen durch althardware sitzt? in einer umgebung, in der navi die vorteile von MCM voll ausspielen kann (compute bspw) sehe ich extrem viel potential in navi - aber im nvidia monopol wird navi im gaming aus meiner sicht noch viel schlechter abschneiden als vega10 im gesamtpaket (effizienz, preis).

Chismon schrieb:
wer außer Die-Hard AMD/RTG Fanboys kauft denn so einen heißen und energiehungrigen Schmarrn in Gaming Notebooks?

entsprechend niedrig getaktet und getuned ist vega sehr effizient, effizienter als polaris. und was anderes hat man ohnehin nicht. ist jedenfalls die bessere alternative als den markt auch noch aufzugeben.
 
duskstalker schrieb:
... features auf einem software oder hardware level aktiviert werden müssen - geht man vom softwarelevel aus, ist das eigentlich kein grund den 12lp refresh zu verschieben / canceln. ich glaube amd kann mit architekturverbesserungen nur "so" viel machen - der andere teil des performancedeltas zu nvidia in bestimmten spielen kommt definitiv von der entwicklerseite. da kann sich amd im kreis drehen - wenn die nicht wollen oder bestimmte teile der engine auf nvidia ausgerichtet sind (bspw. unreal engine, fortnite / sanuas sacrifice) geht einfach nix.

Ich denke das ist sowohl hardware- als auch softwaretechnisch bedingt bei der (RX) Vega Architektur und habe den Verdacht, dass viele Features zwar auf dem Papier/in der GPU da sind, sich aber nicht so nutzen/aktivieren lassen oder durch Wechselwirkungen oder andere Falschenhälse teilweise nicht zuverlässig ansteuern/optimieren lassen und dadurch im Treiber immer noch deaktiviert sind.

HBCC ist dafür das Vorzeigebeispiel (meist bringt es ein paar Frames mehr, aber es gibt auch Eintellungen/Szenen, wo es dann zu leicht geringeren Frames führt) und war auch ursprunglich nicht fpr ein paar Extra-fps angedacht, sondern um bei Speicherknappheit den geringeren Speicherausbau durch Auslagerung auf den RAM kompensieren zu können.

Bisher sind leider immer noch keine unahängigen und zuverlässigen Tests dazu im Umlauf, ob eine 4GB HBM2 Vega GPU/APU bei 6 oder 8GB Speicheranforderungen eines Spiels oder einer Grafik-Anwendung das per HBCC kompensieren kann, wenn denn HBCC aktiviert ist und das Feature das leisten kann was Koduri mit Deus Ex Mankind Divided ja mehrfach in Demos nahegelegt hat.

Mindestens genauso erstaunlich waren ja die Resultate in Igors/Toms Hardware Test (Sapphire RX Vega64 Nitro+), wo dann auf einmal die Leistung aufgrund der Auflösung stark fluktuierte, was aber bei der neuen Gigabyte Gaming OC RX Vega 64 per Bios Update korrigiert worden zu sein scheint:

Damit fallen die Eigenarten bei den Benchmarkergebnissen, wie wir sie noch beim Review der Sapphire RX Vega64 Nitro+ feststellen konnten, endlich komplett weg und die Karten machen endlich exakt das, was man von ihnen auch erwartet.

Daher werde ich auch nicht das Gefühl los, dass das angedachte Vega Architektur-Design (auf dem Papier mit diesen und jenen Features) nicht so angesteuert/umgesetzt werden kann wie ursprünglich von Koduri & Co. angekündigt, somit - ähnlich wie bei den Fiji Karten - ein Großteil der Leistung brach liegt.

Das ist nicht nur so, weil Vega vorwiegend ein Compute-Chip ist, das hat man früher viel besser hinbekommen und da waren AMD/ATI Chips auch schon mehr auf der Compute-Seite als die von nVidia und auch zu Recht bemängeln das viele, weil die Verhältnismäßigkeit (den im Chip "ungenutzten Ballast" im Vergleich zu ge"streamlined"ten Gamingdesign-optimierten nVidia Konkurrenz) bei den Chipgrößen (GP104 vs. RX Vega) das schon stark hervor hebt und nicht mehr stimmig ist.

Wenn man nicht noch mehr abgehängt werden oder den PC Gaming-Bereich ganz verlieren will, sollte bei AMD/RTG also gesondert Gaming-Karten bauen (mit weniger Compute Leistung, mehr auf Effizienz gebürstet) ähnlich nVidia, die dadurch weniger zum Mining taugen und für das Mining eine eigene Reihe an Chips auflegen, da es ein neuer Bereich ist, ähnlich wie A.I. Das wäre der Ausweg aus der aktuellen Zwickmühle (dann in Zukunft wohl erst mit Navi zu implementieren).

duskstalker schrieb:
in fortnite performen radeon karten so schlecht ...

Eines von vielen, mir graut schon vor dem neuen Anno 1800(?) (mit neuen Tesselations-Spitzenwerten?), welches dann vielleicht wieder in den CB Benchmark-Parcours aufgenommen werden dürfte, nur weil es von einem deutschen Studio entwickelt wurde (mir wäre es lieber, es würde CryTeks Hunt : Showdown stattdessen aufgenommen werden), wobei Ubisoft Spiele durch die Bank eigentlich schlecht auf AMD GPUs laufen, eine rühmliche Ausnahme könnte vielleicht 'mal Far Cry 5 werden, da dort anscheinend einige Vega-Features implementiert sein sollen.

duskstalker schrieb:
... durch das mining sind radeon karten vom endkundenmarkt praktisch verschwunden - angebotstechnisch haben wir hier schon ein 100% nvidia monopol. hier gibts momentan nur einen trend, und der ist ziemlich hart pro nvidia

Leider auch komplett auf AMDs Mist gewachsen, denn man verdient/kompensiert damit sehr gut, aber tauscht Gamer gegen Miner aus und das kann irgendwann in die Hose gehen. Sicherlich schwingt da schon eine Abschiedsstimmung vom Gaming-Markt mit, weil man dort immer irrelevanter wird, aber da hätte man auch gegensteuern können (wenn man denn gewollt hätte oder vielleicht haperts da auch an den fähigen Köpfen in dem Bereich Produktplatzierung/-kontrolle und Marketing).

Noch sind wir nicht bei 100% nVidia Monopol (auch wegen der Konsolen-SoCs bei Microsoft und Sony (evt. auch noch Atari dieses Jahr)), aber weit eintfernt davon sind wir sicherlich nicht mehr und wenn jetzt auch noch die Mittelklasse bei AMD/RTG eingeht, sieht es sehr bitter/düster aus, da gebe ich Dir Recht.

Man könnte den RX Vega Refresh für die neue RX 600 Serie nehmen, um diese auf/leicht über RX Vega Niveau zu hiefen und dann einer GTX 1160/2060 in diesem Jahr etwas entgegen setzen zu können.

Das würde ich mit den gegebenen Ressourcen bei AMD/RTG aktuell wohl an deren Stelle so machen, wofür die Fertigungskosten bei den RX Vega Chips (und dem HBM2) natürlich sinken müssten, damit es kein massives Verlustgeschäft wird.

Dann bliebe man zumindest mit einem aktuell leistungsfähigen Produkt in der Mittelklasse wettbewerbsfähig (mit einer neuen GPU-Halbgeneration, nur eben auf Basis eines RX Vega10 Refreshs, ähnlich wie vor 2 Jahren bei Polaris), aber hätte keine aktuelle Oberklasse mehr im Gaming-Bereich (was mit nVidia Ampere Marktstart sowieso nicht mehr von der Hand zu weisen sein dürfte, denn mit den GA 104 Karten wird sich keine aktuelle RX Vega mehr messen können bei 40+% Leistungszuwachs in der nVidia 70er Klasse).

duskstalker schrieb:
.... würden radeon karten etwa 40% der verbauten grafikkarten stellen, hätten die entwickler einen gewissen druck auch für radeon karten zu optimieren - dass man selbst dx11 unglaublich performant auf radeon karten zum laufen bringen kann, sieht man an battlefront 2 - hier performt sogar die "frankenstein-fury" unglaublich gut. scheinbar kann man als "neutraler" entwickler durchaus gute performance aus den radeon karten ziehen - deshalb frage ich mich, wieviel amd also wirklich tun kann ... beste performance bekommt amd aus marktanteilen, und nicht aus der treiberentwicklung und nur zu gewissen teilen aus der architektur. man hätte bspw. vega auch mehr aufs gaming ausrichten können, aber selbst dann hätte man nicht zuverlässig die 1080ti schlagen können. in manchen spielen liegt nvidia 1 bis eineinhalb gpu generationen vorne, das lässt sich unmöglich von amd durch kleinere fixes beheben.

Ich denke schon 25% Marktanteil würde dafür ausreichen, auch wenn 40% AMD Marktanteil natürlich besser wäre und einen ausgeglicheneren, wenig technisch (künstlich) stagnierenden Markt auszeichnen würde, aber die Konsumenten haben sich leider nunmal für DX11/OpenGL und proprietäre Technik (Gameworks, zunehmend jetzt leider auch G-Sync :rolleyes: ) in der Masse entschieden und gegen DX12/Vulkan und innovativere Technik/Features HBCC, RPM, Shader Intrinsics, hardwareseitiges AsyncCompute, usw., teilweise dürfte bei den meisten da auch einer Einblick fehlen (man informiert sich nicht tiefgehend genug oder lässt sich etwas aufquatschen).

Mehr Martkanteile bekommt AMD/RTG aber nur mit konkurrenzfähigen Produkten und da haperts im Gaming-GPU Bereich leider ein wenig, was sich verstärkt wohl noch zum Ampere Martkstart zeigen wird und der Krypto-Mining-Booms verschärft die Lage nur noch mehr ... bleibt zu hoffen, dass viele abspringen wegen der Mondpreise und nicht pünktlich zum Martkstart der neuen nVidia GPU-Generation zugreifen werden, wobei ich damit rechne, dass nach den bescheidenen nVidia Founders Edition Ampere Karten wie aktuell bei RX Vegas die Miner massiv bei den Custom-Modellen hineindrängen werden und die ohnehin deutlich höher angesetzten Ampere Preise weiter ausarten werden.

Am besten man kauft mittel- bis langfristig gar keine GPU mehr (und einige Leute - nicht nur hier - bekommen endlich 'mal Ihren Konsumrausch mehr unter Kontrolle anstatt weiter die Preise mit Ihrem Konsumverhalten zu treiben), sonst werden angemessene Preisgefilde für GPUs in Zukunft immer mehr der Vergangenheit angehören und ja, mehr Leute wohl in Sachen Gaming vom PC auf Konsolen umsteigen.

duskstalker schrieb:
... würde jeder so optimieren wie Dice und gäbe es kein mining, hätten wir mit der selben amd hard und software eine wesentlich größere verbreitung und imo marktanteile irgendwo um die 30-40%. könnte man polaris zu einem guten preis erwerben (bspw 240€ für die 580 nitro), wäre die 1060 praktisch tot. dann hätte man durch die verzögerung von vega nur anteile im high end markt verloren und nicht in allen performance-klassen - aber eine verfügbare vega wäre bei enthusiasten dann trotzdem angekommen - würde man manche totalausfälle an spielen herausstreichen, performt vega garnicht so schlecht ... aber amd steuert gerade auf <15% marktanteile zu - es gibt für kein studio auch nur ansatzweise einen anreiz mehr als die generelle kompatibilität für radeon karten in ihr spiel einzubauen - und wenn amd dann vielleicht irgendwann mitte 2019 mit navi im gaming-markt aufschlägt, kräht kein hahn mehr nach amd.

Naja gut, bei Dice war es auch nicht immer so, wenn Du Dir Mirror's Edge Catalyst anschaust, ist das jetzt auch nicht so der Hit für Radeon GPUs, was die Leistungsoptimierung angeht; es ist wohl eher auf die kontinuierliche Optimierung der Frostbite Engine zurück zu führen, wobei Titan Fall 2 ja auch relativ anständig auf Radeon GPUs läuft, insgesamt die EA Studios wohl einen ordentlichen Job machen und bei Bethesda ist das durch die Partnerschaft mit AMD ja fraglos auch so.

Dann würde ich unbedingt noch Microsoft dazu zählen, was für mich der Maßstab für neutral programmierte Spiele schlechthin ist.

Wieso(?), nicht nur als Windows/DX12 Entwickler, sondern weil die weder von nVidia noch AMD in Ihren Spielen finanzielle Anreize (oder propriertären Gameworks Kram) bekommen/brauchen und sich i.a. Microsoft Spiele als die am besten/realistischsten/am wenigsten beinflussten/verfälschten meist heraus stellen und der beste Indikator für die wahre GPU-Leistung sind abseits der Rosinenpickerei, die man bspw. bei Bethesda (pro AMD) und Ubisoft und Blizzard (pro nVidia) Titeln natürlich kritisieren kann. Schade, dass der CB Parcours so leer an Microsoft Titeln ist, aber vielleicht ändert sich das ja noch in nicht all zu ferner Zukunft (mit Sea of Thieves, AoE 4, Fable 4, o.ä.).

Die GTX 1060 wäre wohl leider - aufgrund der im Vergleich zur RX 580 überlegenen Effizienz - genauso wenig "tot" gewesen, wie es leider damals schon die deutlich schächere GTX 960 nicht gegenüber der i.d.R. klar besseren R9 380 war. Es gibt leider genug Leute die nur nach Marke/Marktführerschaft (nVidia) kaufen oder denen Effizienz wichtiger als Leistung(, Preis) und größerer Speicherausbau/Langlebigkeit sind). Gewiss wäre die GTX 1060 aber nicht so massiv erfolgreich (die mit Abstand meistverkaufte nVidia GPU) wie aktuell, keine Frage.

Dass RX Vega gar nicht so schlecht ist und sich - wenn von Entwicklern vernünftig umgesetzt - sehr passabel schlagen kann und sich vor den GP 104 Karten schon gar nicht verstecken muss, hatte ich ja schon angemerkt, aber es hängt eben an dem verkorksten Marktstart, der Verfügbarkeit und so gut sich der CPU Bereich von AMD erfreulicherweise entwickelt hat, so sehr hinkt mittlerweile der GPU Bereich dort hinterher und es braucht eine neue Führung (Lisa Su ist eigentlich mit dem CPU/APU Bereich sehr beschäftigt, es braucht einen kompetenten Nachfolger für Koduri, der aber managmentmäßig - ähnlich wie Su - auch mehr auf dem Kasten hat und besser organisiert ist, damit da Entlastung und Fortschritt im Grafikbereich statt findet).

duskstalker schrieb:
ohne software support wird navi als erstes MCM design in 100% nvidia optimierten dx11 single gpu spielen sang und klanglos untergehen. wie soll navi bitte wie phönix aus der asche nvidia wegputzen, wenn alles nur auf monolithische nvidia gpus optimiert ist, weil amd zum navi release bei <10% marktanteilen durch althardware sitzt? in einer umgebung, in der navi die vorteile von MCM voll ausspielen kann (compute bspw) sehe ich extrem viel potential in navi - aber im nvidia monopol wird navi im gaming aus meiner sicht noch viel schlechter abschneiden als vega10 im gesamtpaket (effizienz, preis) ... entsprechend niedrig getaktet und getuned ist vega sehr effizient, effizienter als polaris. und was anderes hat man ohnehin nicht. ist jedenfalls die bessere alternative als den markt auch noch aufzugeben.

Das Problem ist natürlich auch, dass die Entwickler immer noch am altbackenen DX11 festhalten und den Zopf nicht endlich 'mal kategorisch abschneiden. nVidia hat ja letztes Jahr noch an OpenGL optimiert anstatt sich auf Vulkan zu fokussieren, aber aus Presse/Medien leider so gut wie kaum Kritik dafür bekommen für die rückwärtsgewandte Haltung :rolleyes:.

Bis Microsoft das bei Windows 8.1 durchsetzen könnten (DX11 komplett zu deaktivieren/nicht mehr zu unterstützen), wäre es natürlich zu spät.

Die Hoffnung wäre, dass bis 2019 DX12 und Vulkan sich weiter durchsetzen und die High Level APIs (DX11 und OpenGL) weniger Anwendungen Unterstützung finden würden, aber danach sieht es nicht aus und nVidia hat daran ja auch absolut kein Interesse sich weiter zu entwickeln, solange man damit den Markt beherrscht und die Konkurrenz schlägt/schädigt ... traurig die Entwicklung des ganzen, dass der Bremser dafür noch belohnt wird und die Leute das nicht schecken/sehen (wollen).

nVidia wird erst dann, wenn sie mit Sicherheit einen Vorteil/Vorsprung gegenüber AMD haben auch DX12/Vulkan und MCM setzen und solange die Entwicklung weiter ausbremsen. Wenn Ampere AsyncCompute und DX12 und Vulkan deutlich besser als Maxwell-Pascal beherrschen sollten, dann, und nur dann ist wohl mit einen Richtungswechsel hin zu Low Level APIs zu rechnen und technologischen Fortschritt, aber ob das so passieren wird?

AMD/RTG findet seit Jahren nicht in der mobilen Oberklasse (Gaming-Notebooks) statt, somit gab es da bisher eigentlich keine Alternative zu nVidia und ich glaube nicht, dass sich das großartig ändern wird, nicht wegen des von nVidia beworbenen, unsinnigen MaxQ Designs, sondern, weil deren Pascal GPUs gerade im diskreten Mobilbereich für AMD/RTG aufgrund der hohen Effizienz nicht zu schlagen sind.

Der Mobilbereich ist auch der einzige Bereich für den ich die Pascal Generation von nVidia im Vergleich zu Maxwell als durchaus gelungen ansehe, weil erstmalig annähernd soviel GPU Leistung dort geliefert wird wie im Desktop-Segment.

Bei AMD/RTG wird durch die Heruntertaktung einiges an Leistung auf der Strecke bleiben, so dass man mit Pascal in der gleichen Leistungsklasse nicht wird mithalten können, leider, da spielt die Gaming-Architektur nVidias mehr als anderswo (im Desktopbereich bspw.) die Stärke gegenüber der vergleichsweise immer noch überladenen Konkurrenz gnadenlos aus und sehe ich für AMD/RTG wenig bis kaum Land zu gewinnen mit den Vega Karten, aber dafür ist Raven Ridge dann schon deutlich interessanter als der dGPU Bereich bei AMD ;).
 
Zuletzt bearbeitet:
Zurück
Oben