News SK Hynix: GDDR6 für neue High-End-Grafikkarte Anfang 2018

Der HBM2 Speicher soll ja wie der alte HBM1 512GB\Sek. schnell sein. Nur das nun größere Stapel verbaut werden können.
Die 4GB der Fury arbeiten mit 500 MHz bei 512GB\Sek.
Die GPU Ist mit ihren 8.6 TFlops nie annähernd an das Bandbreitenlimit des Speichers gekommen.
Da ist noch viel Luft nach oben. Da Vega aber ein ganz neuer Chip ist bin ich gespannt ob sie nun auch den Speichertakt anheben
werden.
Aber für die Mittelklassen Grafikkarten wird wohl GDDR6 ab Ende nächsten Jahr zum Standard.
 
Wattwanderer schrieb:
Beeindruckend, dass wir trotz der Fortschritte immer noch weit weg sind von Fotorealismus.

Das liegt möglicherweise daran, daß dann, sobald auch Mittelklasse Grafikkarten diesen Detailgrad flüssig darstellen könnten, keine schnelleren Grafikkarten mehr benötigt würden. Die würden dann vermutlich einfach nur immer kleiner werden.
 
es ist letzenendes eine "gewinnfrage" ob hbm2 oder GDDR6. die performance alleine wird denke ich bei so hohen Regionen wenn üb erhaupt vereinzelt die frage aufwerfen ob oder nicht HBM2 zum einsatz kommt.

Die kompakte bauform könnte eher das dicke plus von HBM2 werden ... und je nach effizienz eben die kühlung "einfachere Kühlung da direkt neben dem GPU-DIE
 
Chismon schrieb:
Bei nVidia wohl schon, wenn man der Tabelle (zum Artikelende) von WccfTech glaubt, aber bei AMD könnte Vega 20 (GF 7nm?) für die Mittelklasse in 2018 ("AMD 600 Series") dann auch schon ("Billig"-)HBM2 bedingen.
Interessante Tabelle. Besonders weil NVIDIA bei den kommenden Tesla Modellen auch auf HBM2 setzt.
Aber HBM 2 bei AMD Vega in der Mittelklasse hätte schon etwas :)
 
Die Tabelle ist sicherlich schwachsinn. V20 wird wie P20 einfach ein Vega10 Refresh sein, sonst nix. Und Polaris bleibt sicherlich auch 2018 und darüber hinaus in den niedrigen Performancebereichen aktuell.
 
Unnu schrieb:
Sorry, da kann ich nicht ganz folgen. Volta kommt von nVidia. Und warum sollten sie ein 16GB Modell "nachschieben", wenn sie damit die Einstiegsspeerspitze bilden?
Was genau wolltest Du sagen?

ja war Käse. Ich meinte natürlich dass im Herbst ne 16GB Vega kommt wenn sies zum Release nicht schaffen >8 GB HBM2 mit 2 Stacks zu realisieren.
Ergänzung ()

@AMINDIA
auf deinen Post geh ich besser erst gar nicht ein.

Das hat ja v_ossi schon übernommen
v_ossi schrieb:
Was genau willst du uns jetzt eigentlich sagen?

Glaube niemand hier bezweifelt, dass HBM theoretisch die bessere Speichertechnologie ist, nur muss man doch die Grafikkarte in Gänze beurteilen.

Was nützt mir HBM auf einer AMD Karte, wenn ich eine gleich schnelle GDDR5(X) Karte von NVidia bekommen kann, die noch dazu weniger Strom verbraucht?..

Dem ist auch nichts hinzuzufügen.
Ergänzung ()

Mega-Bryte schrieb:
Wenn gddr6 768GB/s schaffen soll und HBM2 nur 512GB/s (bei bleibenden Speicheranbindungen der Hersteller), dann ist HBM2 doch schon wieder veraltet, oder was übersehe ich da?

nein, du kannst auch recht einfach 4 oder mehr Stacks HBM auf deinen Interposer packen und den Chip darauf auslegen (bei 6 Stacks HBM2 dann bis 6x256 GB /s Bandbreite). Bei GDDR5X / 6 gehen vielleicht aktuell noch 512 Bit SI sinnvoll, aber dann wirds auch da wieder komplex und teuer. Will man gerade im Computing Bereich massiv Bandbreite dann nutzt man schon HBM, siehe P100.
 
Zuletzt bearbeitet:
384 oder 512 Bit SI benötigen sehr viel Chipfläche, Transistoren und damit erhöhter Verbrauch. Mit HBM kann man den Chip selber schlanker manchen, dafür hat man Kosten für den Interposer. Mit Tile Based Rendering, wie es NV seit Maxwell einsetzt, und HBM2 dürfte Vega eigentlich recht sparsam und nicht zu groß werden.

Fiji war kein Sparwunder, weil er sehr viele Shader in 28NM hatte. Sie mussten sogar am Frontend einsparen, dass der Chip nicht noch größer wurde. (Fiji ist ein doppelter Tonga, hat aber nur ein einfaches Toga Frontend plus minimal mehr) Ohne HBM wäre der Verbrauch komplett durch die Decke. Mit richtigem Frontend und besserer Auslastung hätte eine 980 TI nicht viel zu melden gegen Fiji.
 
Hätti wari tati.
Österreichisch für hätte hätte Fahrradkette :)
 
@modena

Ja richtig, aber 512Bit gab es auch schon bei 80nm, damals war das mit de Größe und Verbrauch sicher richtig ganz andere Liga als heute bei 16nm. Aber die Aussagen dazu kommen meist eben von daher.

Wenn es sein muss geht das heute sicher weiter ein einfacher als noch bei R600 bzw HD2900 XT.
384Bit hat man zwischenzeitlich recht oft gesehen. Was es Fläche ausmacht müsste man die Die anschauen.

EDIT :
Nvidia-GP104-GPU-Die-WCCFtech-watermarked.jpg


Hm, die 256Bit beim GP104 brauchen wohl so um ka, 5%?

EDIT 2:
Hier noch Polaris
Die%20Shot%20-%20AMD%20Polaris%2010%20-%20Annotated.jpg


Bei Hawaii gingen 512Bit offensichtlich auch noch problemlos, in 28nm. In 14/16nm ist das SI auch max halb so groß. Zumindest sicher kein Killer und mit GDDR5X oder GDDR6 sicher noch 1-2 Gen auch im Top End Portfolio ne Option.
 
Zuletzt bearbeitet:
Hier mal, sofern es authentisch ist, ein Vergleich vom HBM Interface und dem GDDR5 Interface:
AMD-Fiji-Tonga-Die-shots-2.jpg
Wurde damals auch schon als Vorteil erwähnt, da man die Interconnects für den Interposer deutlich feiner machen kann, als man es für die Lanes auf dem PCB machen müsste. Apropo PCB, nicht vergessen dass mehr Speicherkanäle dass PCB ebenfalls komplexer, teurer machen.

modena.ch schrieb:
Mit HBM kann man den Chip selber schlanker manchen, dafür hat man Kosten für den Interposer. Mit Tile Based Rendering, wie es NV seit Maxwell einsetzt, und HBM2 dürfte Vega eigentlich recht sparsam und nicht zu groß werden.
Welchen Zusammenhang hat Tiled Based Rendering mit der Chipgröße? Abseits von der größe des Interface, hat auch HBM selbst keinen Einfluss auf die Chipgröße. Aber wenn ich mir hier mein Bild ansehe, dann spare ich hier absolut betrachtet auch keinen Platz. Ich bekomme halt mehr BW/mm2.

Ich bin aber wirklich neugierig wie die Memory Controller bei Vega aussehen. Beim Blockschaltbild von Fiji stehen ja nur 8 Memory Controller. Das sieht für mich nicht so aus, als wäre hier schon HBM maßgeblich in das Chipsdesign miteingeflossen.

Auch finde ich es immer noch beachtlich, wie viele sich immer noch an die Hoffnung klammern, Vega könnte mit 16GB kommen. Da spricht ziemlich wenig dafür. Es dauert jetzt schon Ewigkeiten, bis ausreichend 4-Hi HBM2 Chips produziert werden. Bis man die paar 8-Hi Chips sieht, sind sie entweder sowieso exklusiv für Profikarten reserviert, und/oder man redet bereits von HBM3 oder Navi. Theoretisch hätte man auch 8-Hi Stapel von HBM1 bringen können. Wurde aber wohl verworfen, da man es nicht wirtschaftlich produzieren hätte können. Aber das ist nur meine Meinung.

AMD muss mit Vega erstmal ein HBM2 Produkt liefern dass vollends überzeugt. Dann sieht man ja, was ein HBCC Wert sind.

OT natürlich: Abseits vom vermeindlichen High End Nvidia Produkt, welches man ja eigentlich schon mit 768GB/s teasert, bekommt man mit GDDR6 und Midrange Karten mit 256bit natürlich auch wieder einene netten Boost. Noch schöner wäre nur, wenn man mit GDDR6 auch 16Gb Chips realisieren könnte.
Zudem wird man wohl bei GDDR6 nicht mehr exklusiv auf Micron angewiesen sein, was uns als Kunden nur freuen kann. Im Bezug auf GDDRX5.
 
Zuletzt bearbeitet:
r4yn3 schrieb:
Hier mal, sofern es authentisch ist, ein Vergleich vom HBM Interface und dem GDDR5 Interface:
Anhang anzeigen 620059
Wurde damals auch schon als Vorteil erwähnt, da man die Interconnects für den Interposer deutlich feiner machen kann, als man es für die Lanes auf dem PCB machen müsste. Apropo PCB, nicht vergessen dass mehr Speicherkanäle dass PCB ebenfalls komplexer, teurer machen.

jup klar, wurde breits auch schon erwähnt dass das wohl abzuwägen bleibt ob Interposer + HBM oder komplexes PCB "teurer" ist. Hawaii Karten gabs ja aber auch mit 512 Bit SI schon zu recht kleinen Preisen.
Ergänzung ()

r4yn3 schrieb:
Auch finde ich es immer noch beachtlich, wie viele sich immer noch an die Hoffnung klammern, Vega könnte mit 16GB kommen. Da spricht ziemlich wenig dafür. Es dauert jetzt schon Ewigkeiten, bis ausreichend 4-Hi HBM2 Chips produziert werden. Bis man die paar 8-Hi Chips sieht, sind sie entweder sowieso exklusiv für Profikarten reserviert, und/oder man redet bereits von HBM3 oder Navi. Theoretisch hätte man auch 8-Hi Stapel von HBM1 bringen können. Wurde aber wohl verworfen, da man es nicht wirtschaftlich produzieren hätte können. Aber das ist nur meine Meinung.

AMD muss mit Vega erstmal ein HBM2 Produkt liefern dass vollends überzeugt. Dann sieht man ja, was ein HBCC Wert sind.

Ich denke auch das HBM 2 aktuell AMDs größte Sorge ist. Selbst Nvidia begnügt sich ja mit langsamerem HBM 2 mit mab 4GB Stacks bei P100 weil es schlicht nicht anderes gibt.

Hynix listet zwar neuerdings HBM 2, aber selbst der hat max 204 GB/s. 4 Gbyte / Stack wurde erst auf dieses Quartal angekündigt (und dürfte der der Vega Prototypen sein).

Ob man da mal eben die Kapazität verdoppeln sowie die Bandbreite auf die angesetzten 256GB/s steigern kann bleibt abzuwarten. Und selbst dann wäre wohl Ausbeute und Volumen der Fertigung die Preise extrem in die Höhe treiben, ein 8 GByte Stack HBM2 mit 256 GB/s wird Hynix auch nicht für Lau verkaufen.

Nicht umsonst fährt man GDDR5X und GDDR6 parallel, da dabei vermutlich nur ein Bruchteil von den Kosten entstehen.

Die Frage ist noch was Samsung bei HBM zaubern kann. Sobald auch der P100 mit den 32 GB bei 4 Stacks angeboten wird kann man überhaupt von der Möglichkeit einer 16GB Vega sprechen. Nvidia würde heute sicher schon gern ein 32GB Modell des P100 anbieten. Und bei der Karte spielt der Speicher preislich wirklich kaum ne Rolle, ganz anders als bei Vega im Consumer Markt.
 
Zuletzt bearbeitet:
@Krautmaster: OK, danke. Hm, nachdem man ja nun soviel hört bzgl. des HBM2 frage ich mich, ob AMD hier mal wieder einen Technology over all pullt. Obwohl, andererseits: Wahrscheinlich könnten sie nicht mal zu GDDR (X ist ist ja nVidia-Exklusiv oder?) wenn sie wollten, denn das würde ja sämtliche Designs über den Haufen werfen.
Na mal sehen, so eine schnuckelige, gehobene Mid-Range mit 8GB HBM würde ich mir schon gefallen lassen. Für High-End halte ich 8GB für zuwenig.
 
ja das Chip Design dürfte vor >2 Jahren gefallen sein und das Tapeout bei Vega war vielleicht vor einem Jahr. Bei Fiji war es mindestens genauso extrem. Das sag man vor allem gut an der Architektur auf Stand Tonga (~9 Monate vorher dran). Also kein HDMI 2.0, Das GCN Level usw zb... Das Design dieses 4096 SP Monsters war sicher schon ewig fertig, allerdings wartete man damals generell auf HBM.

Bei Vega etwas anders, hier reden wir ja von offensichtlich ganz neuen Shadern und auch massiven Änderungen generell, deswegen hängt auch viel am Treiber. Da gibt es neben HBM also noch andere kritische Faktoren.

AMD macht den Release Termin dann fix wenn es absehbar ist. Letztes Jahr gabs viele Meldungen zu HBM 2, ganz unabh von AMD. In erster Linie Hynix und da wurden die erwarteten 4 Gbyte 256GB/s Stacks Q4 2016 dann auf unbestimmte Zeit geschoben, 204 Gb/s Stacks mit 4 GB dann ab Q1 2017 verfügbar. Die muss es auch geben sonst gäbs keine 8 Gbyte Prototypen von Vega und auch P100 setzt ja auf 4 Stacks a 4 Gbyte. (wenn gleich etwas langsamer als 204 GB/s).

Großzügig wie AMD ist hat man dann H1 2017 für Vega angegeben. Man wird also notfalls Juni Paper launchen und dann erste Karten noch 1-2 Monate hinhalten wie bei Fiji auch.

Noch is etwas Zeit hin, noch sehen wir auch keinen Q2 Katalog von Hynix. Zumindest finde ich keinen. Schwer zu sagen ob also 256GB/s HBM 2 mit 4 Gbyte bereits zu bekommen ist, oder gar 8Gbyte 8-HI Stacks. Wobei ich letzteres kaum glaube.

Deswegen denke ich dass AMD mit einer 8 Gbyte Karte (notfalls mit 409 GB/s statt 512 GB/s wie geplant) ins Rennen geht und ein 16 GB Top End Modell nachreicht sobald es HBM 2 hergibt.
Das passt auch zu dem was man bisher gesehen hat. Und das ist bekanntlich recht wenig.

Edit: Vega wird dennoch ein spannender Launch. Ich bin gespannt ob die neuen Shader deutlich höher Takten. Mit 500 Mhz mehr als Fury X wäre man schon ~50% schneller, dann noch Tiled Rendering was bei Maxwell min 30% an Effizienzgewinn brachte und AMD redet selbst auch noch von 2x Perf / Clock bzw IPC.
Das öffnet viel Raum für Spekulation. Bei Vega is von 40 -150% Mehrleistung zu Fury X alles drin. Wenn die Rohleistung stimmt könnte ich sogar bei 8 GB ein Auge zudrücken.

Ich mein der Killer Chip mit knapp 500mm² bei AMDs gewohnt hoher Density und neustem HBM 2 muss einfach alles wegrocken was Nvidia zu bieten hat.
 
Zuletzt bearbeitet:
http://www.pcgameshardware.de/Vega-Codename-265481/News/AMD-Raja-Koduri-Twitter-Teaser-1226261/

Also langsam nerven mich diese Mini-Ankündigungen etc. von AMD.

Vega höre ich seit gefühlt 10 Jahren und es kommt nichts, außer so Mini-Unnützes-Zeug.

Ich habe einen F-Sync Monitor und nächstes Jahr kommen F-Sync Fernseher - Da würde ich dann wieder auf AMD umsteigen.

Und nun kommt so ein meiner Meinung nach peinliches Video, wo man zeigt wie gut Vega doch ist ohne weitere Infos und Spezifikationen.
AMD sollte das langsam sein lassen.

Termin nennen, liefern, fertig. Siehe 1080 ti - Das fand ich richtig gut.

Oder gibt es irgendwo schon eine genaue Aussage von AMD, in welcher Leistungs/Preisregion sich Vega bewegen wird?
Gibt ja nur Vermutungen und sonst nichts.
 
Krautmaster schrieb:
... das Design dieses 4096 SP Monsters war sicher schon ewig fertig, allerdings wartete man damals generell auf HBM. Bei Vega etwas anders, hier reden wir ja von offensichtlich ganz neuen Shadern und auch massiven Änderungen generell, deswegen hängt auch viel am Treiber. Da gibt es neben HBM also noch andere kritische Faktoren.
In erster Linie Hynix und da wurden die erwarteten 4 Gbyte 256GB/s Stacks Q4 2016 dann auf unbestimmte Zeit geschoben, 204 Gb/s Stacks mit 4 GB dann ab Q1 2017 verfügbar. Die muss es auch geben sonst gäbs keine 8 Gbyte Prototypen von Vega und auch P100 setzt ja auf 4 Stacks a 4 Gbyte. (wenn gleich etwas langsamer als 204 GB/s).
Man wird also notfalls Juni Paper launchen ... noch is etwas Zeit hin, noch sehen wir auch keinen Q2 Katalog von Hynix. Zumindest finde ich keinen. Schwer zu sagen ob also 256GB/s HBM 2 mit 4 Gbyte bereits zu bekommen ist, oder gar 8Gbyte 8-HI Stacks. Wobei ich letzteres kaum glaube. Deswegen denke ich dass AMD mit einer 8 Gbyte Karte (notfalls mit 409 GB/s statt 512 GB/s wie geplant) ins Rennen geht und ein 16 GB Top End Modell nachreicht sobald es HBM 2 hergibt. Edit: Vega wird dennoch ein spannender Launch. Ich bin gespannt ob die neuen Shader deutlich höher Takten. Mit 500 Mhz mehr als Fury X wäre man schon ~50% schneller, dann noch Tiled Rendering was bei Maxwell min 30% an Effizienzgewinn brachte und AMD redet selbst auch noch von 2x Perf / Clock bzw IPC. Bei Vega is von 40 -150% Mehrleistung zu Fury X alles drin. Wenn die Rohleistung stimmt könnte ich sogar bei 8 GB ein Auge zudrücken. Ich mein der Killer Chip mit knapp 500mm² bei AMDs gewohnt hoher Density und neustem HBM 2 muss einfach alles wegrocken was Nvidia zu bieten hat.

Na, Du schürst hier eine Erwartungshaltung, die AMD vermutlich unmöglich erfüllen kann ("alles wegrocken was nVidia hat"), zum Leid AMDs (durch zu großen Hype) und Deiner eigenen (unerreichbaren) Wunschvorstellungen, 150% mehr als eine Fury X (laut Grafikkarten-Rangliste von CB wären das ca. 80% mehr als eine GTX 1080Ti) halte ich nun für ziemlich hanebüchen ;).

Also ich denke nicht, dass der HBM2 dieses Mal zur größten Baustelle bei AMD wird, auch wenn ich mit Dir übereinstimme, dass das bei den Fiji-GPUs mit dem Ur-HBM-Speicher noch so war, da man auf die Speicherverfügbarkeit lange warten musste und es selbst nach dem Start ewig gedauert hat bis die Grafikkarten in ausreichenden Mengen bei Händlern erhältlich waren.

Die größte Baustelle sehe ich für AMD bzgl. RX Vega beim Treiber, wegen GCN und vor allem wegen HBCC und ja, ich glaube, dass es am Anfang (falls der Vega11-Chip dann später in diesem Jahr noch nachgeschoben werden sollte) ein holpriger Start werden wird wie bei (Ry-)Zen, vergleichbar mit den R7 CPUs (und bei Vega11 - wenn existent - dann hoffentlich vergleichbar mit den R5 CPUs).

Wir reden hier ja von einer massiv überholten/teilerneuerten Architektur (natürlich nicht ganz so extrem wie bei Zen) wohingegen bei nVidia nur optimiert und geschrumpft wird, aber seit Maxwell keine nennenswerten Architekturerneuerungen eingeflossen sind (was denn hoffentlich bei Volta passieren wird, wenn man jetzt schon angekündigt die Preise dann wieder deutlich erhöhen zu wollen für die GPUs, unter 450 Euro wird es eine (Billigmodell-)GTX 2070/1170 dann vermutlich für lange Zeit nicht geben).

Was den Speicher angeht, so kann ich mir gut vorstellen, dass es da schon seit einiger Zeit ein nicht öffentliches Abkommen (abseits des offiziellen Katalogs von SK Hynix) - ähnlich wie bei nVidia der wahrscheinliche Exklusivdeal mit Micron bzgl. GDDR5X - zwischen den beiden HBM-Schöpfern gibt, denn es geht ja nicht nur um Vega, sondern (für das Unternehmen u.U. relevanter) auch um die MI 25 Instinct GPU im Profimarkt.

Nur wurden die MI 25 Instinct auf Basis der Vega-Architektur wohl von vornherein platztechnisch auf 4 Stapel ausgelegt, weswegen dort auch 16 GB HBM2 kommen werden, bei RX Vega sieht das aber anders aus und vor Verfügbarkeit von 8 GB Stapeln wird eine RX Vega mit 16 GB eher Wunschdenken bleiben.

Die einzige Möglichkeit wäre, eine MI 25 Instinct als Modell im Gaming-Gewand nachzureichen (etwa als relativ teure "RX Nano") - die dann aber von der Leistung her nicht mit dem RX Vega Vollausbau (evt. "RX Fury") mithalten könnte, weil eben Platz für die 2 zusätzlichen Stacks HBM2 leider auf Kosten der Rohleistung gehen dürfte - womit man sich aber die Marge zerstören würde (nVidia bietet die P100 GPU ja auch nicht im Gaming-Gewand an aus guten Gründen).

Des Weiteren sehe ich das ähnlich wie r4yn3, das 8-Hi-Stacks anfänglich (vor 2018) deutlich teurer werden dürften und AMDs Marge extrem belasten dürften, sich zu Beginn somit nur für Profi-GPUs rechnen sollten.

Ich weiss auch nicht wieso es die 16 GB jetzt auch brauchen sollte, wenn man in den meisten Szenarien noch nicht einmal mit Maximaleinstellung in Spielen die Hälfte, also 8 GB ausreizt? Wenn HBCC aber als Puffer wirklich funktionieren würde der den Speicher dann bis zu 16 GB quasi aufbläst bei minimalen fps, sehe ich selbst für die kommenden 4 Jahre keine Notwendigkeit mehr als 8GB HBM2+HBCC haben zu müssen um nicht speichertechnisch zu verhungern.

Die XB Scorpio kommt mit 12 GB Ende des Jahres erst heraus und Sony mit einer PS5 wohl allerfrühestens zu Weihnachten kommendes Jahr, vermutlich aber erst im Jahr darauf (je nachdem wie viel Druck die XB Scorpio generieren kann und wie die PS4 Pro Verkaufszahlen sich entwickeln werden) und die 12 GB (GDDR5) sollten ja per HBCC schon bei avg. Frames gegeben sein mit nur 8 GB HBM2.

Wie erwähnt, die RX Vega GPUs steigen oder fallen mit HBCC und dessen Umsetzung.

Wenn der Controller - wie erhofft - funktioniert wird kaum einer mehr zu Pascal GPUs greifen (auch nicht einer Titan Xp oder GTX 1080Ti), da beide speichertechnisch bzw. was die Langlebigkeit betrifft deutlich unterlegen wären und selbst bei geringfügiger Mehrleistung am Anfang (sicherlich nicht mittelfristig bei der mittlerweile angegrauten Pascal Architektur) aufgrund der Preise nVidias eher zu den neuen RX Vega von AMD greifen, weltfremde Fanboys natürlich nicht eingerechnet.

Die Messlatte für Volta läge dann urplötzlich schon wieder ziemlich hoch wegen neuer Architektur und eben HBM2+HBCC und der Wettbewerb wäre ein wenig intakter als vorher, auch wenn nVidia immer noch lange Zeit bei den Marktanteilen dominieren dürfte.

Ein scheitern von HBCC möchte ich mir lieber nicht ausmalen, denn dann würde es für AMD wohl ähnlich wie bei den Fiji-GPUs laufen - nicht ganz so schlimm, weil die Architektur wohl effizienter/ausgereifter sein dürfte und einen größeren Schritt zum Vorgänger erlaben dürfte - und man noch mehr Marktanteile an nVidia verlieren würde, was man sich momentan nicht wirklich leisten kann.

Wer weiss, wo AMD dann den Rotstift ansetzen würde, denn mittlerweile sind wir bei Halbgenerationen (Polaris und Vega) im Vergleich zu nVidia (Pascal ist eine Voll-Generation, die alle Leistungsklassen abdeckt) angekommen und der nächste Schritt wäre dann wohl leider sich generell von der Entwicklung von GPUs für Ober- und Enthusiastenklasse zu verabschieden (weil man ja jetzt schon kaum noch finanziell mithalten kann).

Das sollte einigen hier vielleicht auch zu denken geben, wenn man zwischen auf dem Papier nahezu gleichstarken GPUs unterschiedlicher Chipentwickler beim Kauf abwägt.

Wohin die Reise gehen wird, wenn der Markt per Quasi-Monopol nVidias dann beherrscht würde, kann man ja gut an dem Quasi-Monopol Intels vor dem Comeback/letzten Aufbäumen AMDs mit (Ry-)Zen sehen, nur kann ich mir vorstellen, dass Huang und Co. über Jahre hinweg noch deutlich schamloser die Preise dann in die Höhe schrauben werden.
 
Zuletzt bearbeitet:
Zurück
Oben