News GDDR6: Micron startet Massenproduktion mit 14 Gb/s

Schon ok, eigentlich gehört die NDA-Sache nur indirekt bis nicht hierher, nur habe ich das hier nicht in jeder Nachricht/jedem Kommentar geschrieben/breit getreten und mein ursprünglicher Kommentar ist von gestern/schon etwas älter ;).

Zurück zum Thema dann ...

... ein wenig dürfte diese Ankündigung zu Microns GDDR6 wohl von der von China angedrohten Strafe wegen Preisabsprache zwischen Samsung, SK Hynix und Micron untergehen.

Das wird interessant sein zu sehen, wie die 8 Milliarden Strafgeld (wenn es denn so kommen sollte) auf die einzelnen/betroffenen Unternehmen von China aufgeteilt werden.

Die Patentklagen Microns drüften China natürlich auch ein Dorn im Auge sein, selbst wenn Samsung und SK Hynix größere Marktanteile im Speicherbereich haben, und ob man sich beim möglichen Strafgeldanteil direkt an den Marktanteilen orientieren wird?

Ferner bleibt zu hoffen, dass sich andere Staaten/Staatenverbünde (z.B. USA und Europa) dem anschließen werden, um ein Zeichen setzen (dass man mit solch illegalen Geschäftspraktiken nicht durchkommt) und um nebenbei die Bilanzen der Preisabsprecher noch mehr zu verhageln.[/QUOTE]
Ergänzung ()

bensel32 schrieb:
... Zitat stammte auch von gestern. Ne halbe Stunde vor deinem ersten Post hier ;) Hier mal der Originalthread: https://www.computerbase.de/forum/threads/nvidia-nda.1808540/page-5

Anderer Thread (aber danke für den Link :) ) und da nicht vordergründig auf der CB Hauptseite "beim hineinsurfen" per Artikel ersichtlich komplett an mir leider vorbei gegangen, da ich nicht erst danach gesucht habe (es vielleicht hätte tun sollen/können - was ich normaler Weise eigentlich nicht mache - das kann man mir sicherlich ankreiden, wenn man denn will ;)).
 
Zuletzt bearbeitet:
Chismon schrieb:
Um noch einmal die WccfTech-Glaskugel zu bemühen/zitieren:

An interesting development that also happened is TSMC confirming that the company is starting mass production of NVIDIA’s 7nm GPUs which could indicate that the Turing architecture (and therefore the GTX 1180) will be based on the 7nm process.

Wenn das so kommen sollte (für die Mainstream-Gaming-Karten, k.A. ob nVidia da noch semi-professionelle oder speziell ausgelegte Kryptomining-Karten mit Turing Chips in 7nm Fertigung plant), wovon Du ja nicht ausgehst, dann würde ein RX Vega Refresh kaum einen hinter dem Ofen hervor locken können und nur schwerlich Absatz finden (allzuviel Preisspielraum dürfte man dann auch nicht haben und man würde evt. höchstens wieder als nVidia-GPU-Preisdrücker fungieren).

die nvidia karten werden zweifelsohne teuer - mehr siehe unten, aber zunächst:
auch im falle eines 7nm turing wäre eine 7nm vega besser als nichts - so kann man wenigstens den unmut über nvidia abschöpfen - ohne produkt bleibt ja nichts anderes als nvidia oder nichts kaufen - und von nichts hat amd auch nichts. ob dann eine mittelklasse navi in +- einem jahr da großartig was dran ändert? im wesentlichen ist die 7nm midrange navi auch "nur ein kleiner 7nm vega refresh / GCN mit gddr6". da es zu dem zeitpunkt schon lange nvidia karten mit der selben leistung gibt, ist die radeon alternative nur ein sidegrade, das sich kaum jemand antun wird. im prinzip bleiben amd dann nur diejenigen, die die schnauze so von nvidia voll haben, dass sie auf die neuen turing karten gerne verzichten - ich zum beispiel :daumen:

das größte problem von vega ist die skalierung von takt/vcore über dem sweetspot und der stromverbrauch des riesigen dies + materialkosten. eine 7nm vega auf tsmc statt 14nm Low power plus von Glofo könnte hier schon die wesentlichen kritikpunkte aus der fertigung heraus angehen. wir können natürlich nicht abschätzen, ob sich da großartig was ändert, aber es spricht schon bände, wenn amd von exklusiv glofo mit 2/3 vom portfolio auf tsmc wechselt. in 7 nm wird auf lange sicht der die auf jeden fall billiger als das 500mm² monster in 14nm. dazu kann man am platinenlayout sparen - das VRM von vega referenz kostet etwa 30-40$ - etwas weniger als die hälfte vom die - das ist n ordentlicher brocken. so viel haut nvidia nichtmal auf die titan karten drauf. mit 7nm sinkt die leistungsaufnahme, was indirekt auch dazu führt, dass man ein weniger monströses vrm nutzen kann. hier lassen sich mit 35% weniger leistungsaufnahme auch 35% komponenten einsparen.
das sollte auch der kühlung zugute kommen - und auch der HBM2 wird dann weniger aufgeheizt.

dazu kommt noch, dass die 14nm vega noch einige ecken und kanten hat, an denen man zügig mit einem refresh ansetzen könnte. ich bin mir sicher, dass die vega architekten/ingenieure noch vor dem release von vega 14nm eine liste an änderungen hatten, die es nicht mehr in die produktionsversion von vega geschafft haben und jetzt für einen refresh quasi abruffertig herumliegen - die werden seit vega release schon was gearbeitet haben. dazu das problem mit unterschiedlichen zulieferern für vega packages und hbm, das man wahrscheinlich auch eleganter lösen kann.

heute gabs auf videocards folgendes zu sehen:

pascal v turing.jpg


https://videocardz.com/76659/nvidias-next-gen-graphics-card-with-gddr6-smiles-for-camera

das ist ein entwicklerboard mit GDDR6. ich hab mal den core der 1080ti dagegen verglichen, skaliert und perspektivisch korrigiert anhand der pcie kontakte.

pasc turing 2.jpg


ich gehe davon aus, dass das, was wir hier sehen, die gtx 1180 ist. und wir sehen, dass der die fast gleich groß ist. die 400mm², die wccftech mal hier erwähnt hat:

https://wccftech.com/nvidia-geforce-gtx-1180-specs-performance-price-release-date-prelimenary/

sehen damit ziemlich plausibel aus. wenn das ein 7nm chip wäre, müsste das n ordentliches stück kleiner sein, weil pascal 16nm ist und vega ist schon 14 - und trotzdem ist vega in 7nm n gutes stück kleiner als das.

damit ist die 12nm gtx 1180 mit >400mm² weit weg von der 314mm² 16nm gtx 1080. die neue 1080 ist also von der hardware her eher ein 1080ti shrink als ein 1080 shrink. wir haben noch was von gesteigerten taktraten gehört.

und dann schauen wir uns mal das entwicklerboard an. ein massives VRM, und 3x8 pin. sicher, das ist ne entwickler karte - auf so ein board steckt man aber keine 160w gpu - für so ein PCB wirds schon irgendwo einen grund geben. die taktraten. quasi eine factory oc 1080ti. deshalb ist der chip so groß, deshalb ist das pcb so fett - so meine theorie.

-----------------------------

EDIT - EINSCHUB:

techpowerup hat den die "vermessen" und ist zu folgendem schluss gekommen:

I tried to estimate die size from the photo. We do know from the datasheet that the GDDR6 memory chips are 14 mm x 12 mm. Based on that information I rescaled, warped and straightened the image, so that each GDDR6 memory chip is 140 x 120 pixels. With all memory chips around the GPU now being at the correct size, we can use the GPU's silkscreen print to estimate the actual size of the chip package, which I measured at 48.5 x 48.5 mm. Assuming that the inner silk screen with the solder balls represents the surface of the GPU die, we get a length of 26 mm for each side of the die, which brings die size to 676 mm². This makes it a relatively large die considering NVIDIA's existing lineup: GV100 (815 mm², Titan V), GP100 (610 mm², Quadro GP100), GP102 (471 mm², GTX 1080 Ti), GP104 (314 mm², GTX 1080), GP106 (200 mm², GTX 1060). So my initial assessment that this could be the GP102 successor seems accurate, especially since GV100 die size is quite a bit bigger than GP100 die size, by roughly 33%. Our calculated GV102 die size is 40% bigger than GP102, which falls in that range.

https://www.techpowerup.com/245501/...potted-up-to-525-w-power-delivery-gtx-1180-ti

ich sehe ehrlichgesagt nicht, wie nvidia einen fast 700mm² chip ins konsumer segment bringen könnte, vorallem auch noch in 12nm. das ist wahnsinn. das passt auch nicht wirklich zu dem optischen größenvergleich, den ich hier vorgestellt habe - aber vielleicht täuscht das? ich habe selbst extra keine größe angegeben - soll sich jeder selber anhand der bilder überlegen, ist sowieso nicht wirklich exakt - aber 700mm²? jetzt schon eine 1180 ti? ich hab den fehler nicht gefunden, aber irgendwas kommt mir da komisch vor.

trotzdem, meine annahmen bisher ändern sich dadurch nicht.

die 1080 ti ist mit ihren 471mm² exakt 50% größer als die 1080. wenn das was wir hier sehen die 1180ti ist, und die tatsächlich 676mm² groß ist, wäre eine 1180 im selben schema ca 450mm² groß. das ist nur unwesentlich kleiner als die 1080 ti in 16nm und entspricht im wesentlichen dem, was ich oben beschrieben habe.

die schlechte nachricht:

titan v, 815mm²: 3000$
1180, 676mm²: ????

wenn man die hälfte ansetzt, wäre das schon großzügig.

8gb hbm2 kosten ca 150$, 8gb GDDR6 liegt bei ca >80$. die titan v hat 32gb hbm2, das sind 600$ hbm 2 auf der titan v, und die karte hier hat 12gb gddr6, das wären 120$.

der neue chip ist nur ca 83% so groß die wie titan.

das ergibt:

3000 - 600 = 2400 * 0,83 = 1992 + 120 = 2112$

wenn man jetzt für den yield eine exponentielle funktion und keine lineare annimmt, wird man weiter unten rauskommen. dann zieht man noch den titan bonus ab und dann kann man zu der annahme kommen, dass die 1180 ti vielleicht bei 1500$ liegen könnte.

----------------------------

nvidia wird selbst probleme haben an den massiven performance sprung von kepler - maxwell - pascal anknüpfen zu können. deshalb muss nvidia jetzt auch endlich in sachen hardware tiefer in die tasche greifen.
wir können uns jetzt schonmal daran gewöhnen, dass in zukunft "stromverbrauch bei gpus total irrelevant ist, es geht um fps". zumindest werden die grünen von ihrem öko kurs abstand nehmen müssen. nvidia muss jetzt auch über die fläche und takt arbeiten, wie amd.

amd hat aber einen vorteil: 7nm statt 12nm, vega kommt von einer sehr schlechten node für high performance chips, nvidia hatte mit 16nm schon einen high performance optimierten prozess von tsmc. der 7nm vega refresh würde vermutlich heftiger einschlagen, als sich das so manche vorstellen würden - mir eingeschlossen.

ich bin nicht davon ausgegangen, dass amd nochmal ne chance bekommt - aber hier ist sie.

Chismon schrieb:
Des Weiteren wird ja irgendwann von Ende des 3.Quartals 2018 für die Founders Edition Referenzkarten und von November bis Dezember 2018 für die deutlich interessanteren Custom-Modelle mit GT104 Chip ausgegangen.

man hört ständig von einem paperlaunch, das müssen wir abwarten - nvidia wird aber ordentlich mit den FE karten abcashen wollen, die reiten gerade eine hohe welle und haben gerade nochmals n dicken batzen pascals zurückbekommen (vielleicht waren noch ein paar dustins und kevins dabei). aber zum weihnachtsgeschäft 2018 erwarte ich spätestens die turing customs.

Chismon schrieb:
So gerne ich eine Früh-/Vorveröffentlichung von AMD/RTG Navi-Karten (bspw. Anfang 2019) sehen wollen würde, so unwahrscheinlich erscheint mir das leider aktuell.

wird man auch abwarten müssen - eigentlich hätte der 12nm refresh für vega ja schon releast sein müssen - den hat man aber kommentarlos gestrichen. eine alternative wäre, dass man statt 12 direkt auf 7 gehen wollte.
gemessen daran, dass es jetzt schon funktionierende 7nm vega samples gibt und die 7nm instinct vega noch im 2h 2018 kommen soll, UND 7nm anscheinend ganz gut läuft, sind die infos vor der computex 2018 eigentlich veraltet. ich weiß nicht, wie lange die wafer produktion dauert, aber ich würde sagen, dass das relativ kurzfristig ist. zusammen mit turing im weihnachtsgeschäft landen ist zumindest in kleinen stückzahlen nicht unmöglich.

http://www.pcgameshardware.de/AMD-Z...a-20-Navi-TSMC-7-nm-Serienproduktion-1259389/

Chismon schrieb:
Ein 7nm RX Vega-Refresh würde im Falle einer 7nm Turing Oberklassekarte einfach nur weggeputzt werden, da der Chip nicht vordergründig nur auf Gaming ausgelegt/verschlankt ist (dann kommen die üblichen Leute wieder mit Ihrem Effizienzgelaber - scheinbar das wichtigste an GPUs ist das Strom sparen :rolleyes: - und wie viel teurer denn GPUs von AMD die Stromrechnung machen würde, aber gleichzeitig zahlen einige von denen bestimmt gerne den horrenden Aufpreis für G-Sync HDR Module/-Monitore), der teure HBM2 (auch im Vergleich zu vermutlich immer noch deutlich günstigeren GDDR6) die Marge relativ klein halten/verderben dürfte.

ja in 7nm vs 7nm stimme ich dir zu, aber das ist sehr wahrscheinlich ja nicht der fall. das wird 7nm vs 12nm, desseidenn das ist ein veraltetes entwicklerboard und nvidia stellt jetzt noch alles auf 7nm um? wenn, dann kommt n jahr drauf der 7nm refresh - das ist so kostenineffizient, das wird nvidia vermutlich nicht machen.

ein interessanter punkt wäre noch der erheblich gestiegene stromverbrauch vom gsync monitor - der jetzt auch aktiv gekühlt werden muss. wieviel watt muss das gsync verbraten, damit man das aktiv kühlen muss? 20 - 40w bestimmt. damit ist die energiebilanz schon nicht mehr so prickelnd :p

amd kämpft schon seit pascal mit erheblich höheren produktionskosten - die nvidia aber jetzt scheinbar auch hat. die zeiten von low-kost hardware sind allem anschein nach vorbei. in der hinsicht wird das ganze mit vega refresh navi vs turing sogar eher noch positiv für amd ausgehen.


Chismon schrieb:
Ich denke die Oberklasse ist erst einmal wieder für einige Jahre in nVidia-Hand und zweifele (im Gegensatz zu Dark Knight) nicht an der Vorhersage des Fudzilla-Artikels, dass Navi wieder "nur" ein direkter Polaris-Nachfolger und damit eine GPU-Halbgeneration (alleinig Einsteiger- und Mittelklasse-Grafikkarten-Markt bedienend) sein könnte, bevor nicht irgendwelche neuen MCM-/Skalierungs-Gerüchte die Runde machen und einigermaßen glaubwürdig erscheinen.

MCM für gaming ist raus.
https://www.pcgamesn.com/amd-navi-monolithic-gpu-design

mcm wird so schnell nicht fürs gaming kommen - und wenn, dann erst, wenns nvidia anfängt. für amd wird keiner für mcm entwickeln. ich denke auch, dass navi als polaris ersatz daherkommt - zuerst unter vega refresh und dann unter einem navi vollausbau? wang hat angedeutet, dass man mehr produkte an den start bringen möchte, würde doch passen, oder?

Chismon schrieb:
Des Weiteren kann ich mir nicht vorstellen, dass bei all den Sachen die seit RX Vega Marktstart/Koduris Weggang und Neubesetzung bei AMD/RTG passiert sind, genügend Ressourcen und Planung im GPU Bereich angelaufen sind um über die (semi-)professionelle Sparte hinaus (die schon über ein Jahr vorher per Slide angekündigt wurde) einen RX Vega Refresh auf 7nm Fertigung basierend heraus zu bringen.

ich würde mal vermuten, dass, wenn ein vega refresh kommt, der nicht groß von der instinct variante abweicht - war ja bei vega FE und rx vega auch so. da wird man schlucken müssen, dass das eben keine reine gaming gpu ist. eine in hardware optimierte gaming vega wirds nicht mehr geben - das wird vermutlich komplett an navi gehen, wenn überhaupt. könnte auch sein, dass vega für den prof. markt noch eine weile erhalten bleibt und für gaming / apu dann navi übernimmt.

Chismon schrieb:
Falls doch, dann wird es interessant, aber vermutlich wird nVidia wieder die meisten wankelmütigen User abgrasen, die ungeduldig oder süchtig nach neuen GPUs sind (warum auch immer(?), es sei denn diese gurken noch mit 5+ Jahren alten Karten herum).

man kann davon ausgehen, dass nvidia die ersten turing gpus aus den händen gerissen werden. ich habe absolut keine zweifel, dass das ein allzeithoch bei nvidia gibt. noch nie war die nvidia fanmeute so groß und hungrig nach neuen gpus - und noch nie war der preis so egal. wenn man sich mal überlegt, was die leute nvidia an kohle reindrücken - es scheint keine schmerzgrenze zu geben.

es gibt aber neben diesen leuten auch noch diejenigen, die sich bei amd mit einer hawaii/grenada/fiji/polaris eingedeckt haben, und die gerne etwas mehr power möchten. für den fall, dass amd nichts von sich hören lässt, wird hier vermutlich auch ein größerer teil die alten karten in rente schicken. gut 1/3 aller derzeit verbauten amd karten (in gaming systemen) sind alte hawaii/grenada/fiji karten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: D0m1n4t0r
Chismon schrieb:
Um noch einmal die WccfTech-Glaskugel zu bemühen/zitieren:

Wenn das so kommen sollte (für die Mainstream-Gaming-Karten, k.A. ob nVidia da noch semi-professionelle oder speziell ausgelegte Kryptomining-Karten mit Turing Chips in 7nm Fertigung plant), wovon Du ja nicht ausgehst, dann würde ein RX Vega Refresh kaum einen hinter dem Ofen hervor locken können und nur schwerlich Absatz finden (allzuviel Preisspielraum dürfte man dann auch nicht haben und man würde evt. höchstens wieder als nVidia-GPU-Preisdrücker fungieren).

TSMC hat kürzlich mit der 7NM Massenproduktion angefangen und das fängt man mit kleinen ARM Chips an (nicht sehr komplex, dicht packbar, Low Power optimiert für Apple, Qualcomm und co.). Also dass GPU mit 120-200W mit 150-350mm2, was man bei einer GT106 bzw 104 annehmen müsste, gleich mit genügend Yield prouduziert werden können und dazu noch mit relativ viel Takt was NV braucht (da wohl wieder nur Maxwell MK3), ist doch sehr, sehr unwahrscheinlich.
Mit Verfügbarkeit der Karten ab Herbst hätten die auch schon im April anfangen zu produzieren müssen.
Also alles sehr unglaubwürdig!

Würde doch schwer von 12NM Refresh Fertigung ausgehen.
 
Zuletzt bearbeitet:
duskstalker schrieb:
im wesentlichen ist die 7nm midrange navi auch "nur ein kleiner 7nm vega refresh
Absoluter Unsinn, Navi ist GCN6, Vega ist GCN5.

da es zu dem zeitpunkt schon lange nvidia karten mit der selben leistung gibt, ist die radeon alternative nur ein sidegrade, das sich kaum jemand antun wird. im prinzip bleiben amd dann nur diejenigen, die die schnauze so von nvidia voll haben
du bist aber sehr naiv, wenn du offensichtlich glaubst, aktuell wären schon fast alle auf der Stand einer GTX 1080...

modena.ch schrieb:
TSMC hat kürzlich mit der 7NM Massenproduktion angefangen und das fängt man mit kleinen ARM Chips an (nicht sehr komplex, dicht packbar, Low Power optimiert für Apple, Qualcomm und co.).
Vega 20 wird aber auch von TSMC gefertigt, die GPU ist sicher größer als ein Smartphone-SOC.
 
Ich denke nicht, dass Nvidia einen fast 700mm² großen Die als Consumer-Variante bringen wird. Selbst wenn, wäre so ein Chip eher ein Kandidat für eine Titan (bei Pascal gab es auch mehrere Titan-Versionen) - Titan V mal außen vor, die läuft unter dem Codenamen Volta. Wenn es eine 1180 ti wäre und Nvidia die Karte direkt zum Start bringen würde, was gegen ihren bisherigen Rhythmus sprechen würde, wäre das natürlich zu begrüßen. Allerdings werden das saftige Preise, da würde ich bei Custom-Modellen von EVGA schon mit > 1.000€ rechnen.
 
Whiskey Lake schrieb:
Vega 20 wird aber auch von TSMC gefertigt, die GPU ist sicher größer als ein Smartphone-SOC.

Ein paar Vega 20 die im Labor laufen und Massenproduktion welche die Chips in 2 Monaten verfügbar machen sollte ist doch ein himmelweiter Unterschied.

Nicht umsonst soll Vega 20 Q4/18-Q1/19 erscheinen und vorher sehe ich keine GPU in 7NM.
 
  • Gefällt mir
Reaktionen: Piep00
duskstalker schrieb:
... im falle eines 7nm turing wäre eine 7nm vega besser als nichts - so kann man wenigstens den unmut über nvidia abschöpfen - ohne produkt bleibt ja nichts anderes als nvidia oder nichts kaufen - und von nichts hat amd auch nichts. ob dann eine mittelklasse navi in +- einem jahr da großartig was dran ändert? im wesentlichen ist die 7nm midrange navi auch "nur ein kleiner 7nm vega refresh / GCN mit gddr6". da es zu dem zeitpunkt schon lange nvidia karten mit der selben leistung gibt, ist die radeon alternative nur ein sidegrade, das sich kaum jemand antun wird. im prinzip bleiben amd dann nur diejenigen, die die schnauze so von nvidia voll haben, dass sie auf die neuen turing karten gerne verzichten - ich zum beispiel :daumen:

Leider habe ich nur wenig Zeit aktuell, werde versuchen mich aher kurz zu fassen, danke für die ausführliche Anwort/Mühe übrigens ;).

Kommt darauf an, ob sich die RX Vega für AMD-RTG rechnen würde, denn aktuell würde man überschüssige Karten zur Not eben nicht an Kryptominer los, zumal ja auch nVidia da ein wenig gepokert hat und wohl jetzt die überschüssig produzierten Pascal Karten scheinbar gerne noch zu hohen Preisen loswerden will und der Turing Marktstart (nach welchem die Pascal GPUs dann wohl eher mit geringeren Margen verscherbelt werden müssten) wohl auch deswegen etwas nach hinten verschoben worden sein könnte.

Was wäre an "nichts kaufen" denn so schlimm und wenn man nicht - wie ich - auf einer 5+ Jahre alten Karte aktuell sitzt, denke ich nicht, dass man nicht auch noch eine Weile (mit Anpassung der Detail-/Grafik-Einstellungen), bis zu den Navi GPUs, auch gut über die Runden kommen würde.

Eine Navi wird - wie schon adwerweitig trefflich erwähnt - GCN6 sein, somit eine vermutlich (deutlich) verbesserte Architektur gegenüber GCN5 haben, zumal ich irgendwo auch Gerüchte las, dass AMD-RTG schon Leute von der RX Vega Entwicklung (vor Fertigstellung) abgezogen, hatte um sie in mit der Navi Entwicklung zu beauftragen.

Es gibt auch noch jede Menge Leute mit alten GPUs (aus den Fermi, Kepler, HD 6xxx und HD 7xxx Reihen), für die Navi eben kein Sidegrade wäre und denen weder die letzten AMD/RTG GPU-Generationen noch die letzten nVidia GPU-Generationen preis-leistungsuntechnisch lohnend oder innovativ uns ausgegoren genug waren ... und natürlich habe auch einige davon kein Interesse nVidias Produktpolitik finanziell zu unterstützen/belohnen ;).

duskstalker schrieb:
... größte problem von vega ist die skalierung von takt/vcore über dem sweetspot und der stromverbrauch des riesigen dies + materialkosten. eine 7nm vega auf tsmc statt 14nm Low power plus von Glofo könnte hier schon die wesentlichen kritikpunkte aus der fertigung heraus angehen. wir können natürlich nicht abschätzen, ob sich da großartig was ändert, aber es spricht schon bände, wenn amd von exklusiv glofo mit 2/3 vom portfolio auf tsmc wechselt. in 7 nm wird auf lange sicht der die auf jeden fall billiger als das 500mm² monster in 14nm. dazu kann man am platinenlayout sparen - das VRM von vega referenz kostet etwa 30-40$ - etwas weniger als die hälfte vom die - das ist n ordentlicher brocken. so viel haut nvidia nichtmal auf die titan karten drauf. mit 7nm sinkt die leistungsaufnahme, was indirekt auch dazu führt, dass man ein weniger monströses vrm nutzen kann. hier lassen sich mit 35% weniger leistungsaufnahme auch 35% komponenten einsparen. das sollte auch der kühlung zugute kommen - und auch der HBM2 wird dann weniger aufgeheizt ... dazu kommt noch, dass die 14nm vega noch einige ecken und kanten hat, an denen man zügig mit einem refresh ansetzen könnte. ich bin mir sicher, dass die vega architekten/ingenieure noch vor dem release von vega 14nm eine liste an änderungen hatten, die es nicht mehr in die produktionsversion von vega geschafft haben und jetzt für einen refresh quasi abruffertig herumliegen - die werden seit vega release schon was gearbeitet haben. dazu das problem mit unterschiedlichen zulieferern für vega packages und hbm, das man wahrscheinlich auch eleganter lösen kann.

Kann sein, kann aber auch nicht sein, denn nur ein Shrink auf 7nm reicht nVidia aus, m.E. aber nicht AMD/RTG. Nach wie vor schleppen sie die Compute Power mit durch zu den Gaming Grafikkarten (mit den bekannten Nachteilen im Gaming und den bekannten Vorteilen für die compute-basierenden Anwendungen).

Wenn also nVidia deren Pascal Chips 1:1 auf 7nm "schrumpft", dann werden diese Chips immer noch leistungstechnisch und energieeffizienztechnsich vorne liegen gegenüber 1:1 auf 7nm verkleinert gefertigten RX Vega Chips und auch der Wechsel zu TSMC wird die Ungleichheiten bei den Architekturen nicht aufwiegen oder großartig annähern können.

Es braucht also mehr bzw. die Hoffnung, dass Turing (zumindest GT104 und GT106) in 12nm kommen, damit man mindestens auf Augenhöhe (falls bei Turing auch noch signifikante Architekturverbesserungen erreicht worden sein sollten, denn dass es nur ein weiterer, verschlankter Pascal-/Maxwell-Abklatsch ist, wird bisher nur gerüchteweise kolportiert) oder darüber liegt, was die Rohleistung (und evt. den Verbrauch) angeht.


duskstalker schrieb:
... gabs auf videocards folgendes zu sehen ...

das ist ein entwicklerboard mit GDDR6. ich hab mal den core der 1080ti dagegen verglichen, skaliert und perspektivisch korrigiert anhand der pcie kontakte.

Anhang anzeigen 689811

ich gehe davon aus, dass das, was wir hier sehen, die gtx 1180 ist. und wir sehen, dass der die fast gleich groß ist. die 400mm², die wccftech mal hier erwähnt hat:

https://wccftech.com/nvidia-geforce-gtx-1180-specs-performance-price-release-date-prelimenary/

sehen damit ziemlich plausibel aus. wenn das ein 7nm chip wäre, müsste das n ordentliches stück kleiner sein, weil pascal 16nm ist und vega ist schon 14 - und trotzdem ist vega in 7nm n gutes stück kleiner als das.
damit ist die 12nm gtx 1180 mit >400mm² weit weg von der 314mm² 16nm gtx 1080. die neue 1080 ist also von der hardware her eher ein 1080ti shrink als ein 1080 shrink. wir haben noch was von gesteigerten taktraten gehört.
und dann schauen wir uns mal das entwicklerboard an. ein massives VRM, und 3x8 pin. sicher, das ist ne entwickler karte - auf so ein board steckt man aber keine 160w gpu - für so ein PCB wirds schon irgendwo einen grund geben. die taktraten. quasi eine factory oc 1080ti. deshalb ist der chip so groß, deshalb ist das pcb so fett - so meine theorie.



... techpowerup hat den die "vermessen" und ist zu folgendem schluss gekommen: https://www.techpowerup.com/245501/nvidia-gv102-prototype-board-with-gddr6-spotted-up-to-525-w-power-delivery-gtx-1180-ti

ich sehe ehrlichgesagt nicht, wie nvidia einen fast 700mm² chip ins konsumer segment bringen könnte, vorallem auch noch in 12nm. das ist wahnsinn. das passt auch nicht wirklich zu dem optischen größenvergleich, den ich hier vorgestellt habe - aber vielleicht täuscht das? ich habe selbst extra keine größe angegeben - soll sich jeder selber anhand der bilder überlegen, ist sowieso nicht wirklich exakt - aber 700mm²?

Ja, die Nachricht zur Platine hatte ich in einem meiner vorherigen Kommentare auch schon per Link verknüpft. Die Frage ist, ob das kein Fake ist und wie aktuell die Platine wohl ist?
Eine Holzattrappe ist es nicht, richtig, aber von den nVidia Turing Tapeouts hat man nichts mitbekommen/wurde nichts geleakt, somit ist das schwer einzuschätzen.

Dass man relativ kurzfristig auf 7nm umsatteln kann, ist bei nVidias Möglichkeiten denkbar, es sei denn die GT104 Produktion ist schon im großen Maßstab angelaufen und normalerweise braucht man ein paar Monate um die Lager einigermaßen ausreichend für einen Marktstart (nur/exklusiv mit Founders Edition Referenzkarten) zu füllen (bis September wäre also noch ausreichend Zeit).

Somit hielte ich die 7nm nicht für ausgeschlossen, zumal wir nicht wissen, ob nVidia keine AMD/RTG Insiderinformationen hat und zudem wusste man schon lange, dass Vega20 in 7nm kommen wird (seit den ersten Vega20 Slides konnte man schon darauf vorbereiten, somit ist nVidia bzgl. der 7nm Vega20 mit Sicherheit nicht vom Schlag getroffen/überrascht worden).

duskstalker schrieb:
jetzt schon eine 1180 ti? ich hab den fehler nicht gefunden, aber irgendwas kommt mir da komisch vor. trotzdem, meine annahmen bisher ändern sich dadurch nicht. die 1080 ti ist mit ihren 471mm² exakt 50% größer als die 1080. wenn das was wir hier sehen die 1180ti ist, und die tatsächlich 676mm² groß ist, wäre eine 1180 im selben schema ca 450mm² groß. das ist nur unwesentlich kleiner als die 1080 ti in 16nm und entspricht im wesentlichen dem, was ich oben beschrieben habe.
die schlechte nachricht:
titan v, 815mm²: 3000$
1180, 676mm²: ????
wenn man die hälfte ansetzt, wäre das schon großzügig.
8gb hbm2 kosten ca 150$, 8gb GDDR6 liegt bei ca >80$. die titan v hat 32gb hbm2, das sind 600$ hbm 2 auf der titan v, und die karte hier hat 12gb gddr6, das wären 120$.
der neue chip ist nur ca 83% so groß die wie titan.
das ergibt:
3000 - 600 = 2400 * 0,83 = 1992 + 120 = 2112$
wenn man jetzt für den yield eine exponentielle funktion und keine lineare annimmt, wird man weiter unten rauskommen. dann zieht man noch den titan bonus ab und dann kann man zu der annahme kommen, dass die 1180 ti vielleicht bei 1500$ liegen könnte.

Dass die GTX 1180Ti/2080Ti in 7nm kommt halte ich fast für gesichert, da die Fertigung um ein vielfaches erschwinglicher wird, der Verbrauch abnimmt und man eine deutlich größere Marge haben wird ... etwa mit Produktionskosten wie aktuell beim beschnittenen GP104, nur dann eben zu Marktpreisen deutlich oberhalb eines aktuell beschnittenen GP102. Nur erwarte ich die Turing 80erTi nicht vor Frühling kommenden Jahres.

Der Preis der beschnittenen GT102 Karten wird mit Sicherheit unter 1500 US$ liegen (außer vielleicht bei einer Titan (XT) die vor einer Turing 80erTi heraus kommen dürfte, aber nicht mehr direkt an Gamer addressiert ist), da ein solcher Preissprung bei der Turing 80erTi nicht vermittelbar wäre ... ja, auch bei der Early Adopter- und Hobby-Enthusiasten-Fraktion nicht. Einen Preisbereich knapp unter 1000US$ (für die Founders Edition) halte ich aber durchaus für realistisch.

duskstalker schrieb:
nvidia wird selbst probleme haben an den massiven performance sprung von kepler - maxwell - pascal anknüpfen zu können ... muss nvidia jetzt auch endlich in sachen hardware tiefer in die tasche greifen. wir können uns jetzt schonmal daran gewöhnen, dass in zukunft "stromverbrauch bei gpus total irrelevant ist, es geht um fps". zumindest werden die grünen von ihrem öko kurs abstand nehmen müssen. nvidia muss jetzt auch über die fläche und takt arbeiten, wie amd ... hat aber einen vorteil: 7nm statt 12nm, vega kommt von einer sehr schlechten node für high performance chips, nvidia hatte mit 16nm schon einen high performance optimierten prozess von tsmc. der 7nm vega refresh würde vermutlich heftiger einschlagen, als sich das so manche vorstellen würden - mir eingeschlossen.
ich bin nicht davon ausgegangen, dass amd nochmal ne chance bekommt - aber hier ist sie. aber zum weihnachtsgeschäft 2018 erwarte ich spätestens die turing customs.

Dafür könnte es auch jetzt noch reichen Turing in 7nm zu fertigen, aber wie gesagt, selbst in 12nm hat nVdiia wohl den Markt für sich, weil ich nicht sehe, dass AMD/RTG jetzt noch einen Oberklasse-GPU Refresh bringt mit dem mittlerweile eher wieder weggebrochenen Kryptominer/Markt und der Tatsache, dass die meisten Konsumenten in der Oberklasse mittlerweile zu nVidia greifen (die Zahl an RX Vega Eigentümern ist auf CB schon nicht berauschend und vermutlich massiv überproportional verglichen mit dem generellen Marktanteil) und man sich wohl eher auf die deutlich margenreichere Mittelklasse mit Navi Chips konzentieren dürfte.

Der Name RX Vega hat zudem ziemlich gelitten in der Pressebeurteilung und allgemein in der Branche, weil die Einführung und Verfügbarkeit sehr sub-optimal lief. Ich bezweifle, dass AMD/RTG da noch auf einen 7nm Refresh im Gaming-Bereich setzt, lasse mich aber gerne überraschen, falls da doch noch etwas kommen sollte.

duskstalker schrieb:
wird man auch abwarten müssen - eigentlich hätte der 12nm refresh für vega ja schon releast sein müssen - den hat man aber kommentarlos gestrichen. eine alternative wäre, dass man statt 12 direkt auf 7 gehen wollte.
gemessen daran, dass es jetzt schon funktionierende 7nm vega samples gibt und die 7nm instinct vega noch im 2h 2018 kommen soll, UND 7nm anscheinend ganz gut läuft, sind die infos vor der computex 2018 eigentlich veraltet. ich weiß nicht, wie lange die wafer produktion dauert, aber ich würde sagen, dass das relativ kurzfristig ist. zusammen mit turing im weihnachtsgeschäft landen ist zumindest in kleinen stückzahlen nicht unmöglich.

http://www.pcgameshardware.de/AMD-Z...a-20-Navi-TSMC-7-nm-Serienproduktion-1259389/

amd kämpft schon seit pascal mit erheblich höheren produktionskosten - die nvidia aber jetzt scheinbar auch hat. die zeiten von low-kost hardware sind allem anschein nach vorbei. in der hinsicht wird das ganze mit vega refresh navi vs turing sogar eher noch positiv für amd ausgehen.

mcm wird so schnell nicht fürs gaming kommen - und wenn, dann erst, wenns nvidia anfängt. für amd wird keiner für mcm entwickeln. ich denke auch, dass navi als polaris ersatz daherkommt - zuerst unter vega refresh und dann unter einem navi vollausbau? wang hat angedeutet, dass man mehr produkte an den start bringen möchte, würde doch passen, oder?

Leider ist die Informationslage bzgl. AMD GPU-Entwicklung sehr dürftig und das schon seit einer Weile, da ist es schwer etwas abzuleiten.

Mehr Produkte wären schön, vor allem bei der klaffenden Lücke aktuell zwischen unterer Mittelklasse (RX570) und Einsteigerklasse (RX560), in der man preislich kein passendes Pendant zur GTX1050Ti bietet. Das sollte bei Navi angegangen werden, denn die Preis-/Leistungs-Klasse ist für den Massenmarkt schon ziemlich wichtig.

duskstalker schrieb:
... würde mal vermuten, dass, wenn ein vega refresh kommt, der nicht groß von der instinct variante abweicht - war ja bei vega FE und rx vega auch so. da wird man schlucken müssen, dass das eben keine reine gaming gpu ist. eine in hardware optimierte gaming vega wirds nicht mehr geben - das wird vermutlich komplett an navi gehen, wenn überhaupt. könnte auch sein, dass vega für den prof. markt noch eine weile erhalten bleibt und für gaming / apu dann navi übernimmt. man kann davon ausgehen, dass nvidia die ersten turing gpus aus den händen gerissen werden. ich habe absolut keine zweifel, dass das ein allzeithoch bei nvidia gibt. noch nie war die nvidia fanmeute so groß und hungrig nach neuen gpus - und noch nie war der preis so egal. wenn man sich mal überlegt, was die leute nvidia an kohle reindrücken - es scheint keine schmerzgrenze zu geben.

es gibt aber neben diesen leuten auch noch diejenigen, die sich bei amd mit einer hawaii/grenada/fiji/polaris eingedeckt haben, und die gerne etwas mehr power möchten. für den fall, dass amd nichts von sich hören lässt, wird hier vermutlich auch ein größerer teil die alten karten in rente schicken. gut 1/3 aller derzeit verbauten amd karten (in gaming systemen) sind alte hawaii/grenada/fiji karten.

Frage ist, was zudem, was so ein RX Vega Refresh kosten würde, denn der Polaris Refresh hat die Karten auch alle duch die Bank verteuert bei zweifelhaftem Mehrwert. Gut, der Mehrwert wäre bei der kleineren Node natürlich da, nur wie erschwinglich wären die GPUs, denn schon jetzt sind den meisten immer noch die RX Vega 56 und 64 Karten zu teuer/unerschwinglich und wird man in so kurzer Zeit wieder teuer umrüsten wollen?

Was die mögliche Käufergruppe eines RX Vega Refresh angeht habe ich da größere Zweifel, denn die Mängel bei der Architekturauslastung sind nach wie vor vorhanden und von AMD nicht gelöst worden, auch die vollmundig angekündigten, großen Features werden nur selten unterstützt und ausgereizt und beizeiten schlägt sich das auch nicht so wie angedacht/unregelmäßig in höherer Leistung nieder.

Die Leute die jetzt noch mit altbackenen R9er oder Fiji Karten ausharren (zumal diese evt. auch nicht primär die neuesten AAA Titel auf Maximaleinstellungen spielen (wollen)), dürften auch noch bis Navi das halbe Jahr länger warten können.

Vieles wird auch von der Preispolitik von nVidia bei Turing abhängen und ob das Geld da wirklich so locker sitzt bei vielen (abseits der nVidia-Fans und der Hobby-Enthusiasten, HardCore-Gamer und Early Adopter hier auf CB)?

Warten wir's ab ;).
 
Zuletzt bearbeitet:
Das nennst du nur wenig Zeit und kurz fassen? :daumen:
 
  • Gefällt mir
Reaktionen: Cpt.Willard und Colindo
Zurück
Oben