News AMD Fiji: Vom ersten Schritt zum fertigen Produkt in 8,5 Jahren

Ja alles richtig gemacht weil der Chip nie und nimmer für professionelle Bereiche gedacht war. Da gibts bei Nvidia seit jeher ein Chip pro Fertigung.

Edit: Im Tesla Segment ist zb auch die Effizienz nicht so wichtig und 2. hat da Maxwell bei Dauer-Computing Last auch kaum die Effizient Vorteile wie man sie im Gaming Segment sieht. (siehe Maxwell Computing Verbrauch)
Nvidia kann nicht zaubern, ein zweiter 600mm² Computing Chip wie GK110 wäre schlicht sinnfrei. Da rüstet auch keiner seine Supercomputer wegen paar % auf.

Maxwell war einst in <28nm und als Computing Ableger geplant ja, siehe 3-5 Jahre alte Roadmaps. Spätestens als 28nm klar war (da Verzögerung nächste Fertigung bei TSMC) wurde Maxwell zum reinen Gaming Ableger.
Auch AMD musste so agieren, den Fiji erleichtern (lediglich 1/16) um überhaupt in 28nm noch was draufsetzen zu können und 600mm² Chips hatten beide in 28nm nicht auf dem Schirm. Sieht man auch an der vergleichsweise "alten" Architektur auf der Fiji basiert. Fiji is genau wie Maxwell schon lange fertig aber 28nm muss man überraschend lange hinhalten und die Produktpalette strecken. Gilt für beide und zeigt sich auch in vielen Relabels oder in einer noch heute aktuellen Pitcairn GPU.

Mit <28nm wird man wieder DP Leistung satt sehen. Bei beiden. Wobei mir ein Chip mit SP / DP Verhältnis wie Maxwell lieber wäre, ergo jeden freien Transistor und mm² in Gaming Leistung stecken. Hab ich mehr von.

Edit2:
AMD has gone for the bare minimum in FP64 performance that their architecture allows, leading to a 1/16 FP64 rate on Fiji. This is a significant departure from Hawaii, which implemented native support for ½ rate, and on consumer parts offered a handicapped 1/8 rate. Fiji will not be a FP64 powerhouse – its 4GB of VRAM is already perhaps too large of a handicap for the HPC market – so instead we get AMD’s best FP32 GPU going against NVIDIA’s best FP32 GPU.

würde wetten AMD hätte noch mehr an DP Leistung eingespart wenn sie denn hätten möglichst einfach (ohne massive Architekturänderungen) können.

75495.png

Wadenbeisser schrieb:
Mich würde es eher interessieren ob sie mit den nicht gerade absatzstarken bereich für solche kostenintensiven Desktop Karten die Entwicklungskosten für den Chip wieder raus bekommen.

Quartalszahlen verpasst? Mit Maxwell scheffelt Nvidia leider richtig viel Schotter, trotz der 970er Sache. Nicht zuletzt weil die Marge extrem gut ist. Ich weiß nicht auswendig wie stark der HPC Markt in der Regel bei Nvidia Bilanzen zuschlägt, offensichtlich kaum. Da dürfte es mit Pascal wieder nen Peak geben, je nach dem ob er was taugt und was die Konkurrenz macht - bei letzteres nicht so einfach ist. Man baut bei den Systemen mal nicht eben Karten der Konkurrenz ein...

Edit3.

Interessantes Pic ;)
openpower-roadmap.jpg
 
Zuletzt bearbeitet:
yummycandy schrieb:
@Zotac

Und woher hast du diese Info schon wieder? Klar, Samsung steigt in die HBM-Fertigung ein, aber was hat das mit nVidia zu tun?

Und wer hat außerdem gesagt das Samsung zu beginn schon HBM 2 fertigt.

Kan ja sein das sie erst mit HBM gen. 1 einsteigen.
 
@Kraut was heißt erleichtern, ich verstehe nicht warum das FP32/64 Verhältnis bei Fiji 1/16 ist, während Hawaii 1/2 hat. Es ist doch fast die selbe mixed precision Architektur.
 
@Krautmaster
Nichts für ungut aber du schreibst Blödsinn und unterstreichst das noch mit deinem DP Test.
Dort wurden nur Desktop Karten getestet die ohnehin beschnitten sind, ja auch die R9 290X die nur noch 1/8 der SP Leistung hat wärend der Chip selbst 1/2 der SP Leistung könnte und natürlich hat auch die Architektur selbst Einfluss auf das Ergebnis. Man beachte die Position der ollen GTX580. (Fermi)
Das dieser Test der Geforce besser schmeckt sieht man ja auch beim GTX780 Ti (1/24) vs. 290X (1/8) Vergleich.
Welche Schnittstelle wurde da nochmal verwendet und warum fehlt die erste Titan mit freigeschalteter, voller DP Leistung?

Für das fertige Produkt ist es übrigens vollkommen egal als was der Chip geplant war. Letztendlich ist ein Chip mit 1/32 DP Leistung rausgekommen der auch nicht mehr kann.

Was ich aber faszinierend finde ist das du der Meinung zu sein scheinst das nvidia nur den GM200 verkauft denn wie soll ich das Geschreibsel um die Quatalszahlen auf die Frage hin ob der Chip seine Entwicklungskosten wieder reinbekommt sonst verstehen?
 
Wadenbeisser schrieb:
Zum einen haben sie einen Zeitvorteil bei der Entwicklung, zum anderen scheinen sie nach der Gerüchteküche der bevorzugte Abnehmer zu sein, was natürlich Gold wert ist wenn die Produktionskapazitäten für den Speicher erst noch aufgebaut werden müssen.

Reicht dir das?

Nein wie ich ja schon im Text schrieb, das würde nichtmal die Entwicklung von nem Jahr decken geschweige denn 8,5 Jahren!
 
Passt doch gut zusammen alles.
Morgen kommt die kleine R9 Nano und am Freitag kommt ARK: Survival Evolved mit DX 12. Mal schauen wie sich AMD und NV dort schlagen werden. NV hat glaube heute sogar einen neuen Treiber gebracht. Bin schon gespannt.
 
terraconz schrieb:
Was nützt das AMD das das bei anderen zum Standard wird?

Zuerst einmal bringt es AMD sofern etwas, weil sie Schritt für Schritt Erfahrung gemacht haben. Da geht es nicht mal nur um die Technik sondern auch um die Vertragspartner. Beispiel hat AMD bereits gezeigt ein Produkt mit mehreren Hersteller fertigen zu können. Hierzu ist eben auch UMC gekommen, die AMD überhaupt mal den Interposer verwirklichen können.
Was wäre wenn HBM jetzt nicht so eine Nachfrage gehabt hätte und NV auf HMC gesetzt hätte. Dann hätten wir eventuell kein Samsung, der hier verstärkt Interesse zeigt. Am Ende hätten die 8 Jahre Forschung auch umsonst gewesen sein.
Doch bisher hat sich das für AMD durchaus ausgezahlt. Fijii ist hier nur der Start und in der Regel überzeugt am Anfang der S Kurve meist noch die alte Generation. Das kann ab der nächsten Generation, 14nm FinFet, umgekrempelte GCN Architektur (nicht nur Optimierung) plötzlich ganz andere Dimensionen haben. Das selbe gilt übrigens auch für NV. Es wird schon einen Grund haben, wieso man zu AMD's Variante zurückgreift und nicht die Variante Intel/Micron für deren Grafik-Technologie gewählt hat.

Somit ja, AMD hat was davon, dass NV hier mitzieht, weil so auch mehr Halbleiter-Industrien Interesse haben, Chips mit HBM zu entwickeln und somit auch mehr Fertiger HBM herstellen könnte. Wer sagt dass es bei Hynix und Samsung bleiben wird, wenn es um HBM Produktion geht ?
Also wo hat bisher AMD den Nachteil ? Dass sie Ressourcen investiert haben ? Besonders wenn man bedenkt, dass AMD HBM Speicher auch für APUs und deren EPUs verbauen möchte. Für AMD bedeutet das dann am Ende, eben auch durch NV Einstieg mehr HBM Chips, allein weil eben Samsung hier auch einsteigt. Es kann durchaus sein, dass noch andere RAM Hersteller in die HBM Produktion einsteigen können.

Von Intels HMC kann man da weniger erwarten, weil das eben speziell für Intel HPC-Produkte gedacht ist. Deshalb kann es gut sein, dass NV auch aus diesen Gründen zu HBM gegriffen hat (neben niedrigeren Verbrauch und günstigeren Preis) weil man eventuell dann völlig auf Micron und den Rest den Intel nicht benötigt angewiesen wäre, oder gibt es schon Info wer neben Micron HMC fertigen möchte oder überhaupt "darf".

Krautmaster
Sieht man auch an der vergleichsweise "alten" Architektur auf der Fiji basiert.
Diese alte Architektur GCN 1.2 wurde gerade mal 1 Monat vor Maxwel Gen2 vorgestellt und ich erinnere mich nicht daran dass beispiel GM200 auf Maxwell Gen3 basiert, oder habe ich was verpasst ?

Eher kann es gut sein, dass AMD ähnlich wie NV vorangeht. Nämlich zwei Varianten von GCN entwickelt. Der große Chip mit voller DP und die kleineren Varianten angepasst auf Gaming.
 
Zuletzt bearbeitet:
In fast allen Branchen ist es immer das selbe. Die kleinen sorgen für Innovation und Fortschrit. Und die etablierten Branchenführer bedienen sich dieser Innovation und perfektionieren diese unter Einsatz ihrer wahnwitzigen Resourcen.
In der IT ist es genau so. Hier ist AMD halt der kleine und sorgt für Innovation. NV wird sich der HBM Technologie bedienen und diese auf Ihren GPU's auch weiter perfektionieren. Und das ist auch gut so. Genau so wie NV von AMD GCN profitieren wird, weil sie ähnliches eben auch unter anderem Namen ab Pascal einführen werden. Und auch das ist gut so.
Denn damit wird Pascal wieder ein guter Chip nach dem letzten guten Chip namens Kepler.
 
Zotac2012 schrieb:
Dann hast Du Dich leider nur nicht wirklich informiert, Free-Sync ist im Prinzip die Antwort auf Nvidia`s G-Sync, nur ohne kostenplichtiges Modul und somit für die Hersteller von Monitoren sehr interessant. Allerdings ist es derzeit für uns User und Nutzer von Grafikkarten nicht so interessant, da die jeweilige Technik an die Hersteller Hardware gebunden ist und wir aber eine Technik oder Standard brauchen, die Hersteller übergreifend ist.

Gsync ist nix neues gewesen. Das ist im Grunde das alte adaptive sync das es schon seit Jahren gab. Nur leicht abgeändert und mit einem Modul im Monitor. Man wollte hier ganz gezielt andere Hersteller ausschließen und aus alt neu machen. Von einem großen Entwicklungsprozeß kann hier keine Rede sein, geschweige denn hohen Kosten.

Zotac2012 schrieb:
HBM ist kein von AMD erfundenes Feature, sondern AMD sind die ersten die es Weltweit in Ihren Grafikkarten als erstes eingesetzt haben. Nvidia startet erst mit HBM 2.0 2016 in den Markt mit dem neuen Speicher, dann wird man sehen ob Nvidia ihre Hausaufgaben gemacht haben.

Natürlich hat AMD zusammen mit Hynix HBM entwickelt!

"The development of System in Package with High Bandwidth Memory began at AMD in 2008 to solve the problem of ever increasing power usage and form factor of computer memory. AMD and SK Hynix jointly developed it and started HBM's high volume manufacturing at TSV Packaging facility in Icheon, Korea from 2015. AMD commercialized 2.5D SiP with HBM in partners from the memory industry (SK Hynix), interposer industry (UMC) and packaging industry (Amkor Technology and ASE) to help AMD realize their vision of HBM."

Auch schön zu sehen, wenn man deine Kommentare hier weiter liest... Erst hatte AMD nix entwickelt oder was mit HBM zu tun, später waren sie dann nur ein wenig daran beleidigt?!^^ ja genau :freak:
Einfach peinlich wie Leute sich hier auf irgendwelche Marken einschießen und dann auch noch mit so einem Halbwissen.

AMD hat hier ganz klar, wie man auch dem Artikel entnehmen kann, überhaupt erst den Anstoß zu HBM gegeben und natürlich hat man sich dann später mit einem Speicher Hersteller zusammen getan, alleine schon aus Kostengründen. Das ist ein absolut logischer Schritt um Kosten zu verkleinern und Know How teilen zu können.
 
Zuletzt bearbeitet:
Bei GSync-Einführung gab es für den Desktop kein DP1.2a, folglich hat man dieses Feature/Technik mit einem Modul als auch DP1.2 ermöglicht/realisiert. Das sollte man bitte mal unterscheiden bzw. berücksichtigen (können), aber "wir flamen alle mal gern" ... ;)
 
OT71 schrieb:
1. den Kühler fertigt AMD ja nicht selber

Warum hat AMD dan nicht z.B mit Artic Cooling zusammen gearbeitet ?

Die hätten bestimmt ein guten Kühler auf Basis des Twin Turbo für den Fiji entwickelt.

Und die kosten wären bestimmt auch nicht höher als die der AiO Wakü.
 
pipip schrieb:
Diese alte Architektur GCN 1.2 wurde gerade mal 1 Monat vor Maxwel Gen2 vorgestellt und ich erinnere mich nicht daran dass beispiel GM200 auf Maxwell Gen3 basiert, oder habe ich was verpasst ?
ich hab damit auch nicht zwingend einen Vergleich zu Maxwell gemeint, die Architektur ist ja auch nicht grade neu, bzw keine GPU Architektur ist wirklich massiv neu. Seit GCN und Unified Shadern bei Nvidia betreiben beide Hersteller mehr oder weniger Skalierung im Rahmen der jeweiligen Fertigung + Eliminierung von Flaschenhälsen (überspitzt ausgedrückt).

Beim Idle Verbrauch und Dynamik im Bereich Power Gating und Taktraten hat sich noch am meisten getan, so auch nun bei der Effizienz bei Maxwell.

Von allen aktuellen Chips ist der GM206 noch der fortschrittlichste.
 
Schöner Bericht. Wäre jetzt nicht davon ausgegangen das AMD bereits vor 8 1/2 Jahren damit begonnen hatte den ersten Grundstein dafür zu legen.
Wenn AMD quasi unbegrenzt Ressourcen hätte, wie z.B. Intel seiner Entwicklung stellt, wären wir im GPU Segment definitiv weiter, als wo wir heute sind.
 
Interesannt wäre auch noch zu erwähnen, dass es für die TI OMAPs schon so um 2008-2009 rum von Micron LPDDR-RAM kombiniert mit Flash in einem Package gab, das man auf das Package des OMAPs löten konnte.
Für low-power SoCs natürlich sehr interessant, für Grafikkarten mit einem Verbrauch von über 100W aber eher nicht, da man dann nicht mehr direkt ans GPU-Die rankommt, um es vernünftig zu kühlen.
 
QDOS schrieb:
1. Hat Intel weit vor AMD mit 64bit auf dem Markt agiert (IA-64)
2. Hat MS x86_64 massiv promotet (Unter anderem dadurch, dass sie verkündeten keine alternative 64bit x86-Erweiterung zu unterstützen. Damit haben sie Intel gezwungen eine AMD-Erweiterung in ihre Prozessoren einzubauen => bis heute der einzige Fall für eine nicht-Intel-Erweiterung von x86, welche bei beiden Herstellern verfügbar ist...)

Die IA-64 Dinger hatten eine unterirdische 32-Bit Performance, und die Compiler haben es für VLIW nicht so gerissen wie Intel sich das vorgestellt hat. AMD nutzt bei den GPUs auch kein VLIW mehr.

Und komplexe Compiler sind wahrscheinlich Gift für JITs.
 
Zuletzt bearbeitet:
.Snoopy. schrieb:
Wenn AMD quasi unbegrenzt Ressourcen hätte, wie z.B. Intel seiner Entwicklung stellt, wären wir im GPU Segment definitiv weiter, als wo wir heute sind.

Möglicherweise schon, allerdings kann man sich auch mal die Entwicklung des Cell Prozessors angucken.
Da wurde massiv Geld reingepumpt und die Planung begann sogar schon zum Ende des letzen Jahrtausends und die PS3 kam erst Ende 2006 auf den Markt. Cell war von der Rechenleistung einfach unschlagbar aber auch viel zu komplex zu programmieren, ein Problem, dass dem sehr interessanten Itanium ebenfalls den Hals gebrochen hat.
 
.Snoopy. schrieb:
Schöner Bericht. Wäre jetzt nicht davon ausgegangen das AMD bereits vor 8 1/2 Jahren damit begonnen hatte den ersten Grundstein dafür zu legen.
Wenn AMD quasi unbegrenzt Ressourcen hätte, wie z.B. Intel seiner Entwicklung stellt, wären wir im GPU Segment definitiv weiter, als wo wir heute sind.

Intel hat große Ressourcen in der Entwicklungsabteilung, aber das ist kein Garant für ein erfolgreiches Produkt.
Der "Xeon Phi" jetzt "Knights Landing" war ja mal auch als Grafikkarte auf x86-Corebasis gedacht und als fertiges Produkt kam "nur" eine Beschleunigerkarte für HPC raus. Und Intel hat trotzdem Jahre gebraucht um ein fertiges Produkt auf den Markt zu bringen.
Die Entwicklungszyklen sind bei komplett neuer Hardware mit neuen Ansätzen einfach deutlich höher als wenn man nur eine Refresh von bestehenden Produkten macht. Nicht umsonst macht Intel auch sein Tic-Toc bei den Prozessoren.
Ausserdem muss man bei einigen Ideen einfach warten bis diese technisch vernünftig machbar sind.

Cunhell
 
Zurück
Oben