News AMD: Keine Eile bei neuer Grafikkartenserie „Sea Islands“

Es ist aktuell einfach nicht notwendig.
Nvidia bringt auch nichts, Titan ist eine Spielerei und hat keine Marktrelevanz.
Denke mal die Lager sind noch ganz gut mit 7000er Karten gefüllt, warum sollte man sich also selbst Konkurrenz machen? Das einzig richtige ist warten.
 
Mal wieder ein schönes Beispiel dafür das Firmen Inovationsfaul sind, solange sie nicht unter Zugzwang stehen. Da bleibt nur zu hoffen, dass es AMD noch lange lange Zeit geben wird. Ansonsten wird sich Nvidia erst zu ner neuen Serie übereden lassen wenn der Markt mit der alten Serie zu 90% gesättigt ist...
 
Volker schrieb:
Von Nvidia wird zudem in Kürze „nur“ ein Flaggschiff-Modell für einen sehr hohen Preis vorgestellt – vermutet werden 800 bis 900 Euro – weitere Ableger für den bezahlbaren Massenmarkt sollen erst einmal nicht folgen.

Diesen Satz habe ich nicht verstanden!
Die GK110 gehört zur selben Generation wie die GK10x GPUs. Daran ändert auch die Bezeichnung GK110 nichts, GK110 und GK10x sind einfach zwei verschiedene Kepler-Entwicklungslinien.
Zudem würden GK110-Ableger bei deutlich höheren Kosten den GK10x in Sachen Grafikkarte eher unterlegen sein. Und eine "kleine GK110" würde in Sachen DP-Rechenleistung nicht mit AMD mithalten können. Wo soll für die also der Markt sein?
Von "sollen erst einmal nicht" kann also keine Rede sein, es wäre schlicht wirtschaftlicher Unsinn.
 
Zuletzt bearbeitet von einem Moderator:
Sontin schrieb:
Hä?
Intel's iGPU ist auf dem Niveau einer GT430. Intel kann nichtmal die GT640 schlagen.

Falls du von der HD 4000 sprichst, ist deine Behauptung Mutig. Besonders da die HD 4000 etwas unter einem A6 trinity befindet (außer man nimmt jetzt Games die enorm CPU Lastig sind und einen i7 mit HD 4000 dann könnte sich das für den Intel postiv bemerkbar machen) Ein GT 430 ist ca ein A10 und eher HsW's GT3 könnte diese Performance erreichen.

aylano
In einer Playstation 3 bedindet sich eine NV-GPU. AMD hat für Nintendo (wii) und für Microsoft (Xbox 360) die Architektur geliefert.
Könnte sein, dass AMD auch schon für Sony Systeme vorgestellt hat, und Schluss endlich auch später mit dessen Konzept Sony auch für die PS4 überzeugen können.
In meinen Augen, kommt das Konzept einer APU dem Cell Prozessor näher als ein herkömmlicher Computer. Weiteres kann es auch sein, dass man dieses mal bewusst ebenso auf x86 setzen wollte wie MS. Weiters kann man auch spekulieren ob NV nicht einfach zu unkooperativ war, wie es angeblich damals MS als Grund für einen Umschwenken von NV auf AMD angegeben hatte.

Mal wieder ein schönes Beispiel dafür das Firmen Inovationsfaul sind, solange sie nicht unter Zugzwang stehen.
Und wieder jemand, dem nicht bewusst ist, dass es mehr dahinter steckt, ein Produkt marktreif zu machen.
Ich möchte mal sehen was NV macht. Die haben ihre Grafikkarten-Palette noch nicht so lange auf den Markt wie AMD. Bin also gespannt ob sie dann wirklich eine komplette Serie auf den Markt bringen. Ich glaube eher, dass sie selbst viele Modelle umlabeln werden, wieso auch ? Immerhin kostet das ja auch Geld einen neuen Chip fertigen zu lassen.
Manchmal habe ich das Gefühl, den Leuten ist gar nicht bewusst, dass es eine gewaltige komplexe, aber auch aufwendige Arbeit ist, einen Chip massentauglich zu machen.
Da wird nicht einfach ein Design in den Scanner gesteckt und dann drückt man die Prozessoren aus wie Papier bei einem herkömmlichen Drucker.

Falls NV jedoch doch eine neue Serie in 28 nm bringt (kleiner Refresh) würde NV klar wieder die Spitze bei den bezahlbaren Single GPU erreichen (Titan wird sowieso die schnellste GPU sein, wenn man bedenkt wie groß und massiv der ist ^^). Doch wenn AMD gleich ihre Serie in 20 nm bringt, wird NV eine längere Zeit auf 20 nm warten lassen müssen.
Weiteres sollte man sich bewusst machen, dass AMD mit den GHZ Edition von der 7970 und 7950 mehr oder weniger bereits Updates geleistet hat, und diese eigentlich frecher weise bei gemeinen Marketing auch als HD 8000 vermarktet hätten können.
Dieses kleine Update ist noch nicht so lange her und sollte noch für ne Zeit überdauern, kann aber gut sein dass es eine Durststrecke geben könnte, aber mit sowas rechnet man auch in dieser Branche.

PS: man sollte überlegen, ob die NV Titan nicht eine Werbeaktion von NV ist. Immerhin sieht man das ja leider bei der Masse dass das wirkt. Von der schnellsten Variante wird auf die langsameren Modelle reflektiert. Trotzdem wäre es ein kluger schritt von NV. Mit einem Chip, der zwar teuer ist und verfügbar ist, trotzdem bei jedem Benchmark weit oben, obwohl kaum jemand die Grafikkarte um das Geld kaufen würde. Für NV macht aber die Grafikkarte über die ganze Generation einen guten eindruck, selbst wenn sie nur die Grafikkarten umlabeln würden oder noch eine beschnittene Version auf den Markt werfen würden.
 
Zuletzt bearbeitet:
smalM schrieb:
Diesen Satz habe ich nicht verstanden!
Die GK110 gehört zur selben Generation wie die GK10x GPUs. Daran ändert auch die Bezeichnung GK110 nichts, GK110 und GK10x sind einfach zwei verschiedene Kepler-Entwicklungslinien.

Sagt wer?
GK110 ist, wie die Bezeichnung schon sagt, eine Weitereintwicklung des BIG CHIP Designs GK100, welcher im ersten Kepler Aufwasch, wahrscheinlich wegen schlechter Yelds bei so grossen Chips und dem mässigen Prozess bzw. schlechter 28NM Verfügbarkeit in 2012 gecancelt wurde.
Die GK110 Ableger (wie üblich GK 114, 116 etc.) werden dann wohl wie üblich im Q2 bzw Sommer erscheinen.

Dasselbe in grün wie bei Fermi (GF100, GF110)
 
Zuletzt bearbeitet:
Whoozy schrieb:
Das verstehe ich, das die PS3 Plattform weiterentwickelt wurde. Aber was hat das genau mit AMD zu tun ? Meines Wissens nach, wurde keine AMD/ATI Technologie in der PS3 verwendet.
Stimmt, ich hatte PS3 mit Nitendo Wii verwechselt. Okay, jetzt habe ich es erst gemerkt.
Ich weiß nur, dass bei X-Box sehr viel 2010 an der APU gearbeitet wurde, damit die X-Box dann kostengünstiger hergestellt werden kann.

Soviel ich weiß, gab es schon mehrere Versuche, Sony & Microsoft für die neue Konsolen zu gewinnen, sodass generell auch an plattformen gearbeitet wurde, die dann ins leere liefen. Die Hardware-Entscheidung/Konfiguartion kam für Konsolen-Verhältnisse relativ spät, was im Jahre 2011 mit viel Arbeit erreicht wurde. Also ein Zeitraum, wo es noch keine auswirkungen auf die 8000er-Designs haben sollte, die man in so einem Jahr zusammenbringt.

Kurz gesagt, dass die Arbeit für die Konsole hinter der HD 8000er-Verschiebung und jetzt Cancel stecken, kann ich nicht nachvollziehen, weil in den letzten Jahren immer recht viel gearbeitet wurde.
 
Ich glaube das ja auch nicht, das die Konsolen der Grund für eine Verschiebung sein sollen. Nur hat mich deine Aussage wegen AMD und der PS3 etwas irritiert, eben weil du auch so drauf beharrt hast. Da dachte ich kurz ich hätte da die ganzen Jahre was verpasst.
 
Für welches Spiel auch neue Karten bringen ausser für soen madig programmiertes Crytek Produkt.

Sollen sie nur schön an der Konsolen-Hardware arbeiten damit es in der PC-Grafik mal wieder berg auf geht und es weniger hässlige Portierungen gibt. Und natürlich auch finanziell wieder besser wird für sie.
 
AMD hat doch die eigene High-End-GPU dieser Generation längst am Markt - als Radeon wie als FirePro. Größer als Tahiti sind die High-End-GPUs bei AMD einfach nicht. Nvidia hat mit GK110 nur die eigene High-End-GPU dieser Generation nachgelegt, bislang als Tesla, in Kürze auch als GeForce. AMD hat in den Volumensegmenten ein vollständiges Portfolio, mit dem man alle Nvidia-Angebote kontern kann. Außerdem hat AMD die Designwins bei der Wii U, der nächsten Playstation und der nächsten Xbox. Nvidia ging in dieser Konsolenrunde völlig leer aus. Somit hat AMD schon ein paar Sicherheiten in der Hand.

Da für 2013 wohl kein neuer Fertigungsprozess in Aussicht steht und AMD sowie NV jeweils das eigene Dieflächenlimit erreicht haben (AMD ~400 mm², Nvidia ~550 mm²), stehen uns wohl drei langweilige Quartale in Sachen Grafikkarten bevor. Vielleicht wird die GeForce Titan im Laufe des Jahres noch günstiger, aber selbst dann interessiert das nur Enthusiasts.
 
AMD braucht in nächster Zeit sowieso nicht mehr viel mehr Performance hinzuzugewinnen, das passiert zu einem erheblichen Prozentsatz ganz von allein, nämlich die Optimierung der Konsolenspiele auf die eigene Hardware unbd somit auch Vorteile im PC Markt bei Konsolenports.
Hier hatts Nvidia die nächsten Jahre deutlich schwerer. Vor allem die Bindung an die Enwicklerteams durch AMD Hardware durch die gesamten Dau Plattformen wird auch in Fachkreisen bzw OEM Kreisen seine Auswirkungen haben.

AMD´s CPU´s werden ebenfalls profitieren können.
 
Scr1p schrieb:
Für welches Spiel auch neue Karten bringen ausser für soen madig programmiertes Crytek Produkt.

Ich kann mit meinem neuen 2560x1440-Monitor je nach eingestellter Qualität meine "alte" GTX580(@850Mhz) problemlos in die Knie zwingen. Und zwar mit so ziemlich jedem beliebigen PC-Spiel. Sogar alten Schätzchen wie WoW oder z.B. Minecraft (mit HD-Texturen).
Mein Rechner (3930K@4,2GHz) ist definitiv extrem GPU-limitiert.

Eine HD7970 oder GTX680 würde das GPU-Limit zwar etwas mildern, aber garantiert nicht ganz aus der Welt schaffen. Bleibt also für ein möglichst "rundes" System nur die sündhaft teure Titan oder halt bis nächstes Jahr warten und selbst dann wird wohl immer noch die GPU bremsen.
Ok, SLI/CF wäre eine Alternative, aber ich bin nicht so ein Multi-GPU-Fan (wegen Mikrorucklern, Skalierungsproblemen usw.).

Es gibt jedenfalls definitiv noch Bedarf für schnellere Grafikkarten, allen Konsolenports zum Trotz. (Daran, was Leute mit Multi-Monitor-Setups und/oder 3D brauchen, will ich gar nicht erst denken.) Wäre also schön gewesen, endlich wieder was Neues von AMD und Nvidia zu sehen.
 
Das wundert mich ehrlich gesagt nicht und kann AMDs Entscheidung zu 100% nachvollziehen.

Seit der vorletzten Generation stagniert mehr oder weniger die Grafikperformance, Spiele werden immer noch für Dx9 entwickelt und der Trend geht zu besserer Energieeffizienz. Wer sich vor Jahren eine 5770 geholt hat, wird heute auch noch damit glücklich sein.

Wenn nicht gerade das Maximum an Performance und Auflösung benötigt wird dann kommt man mit seiner Grafikkarte 2-3 Jahre hin.

Deswegen sehe ich es als vollkommen richtig an, hier nicht alle halbe Jahre eine Kohle nachzulegen, sondern vielleicht nur 1mal im Jahr aber dafür mit einer spürbareren Verbesserung. Ebenso finde ich die Spielepakete von AMD sehr gut. Bei sämtlichen Tests werden mickrige Dreingaben bemängelt, nun legt man tripple A Titel bei und die ersten Kröten unken schon wieder rum. Furchtbar. ;)
 
Zuletzt bearbeitet:
Fire'fly schrieb:
Das wundert mich ehrlich gesagt nicht und kann AMDs Entscheidung zu 100% nachvollziehen.
Ich kann diese Entscheidung momentan nicht nachvollziehen und ich bin auf weitere Informationen (20nm-Qualitäts-Stand & Co) angewiesen.

Deine genannten Probleme hatte AMD ebenfalls vor einem Jahr und trotzdem hatten sie HD 7970 extrem gepusht. Schon damals hätten sie 1 Quartal aufgrund mieser Yields & Co warten können. Es würde noch etwas Sinn ergeben, wenn sie mit der gesamten Portfolie auf GK110 und deren Preis-Druck inkl. Auswirkungen auf Preissenkungen gewartet hätte. Aber die Folie spricht ja von der HD7000er bis 4Q 2013.

Grundsätzlich führte Rory Read einen gemäßigteren und weniger agrressiven Kurs bei der HD 7000er-Serie (siehe höhere Preise) ein, aber dass die HD 8000er aufgrund den achsogroßen AMD-Vorsprung @ Game-Markt ausruhen sollte, kann ich mir selbst bei Rory Read nicht vorstellen. Denn mit Sea-Island könnte es mit höherer Performance und eventuell auch höheren Effizienz (wegen besserer Einheiten-Zusammenstellung a la 16CU pro Grafik-Engine beim HD 8800) sogar noch wirtschaftlicher sein als mit der 7000er-Serie.

Meine Vermutung über den Cancel von Krishna damals, hatte ich auch gut eingeschätzt. Und zwar, dass AMD nicht mit den begrenzten R&D-Ressourcen nachkommt, sondern dass es einfach zuwenige 28nm-Wafer gibt.

Aber wenn ich es mir so überlege, dann könnte jetzt die 28nm-Wafer-Engpass genauso der Grund sein für den Nichtwechsel, der dann in dieser Situation nicht ganz Reibungsfrei über die Bühne laufen würden. Denn mit Oland (1Q 2013) & Kabini (2Q 2013) rampt AMD wieder ordentlich, nachdem die letzten 28nm-Produkte im 1Q & 2Q 2012 gestartet wurden.

Ähnlich bei Nivida, die beim Tegra 4 ebenfalls zusätzliche 28nm-Wafer brauchen und da wündert es dann auch keinen, wenn der 500mm²-Die dann so teuer verkauft wird, um eben die Nachfrage zu limitieren bzw. auf GTX 680 zu lenken.
 
Nun Grafikkarten werden normalerweise im Bulk Prozess gebaut.
Wie aktuelle Kepler und Southern Islands.

Prozessoren normalerweise in einem High Power oder Super High Power Prozess gebaut, für hohe
Taktraten.

Und Handysocs wie Tegra werden in einem Low Power Verfahren gebaut, für geringe Leckströhme
und geringen Energieverbrauch.

Die TSMC HP oder Bulk Fertigung hat mit der LP Fertigung nur wenig zu tun.
Wenn wir also davon sprechen, dass wir zuwenig 28NM Waver (für Grafikkarten)
haben tangiert das nur den Bulk Prozess und hat keinen Einfluss auf die andern Produkte.

Kabini dürfte die Ausnahme sein, weil die wohl auch in 28NM Bulk bei TSMC zusammengeschustert werden.
 
Modena.ch schrieb:
Die TSMC HP oder Bulk Fertigung hat mit der LP Fertigung nur wenig zu tun.
LP und HP sind beides Bulk Verfahren, die mit den selben 28nm-Tools produziert werden.
Somit konkurrieren ARM, GPUs, Kabini, Tegra 4 sehrwohl miteinander.
Kabini ist keine Ausnahmen, sondern wurde wie ARM für Bulk entwickelt.

Man darf die Fertigungen nicht unterschätzen.

Schon 2011 war meine Prognose, dass die 28nm-Fertigung (Qualität & Quantität) das bedeutendste im Jahre 2012 wird und Preise & Einführungen am meisten Beeinflussen.
Aus diesem Grund hielt ich schon Anfang 2011 eine GK100-Einführung für Ende 2012 aufgrund der Feritgungs-Qualität & Ramp-Problematik für (sehr) wahrscheinlich.

Mit solchen Aussagen musste man sich massiv zurückhalten, da man mit solchen Aussagen als Mega-Fanboy bewertet wurden. Aber GK100/110 übertrifft jetzt schon längst meinen Erwartungen.

Was ich damals nicht rechnete, war der Effizienz-Kampf im ARM-CPU-Effizienz, der einen Mega-Run auf 28nm-Wafer bewirkte. Ohne dieser Situationen hätte ich Ende 2012 den Realen 28nm-Wafer-Engpass für beendet gesehen, aber mit dieser Neuen Situation würde es mich nicht wundern, wenn es erst Mitte 2013 zuende geht.

Man muss sich eben bewusst machen, dass Oland ein ganzes Jahr später kommen bzw. gekommen sind. Und mit Tegra @ 28nm wird es nicht viel anders sein, wo man zuerst bei Tegra 3 an einem 28nm-Modell glaubte (wenn nicht sogar hinter vorgehaltenden Mund "ankündigte").

Der 20nm-Umstieg wird generell viel interessnanter, weil einerseits AMD & Nvidia mehrere wichtige Bulk-Produkte produzieren und andererseits ARM-Konkurrenten so scharf auf Bulk mit kleinerer Fertigung sein werden, wie noch nie. Ach ja, und das alles parallel mit Apple.
 
Zuletzt bearbeitet:
aylano schrieb:
Meine Vermutung über den Cancel von Krishna damals, hatte ich auch gut eingeschätzt. Und zwar, dass AMD nicht mit den begrenzten R&D-Ressourcen nachkommt, sondern dass es einfach zuwenige 28nm-Wafer gibt.

Krishna wurde gestriche, da GF nicht in der Lage war mit den 28nm Prozess rechtzeitig fertig zu werden, somit hätte man nur eine geplante Produktlaufzeit von ~6 Monaten gehabt und dies wär zu wenig gewesen, darauf läßt sich kein OEM-Partner ein. Und einfach zu TSMC wechseln geht nicht, da GF gate-first und TSMC gate-last fertigt. Desweiter wurde man sich mit GF nicht einig wie man die Wafern bezahlt. GF wollte einen festen Preis pro Wafer, AMD wollte nur für gute DIEs bezahlen. Also wurde es einfach gestrichen und als kostengünstigste Lösung Brazos 2.0 präsentiert.
 
Zuletzt bearbeitet:
@Matzegr
Jupp, da muss ich dir für die Korrektur zustimmen.
Es fällt mir gerade wieder ein, dass Krishna für GF geplant war.

Auch dass Krishna nicht für TSMC geplant war, konnte Oland (=Massen-GPU) erst 1Q 2013 kommen, was ja zeigt, dass vorher nicht genug 28nm-Wafer da waren. Mit dem Oland Ramp und bald dem Kabini & Tegra 4 & GK110 - Rampf wird die 28nm-Verfügbarkeit nicht wirklich leichter.
Aber die genauen Auswirkungen von diesen Ramps auf HD 8000er-verschiebung kann ich eigentlich auch nicht nachvollziehen, aber ich denke schon sehr, dass es war mit dem 28nm-Ramp und 20nm-Einführungs-Ramp zu tun hat.
 
Zurück
Oben