News Technische Details zu AMDs „Southern Islands“-GPU

AMD hat vor noch nicht allzulanger Zeit die VLIW-Architektur als die technisch überlegenere gegenüber nVidias superskalarer Architektur verfochten. Da muß ich doch lachen. Jetzt präsentiert man auf seinen "Folien" genau eben jene Argumente, die seinerzeit nVidia gegen eine VLIW Architektur hervorgebracht hat. Irgendwie muß ich gerade an ein Analogon denken und Schmunzeln, es betrifft Jenninger und ein gewisses Zitat, sehr schön kolportiert in Wieczoreks Buch "Die verblödete Republik".

Factum est, die "überlegene" Architektur konnte ihre Leistung nie wirklich überzeugend auf die Straße bringen. In den für die Naturwissenschaften und numerischen Rechnungen wichtigen doppelt genauen Fließkommaoperationen hing AMDs GPU stets dem nVidia Äquvalent unverhältnismäßig hinterher, obwohl die Rohleistung bei einfacher Genauigkeit in einigen Fällen bei AMD fast viermal höher sein sollte. Mir ist nur ein Testparcour bekannt, wo sich AMDs GPUs wirklich besser als nVidia Chips schlagen, nämlich wenn mit einfacher Genauigkeit gerechnet wird und diese Rechenkraft für das Knacken von Paßwort-Hashes Verwendung findet.

Ich bin wirklich gespannt, ob sich noch in vertretbarem Zeitrahmen, also weit vor Ablauf des Jahres, wirklich etwas tut. nVidia hatte schon im Frühjahr verlautbaren lassen, daß es einen KEPLER-Ramp-up gegeben habe - wenn ich mich recht entsinne. Keppler, als Fermi Nachfolger, soll ebenfalls in 28nm gefertigt werden. Bislang ist über diesen Chip ja noch nicht so viel offiziell gemacht worden. Vielleicht ändert sich das jetzt, nachdem AMD für Wellen im Wasserglas gesorgt hat. Es könnte interessant werden.
 
@ Kasmopaya: Ich wünsche AMD auch Glück;)

Naja, ich werde meine 6990er behalten bis diese(vermutlich) an Hitzetod stirbt:evillol:
 
Eisenfaust schrieb:
AMD hat vor noch nicht allzulanger Zeit die VLIW-Architektur als die technisch überlegenere gegenüber nVidias superskalarer Architektur verfochten. Da muß ich doch lachen.
Ist sie das bei Games nicht? Wo brauch man dort doppelte Genauigkeit? Einige vergessen immer noch, dass GPUs primär (mittlerweile driftet es ab) zum Rendern entwickelt werden - Games, Animationsfilme, CAD, ... Alles hängt daran.

Weißt du in welchem Kontext AMD diese Sache meinte (auf Games oder GPGPU bezogen)?
Eisenfaust schrieb:
In den für die Naturwissenschaften und numerischen Rechnungen wichtigen doppelt genauen Fließkommaoperationen hing AMDs GPU stets dem nVidia Äquvalent unverhältnismäßig hinterher, obwohl die Rohleistung bei einfacher Genauigkeit in einigen Fällen bei AMD fast viermal höher sein sollte.
Das hängt wohl eher damit zusammen, dass Fusion fast auf dem Markt ist und man immer mehr auf GPU-Beschleunigung setzt (DXVA und Konsorten). Weshalb sollte man hier also nicht auf skalare Einheiten ausweichen? Das Eine ist für das Eine besser, das Andere für das Andere. Ist doch nichts verwerfliches dran.
 
Keppler, als Fermi Nachfolger, soll ebenfalls in 28nm gefertigt werden.
Kepler ist eigentlich nur ein Fermi Refresh, der echte Fermi Nachfolger von der Architektur her müsste Maxwell sein, der sollte ca. 2014/2015 aufschlagen. Dh. sollte AMD mit der HD 7000er nun ein Meilenstein gelingen wie zu Zeiten von Radeon 9700er, dann hat Nvidia lange Zeit kein Kraut dagegen. Aber die lassen sich bestimmt was einfallen, die TDP ist ja durch die Drosselung wieder weit offen und mann könnte eine 300-400Watt Fermi bringen die nur so viel im Durchschnitt schluckt, weil ja der max. Verbrauch gesperrt wurde... :rolleyes:

Nachdem es schon 2 mal komplett nach hinten gegangen ist für NV(GF FX/Fermi) eine neue Architektur und Fertigungsgröße gleichzeitig zu bringen, wird sich NV hüten hier die Kamikaze Aktion von AMD nachzumachen. Ergo Kepler wird nur ein Refresh.
 
Zuletzt bearbeitet:
Um mal aufs Topic zurück zu kommen.
In einer CU scheinen laut der 2. Folie ja wohl 4 SIMD-Einheiten sein, neben der einen kleinen skalaren Integer Alu.
Hier von einem skalaren Desigen zu sprechen halte ich da schon für etwas fragwürdig. Der Schritt weg von VLIW ist schon recht interessant. Vor allem da eine CU jetzt deutlich leistungsfähiger sein dürfte als ein alter 4D-Shader. (4 mal 512bit SIMD)
Dazu hat jeder dieser CU's scheinbar ein Front End wie es vorher nur ein einziges (beziehungsweiße bei Cayman 2) für die ganze GPU gab.

Sieht auf alle Fälle sehr vielversprechend aus und dürfte sowohl in Open Cl, als auch bei Grafikberechnungen einige Vorteile haben.
 
Zuletzt bearbeitet:
Mich erinnert das neue Design wesentlich mehr an Larrabee (inzwischen Knights Ferry) als an irgendein NVidia Design. Knight Ferry besitzt 32 Cores, wobei diese größtenteils aus jeweils einer 512bit SIMD Vectorunit mit 4-fachem SMT, einem vom P54C abgeleiteten Uncore sowie einem 256KB L2 Cache Slice bestehen. AMDs neues Design setzt nun ebenfalls auf 512bit SIMD Vectorunits, gliedert davon aber gleich 4 mit einem Uncorebereich zusammen zu einer ComputeUnit.
Interessant wird noch die Entscheidung sein, ob das Marketing Team weiterhin eine 4-stellige Anzahl von StreamProcessingUnits bewerben will, oder ob man vielleicht die 3-stellige Anzahl an SIMD Units als Cores oder einfach nur die 2-stellige Anzahl der ComputeUnits anpreisen wird. Beim Bulldozer hat man sich ja dazu entschieden jeweils ein Integer Cluster als Core zu bezeichnen, wobei im direkten Vergleich ein Sandy Bridgy Core eher einem Bulldozer Modul gleichkommt.
Wenn AMD diese neue Architektur Ende 2011 auf den Markt bringt und Intel (Anfang?) 2012 Knight Corner released, dürfte es im HPC Bereich interessant werden, wie groß die Abstände ausfallen, und wo sich NVidias Kepler einsortieren wird. Mal sehen, ob es möglich sein wird, einen auf 512bit SIMD Units optimierten OpenCl Code zu fabrizieren, der sowohl auf SI als auch Knights ohne weitere Anpassungen performant ist.
 
Yuuri schrieb:
Ist sie das bei Games nicht? Wo brauch man dort doppelte Genauigkeit? Einige vergessen immer noch, dass GPUs primär (mittlerweile driftet es ab) zum Rendern entwickelt werden - Games, Animationsfilme, CAD, ... Alles hängt daran.

Weißt du in welchem Kontext AMD diese Sache meinte (auf Games oder GPGPU bezogen)?

Das hängt wohl eher damit zusammen, dass Fusion fast auf dem Markt ist und man immer mehr auf GPU-Beschleunigung setzt (DXVA und Konsorten). Weshalb sollte man hier also nicht auf skalare Einheiten ausweichen? Das Eine ist für das Eine besser, das Andere für das Andere. Ist doch nichts verwerfliches dran.

Der Kontext dieser Aussage ist mir nicht mehr im Gedächtnis, aber es war menes wissens eine jener Veranstaltungen, als die HD4000 Architektur vorgestellt worden ist. Sowohl nVidia als auch AMD hatten sehr lautstark die GPGPU-Fähigkeiten ihrer Produkte beworben. Und damit komme ich auf Deine erste Bemerkung. Ich denke, jeder von uns ist auf seine Art 'sensibel' für gewisse Vollmundannoncen seitens AMD und nVidia. Mich interessieren Graphikkarten nur soweit, wie ich damit rechnen kann. Privat nutze ich lediglich eine Konsumentengraphikkarte, im Labor aber ist es dann eine TESLA. Mir sind AMDs Werbeversprechen deshalb so gut im Gedächtnis, weil sie zu einer Zeit gemacht wurden, asl das Unternehmen eine intensive Unterstützung der Opensource Treiberentwicklung hinsichtlich 3D Unterstützung versprach. Das ist gerade jener Teil der Chipspezifikationen, der von einem Treiber zur Nutzung der GPU als Rechenwerk genutzt werden kann. Die Tricks, über OpenGL große "Kernel" zur GPU zu schicken und sie dort bearbeiten zu lassen, funktionieren nur solange, wie die OpenGL Bibliothek via Mediator "Treiber" auch die entsprechende Hardwarebeschleunigung ansteuern kann. Letztlich hat AMD den Support für neuer Chips quasi über Nacht eingestellt. Zudem erwies sich dann die HD4000 als doch nicht OpenCL-geeignet, weil, ich zitiere sinngemaß einen Compiler-Entwickler, ein für die OpenCL wichtiger Puffer von einigen Bytes nicht bidrektional operieren konnte, sondern nur gelesen werden durfte. Ich weiß darüber zu wenig. Ich weiß nur, daß ich mir freuig eine HD4830 gekauft habe, weil es hieß, es gäbe baldigts auch für mein UNIX freie, 3D fähige Treiber, die dann GPGPU ermöglichen würden. Und dann die enorme Rohrechenleistung des Chips, meine Güte, wer hat da an nVidia denken können.
Ich will gar nicht mehr darüber nachdenken. nVidia bietet für die BSD UNIX 64Bit Systeme funktionierende, gute Treiber (AMD nicht), nVidia liefert ein hervorragendes CUDA SDk für Linux sowie einige gute und brauchbare mathematische Bibliotheken auf CUDA Basis. AMD bietet nichts, was vergleichbar wäre und der wissenschaftliche Support existiert nur pro forma. Lächerlich. Pathscale bietet einen HMPP-fahigen Compiler, der nur nVidia GPUs unterstützen wird, jedenfalls weiß ich durch Kontakt mit einem Entwickler des Unternehmens, daß KEINE AMD Unterstützung geboten werden wird. Er begründete dies damit, daß die Architektur AMDscher GPUs krude sei (VLIW). Das mag sich vielleicht in zwei Jahren ändern, aber ich kann nunmal nur maximal in 6-Monate Happen vorwärts planen. AMD hat damit für mich als potentieller GPGPU Lieferant verloren. das wird sich vielleicht mit den APUs ändern, aber diese Chips sind für eine kleinere Leistungskategorie geplant und für mich/uns indiskutabel. Und ich möchte an dieser Stelle daran erinnern, daß es zumindest bei nVidia Usus ist, die GPU auch als professionelles Rechenwerk anzubieten und nach dieser Klassifizierung bewerte ich diese auch.

Kasmopaya schrieb:
Keppler ist eigentlich nur ein Fermi Refresh, der echte Fermi Nachfolger von der Architektur her müsste Maxwell sein, der sollte ca. 2014/2015 aufschlagen. Dh. sollte AMD mit der HD 7000er nun ein Meilenstein gelingen wie zu Zeiten von Radeon 9700er, dann hat Nvidia lange Zeit kein Kraut dagegen. Aber die lassen sich bestimmt was einfallen, die TDP ist ja durch die Drosselung wieder weit offen und mann könnte eine 300-400Watt Fermi bringen die nur so viel im Durchschnitt schluckt, weil ja der max. Verbrauch gesperrt wurde... :rolleyes:

Nachdem es schon 2 mal komplett nach hinten gegangen ist für NV(GF FX/Fermi) eine neue Architektur und Fertigungsgröße gleichzeitig zu bringen, wird sich NV sputen hier die Kamikaze Aktion von AMD nachzumachen. Ergo Keppler wird nur ein Refresh.

Nun ja, das heißt, es wird also kein Quantensprung werden wie der, der sich eventuell bei AMD ankündigt. Immerhin wird aber nVidia bei gleicher Chipgröße, also bei gleichen Fertigungskosten, mehr Rechenwerke auf dem Chip unterbringen können - sagen wir statt 512 nun 640 und diese, wie den Speicher, eventuell höher Takten können - bei gleicher TDP. Damit wäre ja auch eine Leistungssteigerung im Bereich des Möglichen, trotz 'Refresh". AMD muß jetzt erstmal zeigen, daß man mit dem Architekturwechsel größere Sprünge machen kann. Ich glaube das noch nicht so recht, denn irgendwie sieht das Neue von AMD sehr einem Fermi ähnlich und die superskalare Architektur hat einfach paradigmenbedingt ihre Grenzen.
Wir erwarten immer wieder mit jedem neuen Chip "Wunder", als wenn nun das Wasser den Berg hinauf fließen müßte.
Der anvisierte Quantensprung zum Fermi, den sich nVidia so ausgelobt hatte, blieb ja bei der Einführung aus. Die Spieler hatten so ihre liebe Not mit Fermi I. Allerdings war der 'alte' Fermi als TESLA eine Wucht, da das Design primär am GPGPU Einsatz orientiert war. Wenn AMD das nun ebenfalls schafft und sich endlich auch AMD GPUs in diesem sehr schweren und sicheren Markt etablieren kann, würde mich das sehr freuen - auch wenn der Chip keine Wunder vollbringt, wie von so vielen erwünscht.
Ergänzung ()

twilight schrieb:
[...]
Wenn AMD diese neue Architektur Ende 2011 auf den Markt bringt und Intel (Anfang?) 2012 Knight Corner released, dürfte es im HPC Bereich interessant werden, wie groß die Abstände ausfallen, und wo sich NVidias Kepler einsortieren wird. Mal sehen, ob es möglich sein wird, einen auf 512bit SIMD Units optimierten OpenCl Code zu fabrizieren, der sowohl auf SI als auch Knights ohne weitere Anpassungen performant ist.

OpenCL 1.1 kann offiziell nichteinmal richtig mit "double" umgehen - reserviert für spätere Versionen - heißt es. Dann fehlt es an von vielen Entwicklern geforderten Zeigern auf Strukturen/Funktionen. Auch nicht erlaubt. nVidia hat mit CUDA derzeit ein wirklich nutzbares Monopol, AMDs Anstrengungen mit Streams/CAL sind gefloppt. Intels Knight Corner ist eine Experimentalplattform, bis serienreife produkte und evaluierte Software am Markt sind, wird es noch ein wenig dauern. Und der Konkurrent nVidia schläft nicht, hat er zwei potentiell Gegener, die aufgrund ihrer CPU-Fertigung zumindest für einen gewissen Anteil Leistung der FPU-relevanten Ausführungseinheiten auf eine superskalare, GPU-ähnliche Vektoreinheit auszulagern (Vektorprozessoren scheinen auch im Heimbereich in Mode zu kommen, eine NEC SX-9 im Wohnzimmer ...).
Das sind aber Spekulationen. Bislang ist Fakt, daß man mit CUDA und nVidia hervorragend arbeiten kann: komplexe Filter für die Bildbearbeitung, numerische Bibliotheken, Modellierungssoftware etc.
 
sagen wir statt 512 nun 640 und diese, wie den Speicher, eventuell höher Takten können - bei gleicher TDP. Damit wäre ja auch eine Leistungssteigerung im Bereich des Möglichen, trotz 'Refresh"
Ja klar, eine Leistungssteigerung ist zu 100% sicher, da die gewonnene TDP durch 28nm sofort wieder in Leistung umgemünzt wird bei den Top Modellen. Dh. nicht das die Karten alle mehr Strom schleudern, die Mittelklasse(GTX 660 TI) wird bestimmt viel effizienter als die heutigen, also in der Performance per Watt zulegen. Das es mehr Kerne geben wird bin ich mir nicht so sicher, dafür müsste man den Chip umkrämpeln, ich glaub das wird ein glatter Refresh, mit mehr Takt und noch höherer TDP, noch höher wie die GTX 580. Aber was genau passieren wird hängt auch von AMD ab, NV orientiert sich schon seit GT 200(HD4) an den Radeons, sowohl was Preis, als auch was Speed angeht...
 
Zuletzt bearbeitet:
Ich bin mal auf die Leistung der Grafikkarten gespannt. Wenn man ein günstiges Mittelklasse-Modell, z.B. (wahrscheinlich) HD 7850 die GTX580 bei gleichem Energieverbrauch wie die HD6850 schlagen kann, wäre es Überragend - aber diese Vorstellung ist einfach nur Utopisch. Wenn so die Leistung zwischen eine GTX 560 ti und einer GTX 570 erreicht wird, wäre es vielleicht noch machbar.

Aber, diese ganzen Mutmaßungen bringen auch nichts, egal was AMD macht, nVidia wird reagieren.

Sicher ist, dass ich mir in 2-3 Jahren, also mit der übernächsten Generation eine neue Karte holen werde, die dann hoffentlich bei relativ geringem Stromverbrauch die Leistung eine HD6990 als Singe-GPU erreicht, und "nur" 150€ Kostet. Das wäre, wenn man sich den bisherigen Verlauf anschaut, sogar problemlos möglich. Ich hoffe nur, dass PCIe 2.0 dann nicht all zu sehr bremst.

Naja, weiter so AMD, und, verbessert bitte die Treiber etwas ;)
 
Eisenfaust schrieb:
OpenCL 1.1 kann offiziell nichteinmal richtig mit "double" umgehen - reserviert für spätere Versionen - heißt es. Dann fehlt es an von vielen Entwicklern geforderten Zeigern auf Strukturen/Funktionen. Auch nicht erlaubt. nVidia hat mit CUDA derzeit ein wirklich nutzbares Monopol, AMDs Anstrengungen mit Streams/CAL sind gefloppt.
Die Frage entsteht, ob Stream/CAL deshalb "gefloppt" ist, weil AMD sich primär auf diese Architektur konzentrierte, die dann in Fusion reinkommt und besser reinpasst als VILW.

Eventuell wird diese Architektur schon seit Mitte 2006 entwickelt, wo R600 beim Architektur-Design-Team feritig wurde und Fusion (& Bulldozer) präsentiert wurde.

Wobei AMD da aufholt.
Nicht nur kommt Double-Precise ab August voll in OpenCL und sondern AMDs-Marktanteil steigt und liegt schon bei 85%, auch wenn es momentan auf diesem Wert wieder stagniert.
Nicht umsonst stagniert Nvidas Profi-Markt-Umsatz (Tesla + Profi-Karten) bei 200 Mio.$

@Kasmopaya
Es kann immer noch was schief gehen bei AMD-GPUs, auch wenn AMD in den letzten beiden Umstiegen auf kleinere Fertigungen erheblich besser & schneller war.
Wenn es diesesmal wieder so gut klappt, dann wird es für AMD sehr interessant, da sie heute eine viel bessere Marktposition haben als damals.
 
Kasmopaya schrieb:
sollte AMD mit der HD 7000er nun ein Meilenstein gelingen wie zu Zeiten von Radeon 9700er, dann hat Nvidia lange Zeit kein Kraut dagegen. Aber die lassen sich bestimmt was einfallen, die TDP ist ja durch die Drosselung wieder weit offen und mann könnte eine 300-400Watt Fermi bringen die nur so viel im Durchschnitt schluckt, weil ja der max. Verbrauch gesperrt wurde... :rolleyes:

Nachdem es schon 2 mal komplett nach hinten gegangen ist für NV(GF FX/Fermi) eine neue Architektur und Fertigungsgröße gleichzeitig zu bringen, wird sich NV hüten hier die Kamikaze Aktion von AMD nachzumachen. Ergo Kepler wird nur ein Refresh.

Naja, rein technisch ändert sich zu wenig damit ein Meilenstein gelingt(ich nehme an du meinst performancemäßig?).
Laut Nvidia ist der Fermi so modular das man die Architektur noch Jahre nutzen kann ohne ans Leistungslimit zu gelangen.

Und bei der Frames pro Watt Wertung waren die AMD-69xx auch nur minimal vor den NV-5xx.
Ich gehe davon aus das Nvidia wie in der Vergangenheit die Krone halten wird aber AMD durch seine guten Produkte die Preise im unteren Highendbereich gut drücken kann.
 
Zuletzt bearbeitet:
Die Geometrieberechnungen laufen auf Southern Island zukünftig parallel ab, was der Tessellation-Leistung zu Gute kommen wird. Die traditionellen SIMD-Einheiten gibt es nicht mehr. Deren Aufgabe wird nun von „Compute Units“ (CU) übernommen. Jede CU besteht aus einer skalaren Einheit sowie vier unabhängigen SIMD-Einheiten. Die CUs sollen theoretisch ähnlich leistungsstarkwie eine Cayman-SIMD sein, dabei jedoch deutlich effizienter arbeiten können, um die Rohleistung besser in Geschwindigkeit umzuwandeln. Ähnlich wie bei Nvidias Fermi-Generation wird Southern Island in sämtlichen Speichern eine ECC-Fehlerkorrektur unterstützen.
Da ist nen Schreibfehler.

Ich hoffe man das die NV gute Paroli bieten können.
 
Kasmopaya schrieb:
Dh. nicht das die Karten alle mehr Strom schleudern, die Mittelklasse(GTX 660 TI) wird bestimmt viel effizienter als die heutigen, also in der Performance per Watt zulegen.

Das war jetzt aber ein Sprechblase :)
Alle Karten werden mehr Performance per Watt haben, die werden alle effizienter, das erwartet man doch per Shrink, gleichviel Watt, mehr Performance(Takt etc.).

eine 660 wird vermutlich am effizientesten Arbeiten, weil eine 680 z.B. 30% mehr elektrische Leistung für 20% mehr Performance braucht, aber dennoch wird ja eine 680, bei 0% steigerung der Leistungsaufnahme XX% mehr im Performance bereich bieten können.

PS: ich nehme an, das meintest du, aber wollts mal gesagt haben :)
 
Und bei der Frames pro Watt Wertung waren die AMD-69xx auch nur minimal vor den NV-5xx.
ca. 40%(HD 6950 v. GTX 580) sind nicht minmal, das sind Welten. AMDs Cayman sind im Top Bereich, NV Karten sind am unteren Ende. Sollte AMD wieder deutlich zulegen dürfte es bei NV bis Maxwell dauern bis die da ran kommen. Also Jahre... http://www.techpowerup.com/reviews/ASUS/GeForce_GTX_580_Matrix/28.html

Laut Nvidia ist der Fermi so modular das man die Architektur noch Jahre nutzen kann ohne ans Leistungslimit zu gelangen.
Wie gesagt, nichtmal das TDP Limit ist schon erreicht, wartet mal auf eine 300Watt single GPU Fermi und sie wird kommen... :rolleyes:
Anders als mit Strom schleudern wird NV nicht dagegen halten können, aber die grünen sind immer für eine Überraschung gut. Warten wir mal ab. Vielleicht flopt SI, gut möglich...

Alle Karten werden mehr Performance per Watt haben, die werden alle effizienter, das erwartet man doch per Shrink, gleichviel Watt, mehr Performance(Takt etc.).
Garantiert ist das nicht, guggst du AMD 65nm CPUs, der war übelst schlecht, oder 80nm bei HD 2900XT. Der Fertigungsprozess war so verhunzt, die Dinger stagnierten oder waren ineffizienter als die Vorgänger.
Jetzt muss erstmal TSMC die 28nm Fertigung gut hinbekommen...
 
Zuletzt bearbeitet:
aylano schrieb:
Die Frage entsteht, ob Stream/CAL deshalb "gefloppt" ist, weil AMD sich primär auf diese Architektur konzentrierte, die dann in Fusion reinkommt und besser reinpasst als VILW.

[...]

Wobei AMD da aufholt.
Nicht nur kommt Double-Precise ab August voll in OpenCL und sondern AMDs-Marktanteil steigt und liegt schon bei 85%, auch wenn es momentan auf diesem Wert wieder stagniert.
Nicht umsonst stagniert Nvidas Profi-Markt-Umsatz (Tesla + Profi-Karten) bei 200 Mio.$

Deiner Argumentation kann ich leider nicht ganz folgen, es ist schwer zu verstehen!

Stream/CAL ist und war für die Entwicklung alltäglicher Software zur Übertragung komplexer Berechnungen auf die GPU zu kompliziert. CUDA ist da wesentlich einfacher und transparenter.
Für FUSION und Nachfolger soll OpenCL der Standard werden. Leider gibt es nur recht wenig OpenCL Software, geschweige denn ein vernünftiges Entwicklungssystem.
 
Kasmopaya schrieb:
Aber eins muss man schon sagen, AMD geht auf maximales Risiko, HD 7000er mit 28nm und einer neuen Architektur, Bulldozer in 32nm und high-K Metal Gate und einer neuen Architektur.

Stimmt schon, viel auf einmal. Wenigstens konnten Sie Ultra-Low-K-Dielektrikum mit dem Phenom X6 schon mal testen und das hat ja einiges gebracht.

Wenn das High-K für die Gates dann auch noch hinhaut gibts vll Party. :)
Haben die das eigentlich beim Llano auch schon drin?

Hätte ja sowieso erwartet, das die vll einen Phenom II als Test damit noch raushauen, aber das war wohl zu Zeit und Kostenintensiv.

Egal in ein paar Wochen wissen wir mehr.

HD7er und meine 4890 wird wohl in Rente gehn oder es wird mal wieder ne NV wer weiß. :)
 
Uiuiui AMD traut sich ja einiges dieses Jahr, war aber auch bitternötig, denn seit dem "schwarzen Jahr 2006" haben die ja eigentlich nur bestehende Techniken weiterentwickelt, wenn auch sehr eerfolgreich wie mn sieht.

Werd dann wohl in den Sommerferien schön arbeiten gehen, damits mit der 7970 und nm FX8000 klappt^^
 
Kasmopaya schrieb:
Aber eins muss man schon sagen, AMD geht auf maximales Risiko, HD 7000er mit 28nm und einer neuen Architektur, Bulldozer in 32nm und high-K Metal Gate und einer neuen Architektur. Guggt euch mal Intel an, high K mit dem 45nm Core 2 refresh Chips, 22nm 3D Fertigung mit Sandy Refresh Chips. Aus gutem Grund, das was AMD als Doppelschlag da plant ist total verrückt. Extrem übermächtig wenns gut geht, kompletter Mist wenns schief geht. Na dann mal viel Glück AMD...

Hinzu kommt, dass mit Zacate und Llano dieses Jahr die ersten richtigen APUs überhaupt gebracht haben. Aber wenigstens da haben sie was gelungenes hervorgebracht, wodurch ihre Marktanteile durch OEM-Verkäufe auch steigen werden, zumindest im CPU Segment, wenn, wie von mir erwartet, Bulli und SI floppen. Naja, wir werden es sehen. Hoffen tue ich natürlich für AMD das beste, zumindest bei Bulli, denn wenn SI wirklich entgegen aller Vorzeichen übermächtig werden sollte, könnte AMD Nvidia aus dem Grafikmarkt kicken und dann werden die Preise überhoch. Ich bin sicher nicht der einzige, der beobachtet hat, dass, seitdem AMD im Grafikmarkt wieder die Nase vorn hat, die Preise massiv angezogen wurden.
 
nichts gegen GPU-Computing, aber das hört sich nach einem Fermi-Fail an.

Auf zwei Hochzeiten tanzen zu wollen (Server + Gaming Markt) endet zumindestens für die Gamer nicht gut :(
 
Zurück
Oben