News Finale Spezifikationen der AMD Radeon R9 290 und 290X

Herdware schrieb:
Sicher... Weil es ja auch absolut absurd wäre, wenn eine neue Grafikkartengeneration mehr Leistung fürs Geld geboten hätte als die alte Generation (die eigene und die der der Konkurrenz). Wann hat es denn sowas jemals gegeben? Neue Grafikkarten, die schneller und/oder günstiger sind als alte. Undenkbar! :lol:

Ernsthaft, wenn AMD es nicht hinbekommen sollte, wesentlich mehr Leistung fürs Geld zu Liefern, als Nvidia seit einem halben Jahr (und mit einer abgespeckten GPU, die seit ca. Mitte 2012 in Serie produziert wird), wäre das für mich extrem enttäuschend. Das ist einfach etwas, was ich von einer neuen Generation erwarte, sonst kann man sich die auch gleich ganz sparen.

Magst du nicht langsam mal eine andere Platte auflegen? Immer das gleiche Lied wird doch irgendwann langweilig.;)
Die 290X wird schneller als die 7970, die 780GTx ist der offizielle Nachfolger der 680GTX und damit als eine Generation mit der 790x anzusehen, es handelt sich um die großen 28nm Chips. Nun ist eben AMD ein paar Monate nach Nvidia auf dem Markt. NAch deiner Ansicht war somit eine 680 also ebenso als überflüssig anzusehen, nur weil sie einige Zeit nach der 7970 erschien und nicht wirklich mehr bot?
 
@Thanok

Ich bin selber Besitzer einer GTX 780 und kann daher das Boost-Verhalten beurteilen.

Und genau dann, wenn wirklich Leistung gebraucht wird, geht's mit dem Boost-Takt in der Regel nach unten, auch ohne OC. Mag sein, dass TT und PT von nVidia zu konservativ gesetzt werden, ändert aber nichts an der Tatsache.
 
Herdware schrieb:
In dem Fall beißen einem aber die für Spiele optimierten Treiber der Consumer-Karten in den Hintern. Diese bewusste Beschneidung (oder Spezialisierung) der Gaming-Karten dürfte in den meisten Fällen auch noch so viel VRAM nicht wieder ausgleichen.

Selbst Low-End-Profi-Karten rennen dank optimierter Treiber in professionellen Anwendungen oft Kreise um dicke Consumer-Karten.
Hier z.B. das besagte Maya. Die alte, kleine Quado 2000 (entspricht ungefähr einer GTS 450) ist darin vier mal so schnell wie eine Titan und kostet halb so viel. Und selbst die günstige 100 Euro-Karte FirePro V3900 (entspricht HD 6570) ist mehr als 3x schneller als die Titan.

Der Witz ist, dass viele Chefs meinen das ein normaler Office PC (400 - 500€) für Maya, CAD völlig ausreichend ist. Darunter waren auch Betriebe aus der IT und/oder Betriebe mit eine 3 stelligen Belegschaft.

Die 580er konnte man mit den Quado Bio flashen, es gab nicht ganz die Leistung aber einen erheblichen Schub zu einer einfachen 580er.

mfg
 
Zuletzt bearbeitet:
aylano schrieb:
a) AMD hat sich garnicht ausgeruht.
Der K7 war schon fast 100% ineffizienter als der Pentium 3, der als Pentium M und Core & Core 2 weiterentwickelt wurde.
Quark. Der Pentium 3 war bei gleicher Frequenz langsamer. Verlustleistung war damals eh noch kein Thema. Der Pentium M war nicht im Desktop Segment und ist weit hinter seinen Möglichkeiten geblieben. Auch konnte selbst das Topmodell für 1000 Euro nicht mit den damals schnellsten XPs mithalten. Davon aber mal ab rede ich auch gar nicht vom K7 sondern vom K8 (Athlon 64). Der K8 wurde 2003 auf den Mark geworfen und war die Basis für alles von AMD bis hoch zum Phenom 2. Und wir reden hier tatsächlich von Basis. Den Phenom 2 und den A64 trennen architektonisch weniger als die Core 2 und die Core i Serie. Der K10 ist die erste Neuenwicklung von AMD gewesen, solange habe sie sich auf der Lorbeeren von 2003 ausgeruht.

aylano schrieb:
b) Gerade Mantle wird helfen, dass es mehr Multi-Thread-Spiele geben wird.
Erstmal abwarten, wie das läuft. Ich erinnere mich da noch sehr gut an eine Glide-API, die noch zu einer Zeit ohne echte Konkurrenz versucht hat die Spielehersteller auf seine Seite zu ziehen. Heute kennen viel nicht mal mehr den Hersteller. Und nur weil Mutlthreading kommt, heißt das noch nicht, dass die FXs auf einmal aufblühen und ihre Defizite einfach überwinden.

aylano schrieb:
c) Ist AMD kurz davor Steamroller zu bringen.
AMD war auch mal kurz davon Bulldozer zu bringen und was ist raus geworden? Selbst wenn AMD da jetzt noch derbe einen drauflegt, Intel bremst doch momentan aktiv ihre eigene Entwicklung, die werden da schon drauf antworten. Aber zuerst muss AMD erstmal die 20% Leistungsrückstand aufholen ohne ne 250 Watt 6 Ghz Schleuder auf den Mark zu werfen.

Versteh mich nicht falsch, ich mag AMD. Ich habe auch in meinem Server nen FX drin stecken und wo ich kann empfehle ich AMD. Es wird vielleicht für meinen Schwiegervater ein A10 werden, weil er ab und zu kleine Spielchen macht und er sich damit ne extra Grafikkarte sparen kann. Nur werde ich vorerst in keinen ernst gemeinten Spiele PC mit Grafikkarten jenseits der 300 Euro Marke für 20 Euro weniger nen FX verbauen.
 
Zuletzt bearbeitet:
Gummert schrieb:
@maximus_hertus,

mir ging es um die Zwei 128-Bit-FMAC-Gleitkommapipelines pro Modul ... ;-)
Und um nichts anderes.
Den Unterschied zwischen Modul/Kern @AMD und Intel Kernen ist doch lachhaft dass das hier noch immer so betont werden muss. @sHx.Shugo hättest Du ja dann wissen müssen, dass ich auf die 128-Bit-FMAC anspiele... also auch, wieder " verwechselt " nicht wahr, Fail0r ;-)

Haare spalten kann ich auch xD
Selbst wenn du auf die beiden 128-Bit-FMAC's hinaus wolltest, jedes Modul besitzt 2 davon welche bei bedarf als ein 256-Bit-FMAC genutzt werden können.

Tatsächlich ging es aber um die Aussage "Singlecore=2 Moduler", von der Architektur her ist die Aussage aber falsch, da 1 Modul eben aus einer 256-Bit FPU welche bei bedarf in 2 128-Bit FPU's geteilt werden kann, 2 Integercores mit je 2 ALUs und 2 AGUs sowie den Caches und so weiter besteht.

Der unterschied zwischen Intel/AMD-Kernen den ich ansprach war keine Feststellung/Aussage sondern lediglich etwas das ich seit den Bulldozern zunehmend beobachte.

Und bezüglich dem "Fail0r"...ich weiß es ist auf meinen FX-4100 bezogen aber ich kann diese "Kiddy-Sprache" echt nicht ausstehen und lässt deinen Post nur mit dem faden beigeschmack einer "ausrede" bei mir ankommen, auch wenn ich weiß das es KEINE ist.

Und nun lasst uns bitte wieder zum Thema, nämlich die R9 290(X), zurückkommen, ich fühl mich schon wie so n drecks spammer :(
 
@Herdware:
Will ich auch gar nicht wiedersprechen, meine ursprüngliche Frage ob denn doppelter VRAM ohne Leistungseinbussen beim Speicher überhaupt machbar wären ist ja schon längst beantwortet. Ob eine solche Ausstattung nun einen Sinn ergibt oder nicht war mir bei der Formulierung der Frage recht schnuppe...

FirePro, Tesla und co sind in professionellen Umgebungen immer schön und bieten halt auch Vorteile, für den ambitionierten Hobbybastler in 3D sind ja selbst ältere Generationen der FirePro Serie oft besser zu gebrauchen, für eine reine Workstation ist diese Lösung deshalb auch definitiv besser. Aber für viele Halb-Semis ist eine High-End Custom User Karte sicher die bessere Lösung, da deren Rechner eben nicht nur reine Worksstations sind.

In letzterem Fall sind 8GB VRAM einfach "Nice2Have" und sicherlich kein Argument für AMD dort die Prioritäten zu setzen, but who cares, wie schon gesagt wurde, wirds sicherlich einen Partner geben der auf die 290(x) 8GB klatschen + 6 Mini-Displayport und die Welt ist für mich in Ordnung...
 
Rein nach Speziftikationen sieht das doch mal sehr schön und leistungsstark aus.

Die Flop-Leistung liegt aktuell ca. 20-30% über der einer Titan - muss die Karte das auch nur noch wirklich auf die Straße bringen und zeigen, was sie kann :)
Auf die ersten echten Benchmarks bin ich mehr als gespannt.
Konkurrenz schadet nie und da bin ich auch sehr gespannt, was nVidia gedenkt nachzuliefern, ob es eine Titan Ultra wirklich geben wird, wo sich diese einordnet, was generell als Reaktion kommt.

Aber gerade im Hinblick auf die 270/280X dürfte es für Kaufwillige doch besser sein zur 7970(GHz) zu greifen, da diese einfach schneller und wohl derzeit auch günstiger ist (wegen Abverkauf), wie es den Gerüchten nach die o.g. Karten werden. Wäre mein Phenom nicht überfordert mit der 7970(GHz), hätte ich mir eine gegönnt, da es aktuell nichts Vergleichbares gibt - P/L pur :)
Die 290(X) ist wohl jenseits meines Budgets, das ich in eine Graka stecke, da mir deren Lebenszyklen zumeist etwas zu kurz ausfallen, was derzeit - die Frage ist wie lange noch - bei den CPUs anders ist.


Was mir aber nach wie vor etwas dubios erscheint, ist und bleibt Mantle mangels Informationen zur genauen Arbeitsweise, grundsätzlich fehelnder Infos dieser API. Alles, was bisher hierzu genannt wurde seitens offizieller Stelle, ist mehr oder weniger Marketing, welches durch einen Menschen von Dice, der eben auf die

Wie in dem vom Amok_Sepp auf der ersten Seite geposteten Link zu lesen ist:
http://www.pcgameshardware.de/Spiel...D-Mantle-Microsoft-Gespraeche-Nvidia-1091267/

Seltsam finde ich die Aussagen, dass es wohl doch mit Dx weitergehen und dieses gar nicht durch Mantle ersetzt werden soll, obwohl doch AMD noch vor ca. einem halben Jahr verkündet hat, es werde kein neues Dx mehr geben.

Auf die Frage, wie denn Microsoft auf Mantle reagiere, sagte Koduri: "Ich kann natürlich keinen Kommentar über Microsoft abgeben, aber ich kann sagen, dass wir eine großartige Beziehung zu Microsoft haben. Wir sind einer der besten Partner, was den Fortschritt bei DirectX angeht. Wir entwickeln DirectX weiter, arbeiten mit Microsoft an jeder Version von DirectX und werden das auch weiterhin tun. Offensichtlich würden wir sie nicht mit etwas wie Mantle überraschen." Man müsse zwischen den Zeilen lesen.

Mantle ist allerdings zumindest aktuell kein offener Standard, sondern ein "Industrie-Standard", wie der ebenfalls anwesende PR-Chef Chris Hook anmerkt. Koduri ergänzt: "Wir sind vielen Möglichkeiten gegenüber offen, was Mantle betrifft. Wir sind offen für Offenheit, wir sind offen dafür, ein Standard zu sein. Wie es sich entwickeln wird, wenn unser Konkurrent zu uns kommt und sagt 'Wir wollen mit Mantle kompatibel sein'? Das ist ein Gespräch, dem wir nicht ausweichen würden." Da Mantle mit Hilfe von Spiele-Entwicklern entworfen wurde, sei es auch nicht auf eine einzige Architektur festgelegt.

Demnach wurde Mantle bei der PK zur Vorstellung doch etwas "verflunkert" dargestellt, da es in meinen Augen so präsentiert wurde, als wäre es ab heute für jeden zu haben, nun aber etwas zurückgerudert wird, das Wort "Industrie-Standard" und nicht mehr "offener Standard" und eben teilweise auch die Architektur Problematik angesprochen wird.

Auch die der Artikel von planet3dnow, der einem Gespräch mit AMD enstammt, finde ich doch etwas bitter im Nachgeschmack:
http://www.planet3dnow.de/cms/3941-amd-verrat-etwas-zur-mantle-true-audio-und-steambox-strategie/

Etwas doppeldeutig wurde erklärt, dass nach AMDs Denkweise nichts dagegen sprechen würde, wenn jemand anders seine eigene Version von Mantle entwickeln würde, indem sie den AMD-Weg einfach kopierten und den gleichen, tieferen Hardwarezugriff auf ihre eigenen Chips zulassen würde. Im Original:

„Our thinking is: there’s nothing that says that someone else could develop their own version of Mantle and mirror what we’ve done in how to access the lower levels of their own silicon. I think what it does is it forges the way, the easiest way.”

Das ist sicherlich die Wahrheit, kompatible wäre so etwas dann aber natürlich nicht. Schließlich unterscheidet sich die Hardware aller Mitbewerber.

Die Frage, die sich mir aber letzten Endes stellt, ist: Wie viel Mantle ist ein Mantle, das auf nVidia oder Intel hin entwickelt wurde? Wieviel Vorzüge bleiben bei der Version des einen Hardware-Herstellers für den anderen übrig - was profitiert ein nvidia-Mantle von AMD-Mantle und umgekehrt? Zersplittet letzten Endes doch der ganze GraKa-Markt durch Hardware-bezogene Features, um dann letzten Endes doch wieder bei Dx zusammenzutreffen? Droht durch zig Standards, die von Spieleentwicklern erfüllt werden müssten, um überall gute Performance zu erzielen doch aufgrund finanzieller Aspekte die Akzeptanz von Dx als neuer alter Standard? Oder wird Mantle hauptsächlich aufgrund der 100% Verbreitung unter den Konsolen eine Port-/Konsolen-Spiel-API und für die verbleibenden PC-Only-Titel mit anderer Engine ist es dann gänzlich uninterssant aufgrund von Kosten, Inkompatibilitäten oder Zielgruppen-Struktur?


Ich bin auf jeden Fall sehr gespannt, was letzten Endes mit der 290(X) und Mantle herauskommt, wohin die Reise für uns Spieler geht und hoffe im Hinblick auf die verschiedenen Standards, dass es tatsächlich mehr in Richtung offen für alle und nicht offen für wenige geht - letzteres ist für mich eher proprietär.


Worauf ich gespannt bin, was aber OT wird, ist die Situation und die Modell-Palette um Steamroller für den Dekstop-Markt und hUMA/HSA.
Wieviel wird Steamroller wirklich können, wiviel wird er schneller werden (gerade hier wurden wohl viele von AMD (leider) mit Bulli mehr als enttäsucht, nachdem dort teilweise die über-CPU gesehen wurde)? Wird die APU eine CPU ersetzen/ergänzen - wie werden etwaige Modelle überhaupt aussehen (8Kerne + GPU, 4 Kerne, Modul-Bauweise, Zielgruppe, Leistungsprofil,..)? Wird sich die massive Parallelisierung tatsächlich gegen die bisherige Domäne weniger Threads auch bei CPU-Prozessen (bei GPUs klappt das wunderbar, ist aber auch anders ausgerichtet) bestehen/ersetzen/erweitern? Was wird all das letzten Endes für die Leistung heißen oder wird doch alles eine Totgeburt?
 
Zuletzt bearbeitet:
e n v i d i a schrieb:
Machbar ja, jedoch mit Performance Verlust. Würde mich auch über 8 GB freuen. Natürlich nicht zum spielen.



Da hast du natürlich Recht. Was Intel schon alles verbrochen hat geht gar nicht. Ich würde es AMD auch sehr wünschen wieder richtig auf Kurs zu kommen. Trotzdem soll Mantle Hardware- übergreifend sein. Naja, die 290x wird wohl meine werden leider wohl ohne Mantle :( dank meinem I7.

Wieso dank deinem I7? Mantle läuft doch nur auf der GPU?! Ich hab auch nen i7 3930k hab ich jetzt irgendwo übersehen dass ich mantle nicht benutzen kann?
 
5.6 GFLOPS hm.... die 7970ghz hat ja knappe 4.1GFLOPS und die Titan 4.5GFLOPS. Würde man die Titanvon 837 auf 1050mhz übertkten hätte man auch 5.6GFLOPS.
Vermutlich sind die 5.6 bei AMD auch mit 1000mhz berchnet.

Freuen wir uns mal auf die Reviews.... wenn die Testing Samples über 1400mhz kommen, dann dürften die verkaufs versionen alle über 1250mhz machen ^^
Dann wäre man bei 6.7 anstatt 5.6 GFLOPS, da bereits GCN beinahe 1:1 mit dem takt hoch skaliert hat dürfte man wohl auch hier wieder ordentlich was raus ziehen können.

In 7 tagen wissen wir mehr :cool_alt: :ungeduldig


GrooveXT schrieb:
8GB wären machbar und würden sicherlich nichts an der Performance ändern, egal in welche Richtung. Ich denke mal das 4GB aber für so ziemlich alles ausreichen sollten. Selbst ein Eyefinity System mit 6 Monitoren und 8xAA sollte locker mit 4 GB auskommen können. Da die Karte auch keine Wunder bewirken kann, wird wohl eher der Chip limitieren als der RAM.

Wenn man bedenkt das die PS4 8gb share memory hat, wäre man mit 8gb sicher besser bedient für die nächsten 3 jahre. Wobei... nach 3 Jahren ist die GPU sowieso *alt* und wird ersetzt.

john carmack schrieb:
Sapphire wird bestimmt anfang 2014 eine "R9 290X Toxic 8GB" bringen
Ehja.... also wenn es eine Sapphire Toxic wird, dürfte Juli/August 2014 wohl ein realistischeres Datum sein!
 
Pilstrinker schrieb:
@Thanok

Ich bin selber Besitzer einer GTX 780 und kann daher das Boost-Verhalten beurteilen.

Und genau dann, wenn wirklich Leistung gebraucht wird, geht's mit dem Boost-Takt in der Regel nach unten, auch ohne OC. Mag sein, dass TT und PT von nVidia zu konservativ gesetzt werden, ändert aber nichts an der Tatsache.


Also ich habe auch eine GTX 780, und zwar die Referenzkarte von EVGA, ohne OC auf Standardtakt 863Mhz, ich habe sie übertaktet und sie läuft mit Boost konstant bei 1150Mhz, ohne an der Voltage gedreht zu haben....eventuell hast Du einfach eine "schlechtere" Karte bekommen.

BF3, Crysis 3, Bioshock Infinite laufen alle mit konstanten 1150Mhz.

@ topic:

Bin richtig gespannt auf die Karten, auch als Nvidia Follower oder Fanboy. Wenn diese 290X mit der Titan mithält müssen die Karten einfach billiger werden. Ich hoffe nicht, dass Nvidia mit nem Titan Vollausbau kontert und die Preise beibehält. Hab ein wenig Vorfreude auf SLI mit ner zweiten, billigen 780:D
 
Andregee schrieb:
Magst du nicht langsam mal eine andere Platte auflegen?

Nein. Das wird mir nicht langweiliger, als die Aussage, dass es völlig zufriedenstellend sei, wenn AMD nach zwei Jahren irgendwas um 20% Leistungssteigerung (bei 18% mehr Die-Fläche) hinbekommt und bei der Gelegenheit die Preise auf das selbe absurde Niveau wie Nvidia erhöht. (Was wohl deshalb in Ordnung wäre, weil AMD ja die Guten sind und alles was sie machen pauschal richtig und perfekt ist und jeder der das anders sieht ist ein Nvidia-Fanboy.) ;)

Die 700er-Generation ist außerdem der Ersatz für den Kepler-Refresh, den es nie gegeben hat. Nicht die nächste große Generation mit neuer Architektur (das wäre Maxwell). Auch die Leistungssteigerung gegenüber der Vorgängergeenration liegt auf dem Niveau eines Refreshs (Ca. 15%.). Deshalb lasse ich Nvidia die große 700er-Umbenennung auch weitgehend kritiklos durchgehen. Bis auf den deutlich zu hohen Preis der GTX780. Die hätte bei ca. 500 Euro starten müssen.

AMDs Gegenstück zu Nvididas 700er-Generation wäre die Sea Islands-Generation gewesen. Die ist aber ersatzlos weggefallen. (Mit Ausnahme der Bonaire-GPU, die schon in der 7000er-Generation vermarktet wurde.)

Mit Volcanic Islands liegt AMD zeitlich vor Nvidias Gegenstück und deshalb auch meine Erwartungshaltung, dass sie erstmal ordentlich vorlegen. Hawaii vereint in sich die Optimierungen der Sea Islands-Generation mit den grundlegenden Überarbeitungen der Archtektur (GCN 2.0) bei wesentlich größerem Die, weshalb ich eigentlich sogar von deutlich mehr als nur 30% Mehrleistung ausgehen würde. (Eher in Richtung 45-50%.) Aber da es beim selben Fertigungsprozess bleibt, sind >30% wohl ungefähr das, was realitisch zu erwarten ist. Aber das eben nicht orientiert an den absurden Titan-Preisen, die in keinem Bezug zum P/L-Verhältnis stehen, sondern im üblichen Rahmen von High-End-Karten.

Was die GTX680 angeht. Nein. Die kam eigentlich nicht zu spät. Sie kam nur unter falschem Namen und deutlich zu teuer! Das ist die große Verar... Vereimerung der Kepler-Generation. Wer nicht sieht, dass die GTX680 eigentlich eine GTX660(Ti) ist und dementsprechend auch halbwegs zum üblichen Termin einige Zeit nach dem Termin der High-End-Modelle kam, macht sich meiner Meinung nach selbst was vor.
 
GrooveXT schrieb:
Quark. Der Pentium 3 war bei gleicher Frequenz langsamer. Verlustleistung war damals eh noch kein Thema. Der Pentium M war nicht im Desktop Segment und ist weit hinter seinen Möglichkeiten geblieben. Auch konnte selbst das Topmodell für 1000 Euro nicht mit den damals schnellsten XPs mithalten. Davon aber mal ab rede ich auch gar nicht vom K7 sondern vom K8 (Athlon 64). Der K8 wurde 2003 auf den Mark geworfen und war die Basis für alles von AMD bis hoch zum Phenom 2. Und wir reden hier tatsächlich von Basis. Den Phenom 2 und den A64 trennen architektonisch weniger als die Core 2 und die Core i Serie. Der K10 ist die erste Neuenwicklung von AMD gewesen, solange habe sie sich auf der Lorbeeren von 2003 ausgeruht.
Richtig, Verlust war damals kein Thema und deshalb erkennt man sehr schnell, ob sich jemand Technisch auskennt, oder nur alte Sprüche nachredet.
Der 65nm-K10 musste damals schon gegen 45nm anlegen.
Die Großen Vorsprünge kamen eben nur, wenn Intel mit der Fertigung deutlich voraus war, was man damals beim K10-B sowie jetzigen Atom und jetzigen Core iX sieht.
Obwohl es so offensichtlich ist, wird das von so wenigen verstanden.

Erstmal abwarten, wie das läuft. Ich erinnere mich da noch sehr gut an eine Glide-API, die noch zu einer Zeit ohne echte Konkurrenz versucht hat die Spielehersteller auf seine Seite zu ziehen. Heute kennen viel nicht mal mehr den Hersteller.
Wenn man anderen Abwarten empfehlt, dann gilt das auch für sich selber.
Glide-API war damals nur für die PC-Games und da hatte 3Dfix keine Macht. Heute ist ein Teil der Spiele auf Konsolen und da hat AMD die komplette Macht. Teilweise werden spiele sogar nur auf Konsolen entwickelt und mit Mantle hat man die Chance sie auf PC zu bringen.
Mantle muss nicht komplett den Markt beherschen, wie es hier so manche tun.

Und nur weil Mutlthreading kommt, heißt das noch nicht, dass die FXs auf einmal aufblühen und ihre Defizite einfach überwinden.
Und genau mit diesen angeblichen Defiziten konnte AMD Intels CPUs und Nvidias GPUs ausknocken.
Übrigens, PS4 war ursprünglich mit Bullodzer geplant, während es doch Jaguar wurde, wo viel Bulldozer-Technik drinnensteckt.

Mit Bulldozer, Jaguar & GCN im Jahre 2011 konnte AMD seit 2006 (ATI Kauf & Bulldozer & Bobcat-Beginn) erstmals die ganze Serie als Eigenentwicklung am Markt bringen und seitdem all ihre Rückstände, die sich noch hatten, dramatisch reduzieren.
2012 hat man sie ausgereift am Markt gebracht
2013 beginnt man schon teils an die Konkurrenz vorbeipreschen, was man damit sieht, dass bei Richland die Gestic-Controlls & Co ignoried und Mantle & True-Audio sowie Konsolen-Margen schlechtredet.

Es so lächerlich, alles bei AMD aus sicht der FX-Only (= Bulldozer-Desktop) zu sehen, weil man AMDs (CPUs & GPUs) im Gesamten dann völlig falsch siehst.

AMD war auch mal kurz davon Bulldozer zu bringen und was ist raus geworden? Selbst wenn AMD da jetzt noch derbe einen drauflegt, Intel bremst doch momentan aktiv ihre eigene Entwicklung, die werden da schon drauf antworten. Aber zuerst muss AMD erstmal die 20% Leistungsrückstand aufholen ohne ne 250 Watt 6 Ghz Schleuder auf den Mark zu werfen.
Wie Mantle sein wird, empfiehlst du andere abzuwarten, aber gleichzeitig bei Bulldozers-Weiterentwicklung a la Steamroller herumzuphilosophieren und dabei den Fertigungs-Rückstand "zufällig" nicht beachten.
Es ist auch lächerlich zu glauben, dass AMD die Entwicklungen bremst, wenn man für CPU-Entwicklungen 4-5 Jahre benötigt.

Es ist nunmal längst Fakt, dass CPU-Only nicht mehr so wichtig ist wie früher, was man auch dadurch erkennt, dass bei Konsolen weder Bulldozer noch Core iX verwendet wird oder es schon lange keine CPU-Only-Servern in den Top 1 @ Top500-Supercomputer gibt.
Bei Top10 @ Top500-Supercomputer sind AFAIK auch schon nur mehr GPGPU-CPU-Server.

Um zur eigentlichen Beantwortung deines Zitats "AMD war auch mal kurz davon Bulldozer zu bringen und was ist raus geworden? " zu gehen.
AMD hat in den letzten Jahren auch die Umstellung von Hand-Desgin auf Automatik-Desgin-Entwicklung gemacht, deren ersten spürbaren Auswirkungen AFAIK erst bei Excavtor zu merken ist. Und das ist eben ein Grund, warum man monentan so wenig sieht, was sich offensichtlich auch bis 2014 durchziehen wird.
Gleiches gilt für die Fertigung, die mit 14XM dann so richtig zu greifen beginnt, weil mit 14XM dann die erste entwickelte Fertigung ist, wo Globalfoundries während der Entwicklung wirklich als Foundry sowie mit wesentlich mehr R&D-Gelder als früher agierte.

Und weil CPU-Only nicht mehr diese Bedeutung von Früher hat, ist es nicht verwunderlich, dass Steamroller bei APU-13 eher als Randerscheinung erscheint.

APU-13 wird folgendes im Detail vorgestellt.
HSA-Kaveri
Mantle
GCN 2.0
Steamroller

Jedes dieser einzelne Technologie kann für eine Mega-Überraschung sorgen.

Versteh mich nicht falsch, ich mag AMD. Ich habe auch in meinem Server nen FX drin stecken und wo ich kann empfehle ich AMD. Es wird vielleicht für meinen Schwiegervater ein A10 werden, weil er ab und zu kleine Spielchen macht und er sich damit ne extra Grafikkarte sparen kann. Nur werde ich vorerst in keinen ernst gemeinten Spiele PC mit Grafikkarten jenseits der 300 Euro Marke für 20 Euro weniger nen FX verbauen.
Das große Geld wird nunmal mit A10-APUs gemacht und nicht von paar Freaks @ Games.
Das war auch schon zur Netburst-Zeit (zumindestens weiß ich es in den letzten Netburst-Quartalen) so, wo Intel mit Pentium-M-CPUs wesentlich mehr Profit durch die Notebook-Sparte machte.
Und die Celeron & Pentiums waren 50% aller verkauften CPUs.

Es wäre ein große Fehler, wenn AMD sich große Mühen in CPU-Only-Desktop-Markt bemühen würde, wenn es da sowieso nicht viel zu verdienen gäbe und sowieso das Fertigungs-Handicap primär 2013 & 2014 gäbe. Deshalb hat es viel Sinn, die Bulldozer-Entwicklung zuerst auf Automatische Entwicklung umzustellen, sowie HSA-APUs rauszubringen.

Im Grunde ist es mir ziemlich egal, wie Steamroller wirklich wird, weil Steamroller noch nicht das Ergebnis vom neuen AMD (= Automatische Entwicklung sowie mit Rory Read) ist. Mich würde es auch nicht wundern, wenn Steamroller @ APU-13 neben HSA-Kaveri (primär Unified-Controller) & GCN 2.0 & Mantle eben nur das 4. wichtigste Produkt wird. Oder gar 5. wichtigstes Produkt, weil einige Gerüchte davon sprechen, dass AMD einen Smartphone/Tablet-SoC mit ARM & GCN heuer noch vorstellen soll.

Dass AMD so eine Schnelle Entwicklugnsgeschwindigkeit hat, erkennt man auch damit sehr gut, dass hier im R9 290X-Thread AMD mit Bulldozer lächerlich schlechtgeredet wird.
Nachdem sich R9 290X mit 2.800-Shader bestädigt hat, können diese Leute halt nicht mehr R9 290X schlechtreden, weil dieser offensichtlich doch den akutellen Titan überholen wird. Viele hofften ja auch einen 2560er-Shader-Hawaii, der vielleicht nicht wirklich am aktuellen Titan verbeigezogen wäre bzw. vor 2 Wochen meinten noch viele, dass Hawaii sich kaum gegen GTX 780 behaupten wird.

Das Problem für die Leute, die AMD jetzt ständig schlechreden müssen ist, dass man nach APU-13 keine lange Durststrecke haben wird, weil alle CPU-Architekturen & GPUs & APUs nächstes Jahr eine Weiterentwicklung bekommen werden.
 
@aylano
Ich habe heute schon einmal so etwas geschrieben, aber ich kann das so unterschreiben. Und nicht wie jetzt manche wieder meinen würden, weil ich ein AMD Fan wäre, sondern, weil es einfach wirklich vernünftig ist was du schreibst und keine leidigen dummen Phrasen wie bei den von dir erwähnten Leuten, die AMD einfach generell schlecht reden. Übrigens danke für deine schönen ausführlichen Texte. Macht Spaß das zu lesen.
 
Na endlich ein paar Infos, 4 GB Speicher sollte auf jeden Fall für meine Belange mehr als genügen, bin schon sehr auf die tasächliche Leistung gespannt und vor allem auf den Preis der R9 290
 
Popopinsel schrieb:
Sollte es nicht richtigerweise 5 Gbps heißen, wie auch in der Folie aufgeführt? Es ist schließlich von die Rede und nicht von der Taktfrequenz.
Richtig. Und 5 Gbps entsprechen bei GDDR5 einem Speichertakt von 2.50GHz bzw. 5GHz "effektiv".

Da ist vermutlich noch reichlich Luft nach oben, wenn man bedenkt, dass der Speicher einer HD 7970 GHz Edition mit 3 GHz (+20%) taktet :)
 
Zuletzt bearbeitet:
@Tschaikowsky/aylano

Ich hab in meiner "Steam-Box" im Wohnzimmer nen A10-6700, was das Ding leistet ist schon beachtlich, reicht für viele Unreal-Engine-Titel in FullHD allemal. Hab mir trotzdem ne 7790 dazu gesteckt weil die in FullHD noch 3x schneller ist (und Faktor 3 für 125,-€ find ich OK), da läuft Shadow Warrior auch auf Ultra. Damit geht dann sogar ArmA3 auf High und 3km Sichtweite. Es ist schon wirklich interessant, wie wenig Geld man ausgeben muss wenn man sich auf "FullHD" beschränkt.

Was ich auch praktisch dabei gelernt habe, wie völlig bedeutungslos die CPU-Performance-Benchmarks allerorten da sind. Ich habe bisher nicht feststellen können dass mich die CPU-Performance des A10-6700 jemals in einem Spiel begrenzt. Für Office, Surfen und Medienkonsum aller Art reicht es ohnehin dicke und das mein Ivy-Bridge beim Zippen ein paar Sekunden schneller ist merke ich in der Praxis nicht wirklich.

Ganz ehrlich, so ein A10-6700 mit ner SSD und nem 80,-€ FM2-Mini-ITX-Board ist ein echter Preis-/Leistungsknaller auch für Gelegenheitsspieler, ne 7790 dabei und man muss sich im Rahmen von FullHD kaum einschränken und verbläst die Nextgen-Konsolen meilenweit.

Ich musste mir da wirklich selber schon an den Kopf packen was ich mir sonst so in meinem "Primär-PC" stecke. Wer sich die dicken i7-CPUs reinsteckt und ne 7970/GTX780 um da "nur" mit in FullHD zu spielen der müsste folgerichtig auch nen Ferrari mit Anhängerkupplung kaufen um nen Güllefass über den Acker zu ziehen.

Und wer sich angesichts des Autovergleichs fast wieder einnässt: Kanonen auf Spatzen, Perlen vor die Säue! Wer im Glashaus sitzt wirft auch kleine Kinder in den Brunnen!
 
Zuletzt bearbeitet: (Weil ich es kann!)
@cat toaster
Hört sich gut an. richtig spannend wird ja kaveri vor allem wegen unified memory. das könnte eine enorm wichtige Innovation werden was Hardware betrifft
 
Bei gleichem Takt werden also 10-15% dazwischen liegen, wird wohl eine 290 non X für mich.
 
Wie sieht es eigentlich mit vram im crossfire aus? Wird da sauber der komplette ram adressiert? Sprich 3gb +3gb = 6gb?
 
Zurück
Oben