News AMD sucht Heil in Enterprise, Embedded und Semi-Custom

Man muss bedenken das AMD ja ein viel kleineres Budget als Intel hat. Wenn dann mal eine Investition nicht gleich zündet kommt man schon ins rudern. Marketing technisch sind sie ein Flop, das geb ich gerne zu. Weiß gar nicht, wann ich das letzte Mal einen Spot von den gesehen habe bzw. haben die schonmal überhaupt einen gemacht???

Ich denke jedoch, dass die Umstrukturierung mittelfristig besser sein wird und sich auch den Zahlen niederschlägt. Die Ideen die sie haben sind ja durchweg gut. Müssen natürlich auch verkauft bzw angepriesen werden.
 
@Phanos:

AMD hat seit sehr langer Zeit rote Zahlen geschrieben mit nur kurzen Unterbrechungen in der Gewinnzone. Unter diesen Bedingungen schmeißt man kein Geld in die Entwicklung von SoCs, wenn man nicht sicher weißt, dass der Bedarf für eben diese SoCs am Ende der Entwicklung nicht noch vorhanden ist. Bei den ganzen Smartphones/Tablets war das alles andere als sicher, dass der Markt so lange Zeit derart zuverlässig Gewinne abwerfen wird. Insofern ist es verständlich, dass AMD kein fremdes Geld in diese Entwicklung gesteckt hat. Zudem der Markt der ARM SoCs im mobilen Bereich auch vor Jahren schon sehr gut besetzt war. Es wäre also doppelt deppert gewesen in einen Bereich vorstoßen zu wollen, wo die Konkurenz schon sehr stark vertreten ist. Schau dir nur Intel an, die haben an sich brauchbare SoCs, 1a Treibersupport, 1a Referenzplattformen und bekommen ihr Zeug trotzdem fast nur los, weil sie ihre SoCs verschenken (oder besser, die zahlen drauf!).
 
Phanos

Intel wollte anfangs auch stark in den Smartphone Sektor einsteigen. Was ist passiert ? Mittlerweile versuchen sie es auch nur mehr in größeren Geräten und auch NV tut sich sehr schwer, obwohl sie immer ihre GPU als Heilbringer anpreisen und ständig versuchen ihre GPU an dritte zu lizenzieren.

Der Grund ist einfach. So ein Smartphone SoC besteht ja aus mehr als nur CPU und GPU. Smartphone brauchen Modem, für zum Beispiel LTE. Auch muss man sehr viele sachen lizenzieren ect. Da kann man nicht einfach von heut auf morgen sagen, wir machen jetzt mal einen Chip.
Was AMD hätte machen können, wäre frühzeitig GPU Design zu entwickeln und diese dann an Dritte zu lizenzieren. Stattdessen hat AMD sogar damalige GPU Design verkauft, die dann Qualcomm aufgekauft hat. Deren GPU heißen ja ADRENO, da es ein Anagramm von RADEON ist.

Ich denke aber, dass AMD durchaus eine neue Nische gefunden hat. Neben embedded wo HSA durchaus interessant sein kann und besonders Semi-Custom wie zum Beispiel Chips für Konsolen wo ebenso HSA-APUs von interesse sein kann, kann AMD verstärkt mit einem ARM Design sich bei Server versuchen. Den klar auch andere können ARM lizenzieren, aber AMD hat trotzdem weit aus mehr Erfahrung im Server Sektor, als jemand der neu einsteigt.
Viele glauben auch ARM-Design taugt nur für kleine Chips, aber besonders IBM zeigt ja mit deren RISC Architekturen, dass man da sehr wohl sehr gut gegen X86 anstänkern kann.

Persönlich hoffe ich doch sehr, dass die Aufspaltung von Server und X86 so passiert wie ich es mir erhoffe. Fette Many Core ARM Prozessoren die die aktuellen Opteron ablösen, billiger, effizienter und schneller sind und für den Desktop optimal angepasste X86 Prozessoren, die wie bei Intel von Tablets bis Desktop verwendbar sind. Die aktuellen Intel Desktop I7 sind ja auch nichts anders als Notebook-CPUs. Und mehr Cores wird man erst sehen, sobald mehr Cores in Notebooks sinnvoller sind.
 
Zuletzt bearbeitet:
Wirklich immer wieder erstaunlich, wie viele Kommentare solche Meldungen unter sich vereinen können.

Ich finde es zunächst einmal ärgerlich, dass Carrizo anscheinend auch nicht im FM2+-Sockel kommt, da ich den für mein aktuelles Projekt wegen der Texturkomprimierung und HSA 1.0 Features gut hätte gebrauchen können.

Was vor allem den Marktanteil von AMD angeht... es ist wohl ein Musterbeispiel dafür, wie viel Marketing eigentlich ausmacht. Wobei sich AMD da mit diversen Aktionen nun wirklich nicht geschickt anstellt, ihr geringer Anteil im Prozessormarkt ist nicht wirklich- und der im Grafikkartenmarkt ist überhaupt nicht gerechtfertigt. AMD bringt viele vor allem sinnvolle Innovationen in den Markt und an den jeweiligen Preisen von Nvidia, speziell was (noch) konkurrenzlose Hardware angeht, kann man sich denken, wohin die Reise geht, wenn es weiter so läuft wie bisher.

Man sollte AMD vielleicht tatsächlich ganz offiziell mal Bescheid geben, dass sie sich ihren Markennamen überlegen sollten.
 
AMDs Situation nur auf das Marketing zu schieben ist doch sehr kurz gegriffen und die Ursache der Miesere ist doch klar: Statt sich um effiziente x86 Kerne mit hohen IPC zu kümmern, hat AMD schon lange seine Resourcen auf die APUs konzentriert und bei Bulldozer voll danaben gegriffen und auch noch viele Hoffnungen geweckt, die dann böse enttäuscht wurden.

Leider scheint mir die Su nicht zu sehen, dass eine effiziente CPU Architektur die Grundlage aller erfolgreichen CPUs und APUs ist und hier der Forschungsschwerpunkt liegen muss, dann kommen Erfolge bei Server-CPU und Semi-Custom-Designs von selbst. Für den Embedded Markt mag ARM geeignet sein, aber ob es für Server mehr als eine Randerscheinung bleiben wird, ist mehr als fraglich und der normale Desktop User wird bei x86 bleiben, einfach weil die Mehrzahl seiner Programme darauf laufen.

Wenn AMD da nicht gewaltig aufholt, wird es schlecht um deren Zukunft aussehen.
 
Holt schrieb:
... Statt sich um effiziente x86 Kerne mit hohen IPC zu kümmern, ...
Meinst du per Cycle oder per Core? Per Core ist imho im APU-Markt völlig irrelevant, da beim Schubsen von Word-Dokumenten selten jemand das CPU-Limit bemerkt. Was aber dem Word-Excelaner irgendwann auffällt, ist, dass auf einem Intel-Atom von 2009 beispielsweise das Gnome-3-Startmenü nicht mehr ohne Sekundenlange Wartezeit geöffnet werden kann, weil die Atom-GMA-Kombi den simplen Einblendffekt nicht ansatzweise flüssig gerendert kriegt, während das gleiche auf einer Kombination von AthlonXP und Radeon9700 - in beiden Fällen mit 128 MiB VRAM - kein Problem darstellt. Und das, wo Intel keinen schlechteren Ruf hat, was die Open-Source-Grafiktreiber angeht - die GMA IGP ist einfach nur schlecht, und die von 2009 darüberhinaus unterirdisch unbrauchbar.
 
tm0975 schrieb:
vieles steht und fällt mit der nächsten fertigungsstufe bei GloFo (14 nm). solange die nicht läuft, gibs nicht wirklich neues von amd. es wird aber gemunkelt, dass die 14 nm bei samsung bereits gut läuft und es bei glofo, die ja den prozess von samsung lizenziert haben, auch in kürze losgehen wird. neue produkte sind laut amd ab den q2 geplant. mehr zum thema wird amd am 6.5. bekanntgeben.



hast du mal darüber nachgedacht, was dir 100 fps bringen, wenn dein monitor mit 60 hz arbeitet? es bringt gar nichts. intel ist für balken-prozer. derjenige der davor sitzt, merkt nichts. man kann sehr günstig mit einem 860k spielen, aber auch mit einem fx 6300. eine gute grafikkarte dazu und gut ists. so gut wie niemand braucht fürs spielen wirklich die mehrleistung von intel. aber fürs ego scheinen es viele zu brauchen...

Es geht nicht nur um die Performance. Die Intel CPUs benötigen weniger Energie und somit sind die Stromkosten geringer. Zudem muss ich sagen, dass ich nicht alle meine Anwendungen beende, wenn ich ein Game zocke. Vielleicht sollte man einen Tag lang mit einem aktuellen Core i7 arbeiten, dann merkt man den Unterschied recht schnell. (meine Meinung mit Erfahrung)
 
Bert schrieb:
... somit sind die Stromkosten geringer ...
Wenn man das so binär fasst, dann ja, aber wie relevant das auf der Stromrechnung am Ende wirklich ist, ist nicht binär ausdrückbar. Zumal ich mir gar nicht sicher wäre, dass ein überdimensionierter i7 beim Zocken wirklich weniger verbraucht, als ein 6300 oder 8320.
 
pipip schrieb:
Phanos
Persönlich hoffe ich doch sehr, dass die Aufspaltung von Server und X86 so passiert wie ich es mir erhoffe. Fette Many Core ARM Prozessoren die die aktuellen Opteron ablösen, billiger, effizienter und schneller sind und für den Desktop optimal angepasste X86 Prozessoren, die wie bei Intel von Tablets bis Desktop verwendbar sind. Die aktuellen Intel Desktop I7 sind ja auch nichts anders als Notebook-CPUs. Und mehr Cores wird man erst sehen, sobald mehr Cores in Notebooks sinnvoller sind.

Das wird ein Traum bleiben, wie die c't köstlich in der aktuellen Ausgabe schrieben: Bis jetzt hat keinerlei geliefert sondern immer nur heiße Versprechungen geliefert. Ob AMD, Applied Micro, Cavium oder gar Calxeda die pleite sind hat jeder nur Ankündigung und versprechen gebracht und nichts ist daraus geworden. Nur heiße Luft! Alle haben nach einigen Jahren die Segel gestrichen und so wird das auch mit ARM Server bei AMD. Das ist ja auch nicht verwunderlich, denn sonst wären jeher konkrete SPEC Einträge aufgetaucht die Leistung zeigen, davon gibt es aber in der Liste CPU2006 keinen einzigen.

Das Testmuster A1100, dass AMD heise vor einem Jahr fest versprochen hatte ist im Bermudadreieck verschollen und nicht mehr aufgetaucht.
 
BOBderBAGGER schrieb:
Leider ist die AM3+ Plattform recht angestaubt es gibt nur eine handvoll brauchbarer (z.T. sehr teure) Bretter zu kaufen und will man was in einem kleinen Formfaktor haben kann man die suche sofort einstellen. Hier muss dringen was passieren.

Dann solltest du vielleicht mal ein wenig genauer hinschauen ;-)
Asus hat sehr viele gute Bretter im Angebot, auch für deutlich unter 100€
Verstehe sowieso nicht, wieso die Leute die sich eine CPU für über 200€ kaufen so dermaßen am Mainboard sparen...

DocWindows schrieb:
Ich bin zufrieden mit meiner GTX 670 und dem Xeon 1245v3. Nicht mehr und nicht weniger.
Aber ich bin auch jemand der bedauert dass mir AMD nichts anbieten konnte was für mich persönlich passte.
Und ich finde es nicht ok wenn einem Ignoranz oder irgendein Egotrip vorgeworfen wird, nur weil man nicht das billigste Produkt gekauft hat. Oder weil man nicht nach den Kriterien gekauft hat die andere für sinnvoll halten. Oder wenn man z.B. Wert auf PhysX legt und sich dafür anpupen lassen muss.

Ich finde deinen Beitrag sehr amüssant. :)
Erst behauptest du, dass sich die Leute rechtfertigen müssen die einen AMD gekauft haben. Dreht man dann aber den Spieß mit dir rum, so bist du plötzlich ganz scheinheilig und jeder soll ja das kaufen was er möchte :freak:

Außerdem ist es ziemlich frech von dir von dem billigsten Produkt zu reden. AMD bietet aktuell das bessere p/l Verhältnis, dies hat nichts mit billig zu tun. Wenn du mehr Geld für eine firma ausgeben magst, die ihre Kunden nur abzockt ist das deine Sache und kannst du auch gerne weiterhin tun. Aber sich dann wieder so scheinheilig zu präsentieren ist absolut daneben :freak:
Im übrigen habe ich auch eine GTX 670 und werde auch weiterhin Nvidia Karten in meinem Rechner verbauen.

DocWindows schrieb:
Du meinst ich hätte zig Euro zu viel ausgegeben für 0% mehr spürbare Leistung? Ganz im Gegenteil. Ich habe sehr wohl Mehrleistung.
Aber es hat echt keinen Zweck die Art dieser Mehrleistung auszuführen. Das habe ich hier im Forum schon 10x gemacht. Sie lässt sich eben nicht in Rohleistung pro Euro darstellen. Und das scheint vielen zu hoch, zu unvernünftig oder zu abwegig zu sein.

Auf die Art von Mehrleistung bin ich aber mal brennend gespannt. Gegenüber einem FX 8350 wohlgemerkt!

ankabo schrieb:

Und was sollen mir deine Links nun sagen? Trollversuch?
Ich sehe eine herausragende MT Leistung und teilweise sehr beschränkte Fazits...
Allein schon die Betrachtung des Stromverbrauchs ist ansich eine Frechheit. Es werden alle Kerne zu 100% ausgelastet und dann wird der Stromverbrauch im Vergleich zu einem i5 angekreidet.
Mach du mal anständiges MT und du wirst sehen der FX zieht Kreise um einen i5 und wieso darf er dann nicht auch mehr Strom ziehen? Bringt er in dem Szenario doch auch wesentlich mehr Leistung...
Weil, wenn die Kerne nicht voll ausgelastet werden, frisst er auch nicht so viel Strom... (was im Alltag die Regel ist)

DocWindows schrieb:
Darüber muss man sich dann aber auch nicht zwingend aufregen. AM3+ ist nun mal in die Jahre gekommen und nicht mehr der Stand der Technik.

Das einzige was man ankreiden könnte wäre, dass pcie 3.0 fehlt. Jedoch macht das Leistungstechnisch nicht wirklich einen Unterschied. Ansonsten sehe ich keinen Grund, wieso die Plattform nicht mehr aktuell sein sollte?

Bert schrieb:
Die Intel CPUs benötigen weniger Energie und somit sind die Stromkosten geringer.
Zu dir kommt auch noch der Osterhase und der Nikolaus?
Im idle nehmen sich die Systeme kaum was und wie oben schon erwähnt im Realbetrieb auch nicht...
BTW wirst du die Mehrkosten, nie durch den Stromverbrauch wieder reinkriegen...

Bert schrieb:
Zudem muss ich sagen, dass ich nicht alle meine Anwendungen beende, wenn ich ein Game zocke. Vielleicht sollte man einen Tag lang mit einem aktuellen Core i7 arbeiten, dann merkt man den Unterschied recht schnell. (meine Meinung mit Erfahrung)

Dann hast wohl auch noch nie einen FX 8350 gehabt, für den ist MT absolut kein Problem....
 
strex: c't 3/15 oder 4/15 und wenn in welchem Artikel?! Bin zuletzt nicht mehr dazu gekommen die Ausgaben durchzulesen :/
 
Tekkenklatsche schrieb:
AMD hat also wirklich für 2015 keine neuen standalone Desktop CPU's parrat? Well done, AMD. So fällt es der Konkurrenz noch leichter. Bei so einer am Kunden vorbei orientierten Entwicklung hat es AMD auch nicht verdient.....sskm.

2016 sollen neue Desktop CPUs raus kommen, Zen hießen die glaube ich ...
 
Tekkenklatsche schrieb:
2016? Dazwischen kommt noch Broadwell und Skylake von Intel......

Davon ist aber nur einer eine neue Architektur und der andere der Shrinke auf 14nm. Auch ist aktuell nur von Boardwell als k-Modell die Rede.
Skylake kommt 2H 2015.

Wann Zen kommt ist unbekannt. Damals sprach Rory Read, dass man ca ab Ende 2015 im Desktop wieder auf Intel aufschließen wird. Halbes Jahr später meinte dann in 18 Monate was aus damaliger Sicht 1 Quartal 2016 sein sollte.
Im Endeffekt vermute ich nur eines, es kommt auf GF an und wie schnell sie ihren 14nm FinFet Prozess der von Samsung lizenziert wurde gebacken bekommen. Als aber GF bekannt gab, dass man die Fertigung von Samsung lizenziert, meinte AMD, dass man davon profitiere. Auch dürfte die Anpassungen auf die jeweiligen Fertigungstechniken für AMD weniger ein Problem sein, wenn man bedenkt mit Synapsis bis 10nm eng zusammen zu arbeiten.
Auch wird hoffentlich wie gesagt die Architektur dieses mal am Desktop angepasst sein.

strex schrieb:
Das wird ein Traum bleiben, wie die c't köstlich in der aktuellen Ausgabe schrieben: Bis jetzt hat keinerlei geliefert sondern immer nur heiße Versprechungen geliefert. Ob AMD, Applied Micro, Cavium oder gar Calxeda die pleite sind hat jeder nur Ankündigung und versprechen gebracht und nichts ist daraus geworden. Nur heiße Luft! Alle haben nach einigen Jahren die Segel gestrichen und so wird das auch mit ARM Server bei AMD. Das ist ja auch nicht verwunderlich, denn sonst wären jeher konkrete SPEC Einträge aufgetaucht die Leistung zeigen, davon gibt es aber in der Liste CPU2006 keinen einzigen.

Das Testmuster A1100, dass AMD heise vor einem Jahr fest versprochen hatte ist im Bermudadreieck verschollen und nicht mehr aufgetaucht.

Der Unterschied ist, dass die jeweiligen Server Chips dem Design von ARM aber kaum unterscheiden. Auch der ARM Server Chip von AMD ist nichts besonders, bis auf dass dieser ein DSP hat. Das wird und kann sich eben erst ab K12 ändern. Es bleibt aber wie gesagt abzuwarten wie K12 aussehen wird. Es ist ebenso möglich, dass AMD ein wesentlich größeres Design für Server entwickelt. IBM macht es mit deren PowerPC nicht anders.
 
Zuletzt bearbeitet:
Diese Diskussion hatte niemals Sinn. Kommentar abgeändert.
 
Zuletzt bearbeitet:
Naja.. lieber bissle mehr Zeit, als nen verfrühten Wurf ala 970 als neuen Speicherkrüppel getarnt als 4GB ... :freak:


Moment... welches Großmaul hat das behauptet?.... Welche Meldung? ... wem interessiert die große Fresse eines Fanboys... und was hat das mit AMD zutun :D?
 
Das war eine News auf PCGH.

Der "verfrühte Speicherkrüppel" ist aber ziemlich erfolgreich, und das zurecht :)
 
Ah... PCGH. Gelesen haste den Artikel aber schon, oder?

Mach mal... die Rote Farbe für dein Gesicht schenk ich dir!



Die italienische Webseite bitsandchips.it hat eine Zusammenfassung von Gerüchten zur R9 380X veröffentlicht,


Der Energiebedarf soll dabei nur um etwa fünf Prozent im Vergleich zum Uber-Modus der R9 290X steigen, womit man im Bereich von 280 bis 300 Watt läge.


Hahaha... neee... HBM spart zwar bis GANZ großzügig um die 60-80W

Aber mit 28nm auch wenn der Prozess von GF verwendet wird, der diesbezüglich besser sein soll, als von TSCM .... aber...

Nene...


Zu deinem " Großmaul " wie du ja selbst geschrieben hast nochmal. Was hat das mit AMD zutun?
 
Zuletzt bearbeitet:
Tekkenklatsche

"Zeit lassen". Solche Aussagen kann man eben nur hier im Forum tätigen, weil wir Kunden sind. Wir wissen aber nicht, wie es mit HBM aussieht und ob es überhaupt Vorteile bringt. HBM ist nun mal was neues und auch eine Herausforderung für Fertigung.
300 Watt ist auch eine relative Aussage. Viele ziehen da dann gleich einen Vergleich zur R9 290X, überlegen sich aber nicht, was hinter 300 Watt TDP stehen könnte. Auch die GDDR5 tragen zur TDP Klassifizierung bei. HBM soll laut Hersteller den Verbrauch aber reduzieren, sodass im Vergleich zu einer R9 290X mehr TDP Budget für die GPU aufgewendet werden könnte. Bsp höherer Takt oder höhere Packdichte.
Auch bleibt es interessant, welche Verbesserungen es geben wird, wie die Packdichte sein wird ect. Das sind nun mal wie erwähnt, auch Herausforderungen, die die Herstellung bewältigen muss.
Die hatte NV nicht. Hier hat man einen L2 Cache verbreitet und die Speicherbandbreite optimiert um einen ähnlichen Effekt wie die des HBM Speicher zu haben. Der Chip ist aber bei NV auch angewachsen, doch ist der Chip so zu sagen einfacher zu fertigen.

300 Watt klingt also nach viel, was aber, wenn die abgespecktere Variante mit 250 watt tdp bereits schneller wäre als die 980 GTX. Dann wäre es nicht mehr so problematisch. Kann aber auch anders kommen, dass sich kaum was verändert.

Am Ende kann ich nur sagen, es bleibt spannend, ob HBM Vorteile bringt, oder eben auch nicht. Kann genauso auch eine schlechte Karte werden. Es weiß aber eben keiner was konkretes. Vor paar Wochen war es nicht mal fix, ob HBM überhaupt geben wird.


BTW. AMD hat auch bekannt gegeben, dass sie den "Mining Boom" überschätzt hatte. Von gewissen Karten hat man noch viel zu viel auf Lager. Deshalb hat man auch in den letzten Quaralzahlen ca 58 mio nur an Lager Kosten gezahlt. Es ist eventuell auch eine Frage, wann man einen Markteintritt der neuen Karten plant.
Die R9 370 könnte aber als erstes dran sein. Diese wird jetzt dann bald 3 Jahre alt und könnte zu seinem Jubiläum durch eine neue Karte ersetzt werden. Mal sehen ob es da bald weitere Gerüchte geben könnte. Dann dürften weitere Karten auch nimmer lange auf sich warten lassen. Die R9 270 und R9 280 könnten aber bald vllt einen stärkeren Abverkauf haben um die Lager schneller zu leeren. Allein aus dem Grund dürfte die R9 285 so teuer sein.
 
Zuletzt bearbeitet:
Zurück
Oben