News Intel knabbert AMD weitere CPU-Marktanteile ab

Oh man. Alle schreiben Standard mit t aber blubbern wegen knappern... :rolleyes:

Ich denke das AMD nach und nach wieder ein paar Anteile zurückholen kann. Allerdings ist dieses Jahr schon recht gut durch Sandy Bridge abgedeckt, so das wohl erst gegen Ende 2011 mit Veränderungen zu rechnen sein dürfte.
Und ganz ehrlich Leute: Auch der Bulldozer wird nicht viel verändern. Sicher wird er effizient arbeiten und genug Leistung bieten, aber wenn man bedient ist braucht man das nicht mehr.
Hackt jetzt auf mir rum, wir reden Ende des Jahres weiter ;)

LG Hübie
 
Zu Zeiten des Athlon 64 X2 3800+ war AMD noch wirklich gut. Inzwischen schrecken mich die hohen TPD von einem Kauf eines AMD Systems ab :-( Hoffe die bekommen den Energieverbrauch bald in den Griff.
 
Es ist wie mit Schockwellen. Sie breiten sich unaufhaltsam aus, bis sie abklingen. AMDs Absturz 2006 war die Nova, das Echo dieses Knalls ist bis heute zu vernehmen. Mit was will AMD gegen Intel kontern? Als 2003 der Opteron mit seiner 64Bit Erweiterung das Vakuum im 64Bit Feld stopfen mehr schlecht als recht konnte, machte man im naturwissenschaftlichen HPC Bereich Salti und viele leistungshungrige Anwender waren ebenso froh. Neben 64Bit gab es bei AMD noch andere, überaus wichtige Alleinstellungsmerkmale: höhere FPU Rechenleistung pro Taktzyklus, höhere IPC allgemein, einen IMC, der eine bis dahin bei von Intels x86-abgeleiteten Detritus Speicherbandbreite bereitstellte, einen sehr modernen und überaus schnellen Bus, um andere Prozessoren und Zusatzprozessoren anbinden zu können (Hyptertransport), ein konsequent durchgeführtes (relativ) langlebiges Sockelkonzept und eine nur um wenige Merkmale vom teuren professionellen Silizium abweichende Konsummarktlinie. Jeder Athlon64 konnte mit ECC Speicher umgehen und war somit potentielle günstige Workstation-CPU. Die Möglichkeit, die CPU via Hypertransport mit Hochleistungschips für dezidierte Aufgaben zu verkuppeln, war theoretisch ein Leckerbissen. Man sprach von zusätzlichen Coprozessoren für extrem hohen Fließkomma-Durchsatz. Auch heute noch ist der HT ein interessantes Konzept, ermöglicht er doch die einfache und performante Kopplung zweier physisch getrennter CPU Dice, die dann, wie im Magny Cours, zu einem Prozessor mit soppelter Kernezahl verschmolzen werden können.
Aber all das und noch viel mehr bietet in ähnlicher und gar besserer Form der lernfähige Konkurrent auch!
Eine CPU alleine macht noch keinen Rechner. AMD hat einfach zu lange nebst des innovativen Zweiges auch die Basis vernachlässigt. Nachdem mit dem Kauf ATIs AMD zum Konkurrenten nVidias wurde, fiel der mit Abstand potenteste Chipsatzhersteller für AMD mittel- bis langfristig weg! ServerWorks- oder Broadcomchipsätze waren nicht wirklich innovativ, sie leiteten sich hauptäschlich vom betagten AMD 8000er Design ab, ohne für wirkliche Neuerungen zu sorgen. Da war einfach ein unschönes Vakuum! Im Hochschulsektor flogen reihenweise ab 2004 Intel-, HP und MIPS-basierte Großrechensysteme zugunsten Opteron-basierter Plattformen 'raus, jetzt ist es wieder genau umgekehrt, die AMD Plattformen werden systematisch durch Intel-basierte Systeme ersetzt.

Wenn ich mir nun ansehe, wie sich AMD verhält, kann ich mich irgendwie nur noch wundern. Der Servermarkt ist schon deshalb lukartiv, weil Systeme über lange Zeiträume geplant, beschafft und gewartet werden. Die Gewinnmargen sind hoch, anders als im Wegwerf-Spielzeug-Land. Nun wird aber Bulldozer ersteinmal für den Massenmarkt hoffähig gemacht, neue Chipsätze für Server sind zwar irgendwie angekündigt, aber so richtig greifbar dann doch nicht. Irgendwie muß man sich, glaube ich nicht wundern. Zwar weiß man nicht genau, was hinter verschlossenen Türen in den Chefetagen konspiriert wird, aber wenn ich mir ansehe, wie schwer ich es mir machen müßte, um ruhigen Gewissens ein Forschungsbudget auf AMD Hardware zu setzen, weiß ich ziemlich genau, warum ich mitlerweile Intel und nVidia bevorzuge - und habe dabei noch nichteinmal ein reuiges Gefühl! AMD kriegt es nichteinaml gebacken, vernünftige GPGPU-Karten anzubieten, die eben GPGPU nicht durch dämliche Designdetails ihrer bisherigen VLIW-Architekturen der GPUs zunichte machen. Ganz zu schweigen von der äußerst schlechten Treiberunterstützung, einem unmöglichen Support für wissenschaftliche Belange und einer undurchschaubaren Politik in Sachen Opensource. Während ich auf nahezu allen Betriebssystemen, angefangen von LinSux über die Berkeley UNIXe hin zu Windoof auf nVidia Graphikkarten rechnen kann, krebse ich mit AMD unter Windoof auf dem Abstellgleis dahin. OpenCL, groß propagiert, dümpelt hoffnungslos vor sich her. Ambitionierte Projekte, die in OpenCL realisiert werden sollten, werden jetzt mit CUDA oder HMPP realisiert - auf nVidia. AMD ist außen vor. Warum also eine AMD Plattform kaufen, wenn es mit Intel nicht nur leistungsfahiger, sondern auch innovativer geht ...
 
Ycon schrieb:
Ohne dass AMD mal wieder CPUs für mehr als ca. 200 € verkaufen kann, wird sich an deren misslicher Lage nichts ändern.

Lass mich raten:
Du hast eine Intel CPU für über 200€ gekauft? :evillol:
 
@Eisenfaust: Was für ein Text. Aber durchaus vertrete ich deine Meinung. Jedoch muss man sagen, das die AMD-Systeme in punkto Verbrauch zu Leistung nicht so schlecht darstehen. Die Chipsätze waren dahingehend innovativ, da man sie passiv mit wenig Energie versorgen konnte, mehr PCIe-Lanes boten als es selbst heute noch nicht bei Intel zu finden ist und recht anständige IGP-Lösungen hatten. Mittlerweile sind die Chipsätze aber veraltet. Datenbandbreite auf dem Bus ist auch kein unwichtiges Thema bei Berechnungen per GPU (besonders im Verbund).
Das OpenCL-Thema hat sich noch nicht erledigt, nur investiert AMD in dem Sektor recht wenig Energie und Geld.
Wenn ich mich recht erinnere falten die Radeon z.B. schneller als äquivalente nVidia-Karten. Auch die DP-Leistung liegt über der einer GeForce. Aber all das verpufft zu Schall und Rauch wenn es keine potente Softwareumgebung gibt. nVidia hat mit CUDA schon was umfangreiches vorgelegt bei AMD dauert das sicher noch ein Jahr.
Dennoch muss AMD weiterleben. Das ist wie mit der Polizei und den Verbrechern. Man braucht sich gegenseitig ;)
 
Leute , kauft AMD CPUs, Grafikkarten und Chipsätze wann und wo ihr könnt, sonst ist der Ofen bald aus.

Nichts gegen INtel, aber die haben sogar den P4 verkauft wie geschnitten Brot weil ihr Image das erledigt hat.

Nur weil AMD CPUs langsamer sind, sind sie noch nicht zu langsam!
 
ja hoffen alle stark auf Bulldozer.

Wenn der nicht wenigstens ebenbürtig zu SB wird steige ich auf Intel um.

Als AMD user konnte man schon seit 3 jahren zu gucken wie jegliche Intel CPus das Renner machen.

Phenom X2 X4? jeglicher größere C2D ist denen schon überlegen gewesen, weiter mit den CoreI Arrandale. Selbes Spiel. Und Nun SB. Und wir haben immer noch unsere Phenoms. Hoffe das wird noch was mit dem Bulldozer start und deren Verfügbarkeit bevor Intel Ivy präsentiert.
 
wen intel mit ive kommt before bd da ist kann intel schon ma den geldbeutel aufmachen XD

hoffe persönlich aber auch auf den BD

will keinen SB aber spätestens april kommt bei mir neuer cpu.

Dann muss BD da sein.
Wen nicht wirds ein i7 2600k oder was es besseres bis dahin gibt.
 
Wo wir wieder in der Spirale wären... AMD präsentiert den Bulldozer. Dann werden hier viele Personen in den Kaufempfehlungen sagen: Warte auf Yvy-Bridge. Der wird sicher schneller.
Und die Leute die einen BD besitzen werden sich evtl. ärgern gewartet zu haben, weil die Leistung doch nicht der Sandy-Bridge-Killer ist (es aber nicht zugeben).
P-/L-mäßig kann nix dem i5 2500k die Stirn bieten wenn man Übertakter ist. Boards gibts ab 110€+185€ für die CPU. Bei AMD bekommt man für 300€ mehr Kerne und mehr Features auf dem Board, hängt aber mit der Performance sowie dem Energieverbrauch hinterher.

Ich bin weiß Gott kein Intel-Fan aber die bieten nun mal das beste fürs sauer verdiente Geld. Schade AMD - ihr wart wieder mal zu langsam.
 
Im Gegenteil zu P4 Zeiten, Intel CPUs sind heute einfach viel besser. Nicht nur schneller, aber auch effizienter. Da hilft kein Appell. Ich bin natürlich gegen jedes Monopol, aber nur AMD selbst kann dagegen was machen.

styletunte schrieb:
Leute , kauft AMD CPUs, Grafikkarten und Chipsätze wann und wo ihr könnt, sonst ist der Ofen bald aus.

Nichts gegen INtel, aber die haben sogar den P4 verkauft wie geschnitten Brot weil ihr Image das erledigt hat.

Nur weil AMD CPUs langsamer sind, sind sie noch nicht zu langsam!
 
Wir müssen AMD helfen.. Jetzt sind wir Kunden gefragt... Aber anscheinend ist es ja mit NVIDIA und Intel so, dass man eben nur noch auf die Marke und nicht auf die Technik/Preise sieht. Schade drum.
 
Es ist immer wieder faszinierend solche sinnlosen Diskussionen zu lesen. :freaky:
Es ist praktisch nichts ueber die Leistung der Bulldozer Architektur bekannt. Weder die Taktfrequenz der Kerne/Module, noch deren Rechenleistung aber es wird profilaktisch davon ausgegangen das er mit dem SB nicht mithalten kann.....wo ist da der Sinn darin?

Seit den Core2 Zeiten ist Intel wieder schneller....soweit so gut allerdings laesst sich Intel die Mehrleistung auch fuerstlich entlohnen.
Werden jetzt auch noch unterschiedliche Preisklassen verglichen um Argumentieren zu koennen?

Ihr wollt einen der Gruende warum die vermutlich Marktanteile zurueckgehen, dann schaut euch den ersten Teil meines Postings an.
Das so gut wie keine Leistungsinfos ueber das Produkt rauskommen spricht eher weniger gegen dessen Leistung als viel mehr fuer die Wahrung von Betriebsgeheimnissen....man denke nur mal an den Tam Tam um den ersten Phenom.
 
hübie schrieb:
Mittlerweile sind die Chipsätze aber veraltet.
Klar, wenn man kurz vor einer neuen Generation steht, wirkt alles veraltet.


hübie schrieb:
Das OpenCL-Thema hat sich noch nicht erledigt, nur investiert AMD in dem Sektor recht wenig Energie und Geld.
Wenn ich mich recht erinnere falten die Radeon z.B. schneller als äquivalente nVidia-Karten. Auch die DP-Leistung liegt über der einer GeForce. Aber all das verpufft zu Schall und Rauch wenn es keine potente Softwareumgebung gibt. nVidia hat mit CUDA schon was umfangreiches vorgelegt bei AMD dauert das sicher noch ein Jahr.
Dennoch muss AMD weiterleben. Das ist wie mit der Polizei und den Verbrechern. Man braucht sich gegenseitig ;)
Da kann man nicht zustimmen.

Gerade heute wurde bekannt, dass Apple iMac Pro nur mit AMD-Radeon-Grafikkarten kommen. Apple ist der größter Forcierer von OpenCL.
Und das ist nicht unwichtig, da Apple Marktdominierer von Tablet sind und im Smartphone gut mithalten können bzw. im Smartphone-Markt OpenCL im Smartphone generell gut vertreten.

Es besteht immer noch die Möglichkeit bei Apple ein Wechsel von Intel- auf AMD-GPUs. Vielleicht schon bei den neuen Mac (ab Mitte 2011)

AFAIK forciert AMD erst seits einem 3/4 Jahr OpenCL so richtig stark. Na ja, so stark wie Nvidia mit Cuda ziemlich sicher nie und das mit Abstand, aber es hat sich schon einiges getan.
AFAIK hält AMD schon 15% der Profi-Karten. Nicht umsonst dürfte der Profi-Markt bei Nvidia-Umsatz-4Q-2010 zurückgegangen. (Und wenn man bedenkt, dass der Tesla-Markt bei Nvidia stieg, ist der Quadro-Markt umsomehr gesunken,. Wobei man den Rückgang aber auch als übliche Sesaionale Schwankung sehen kann.)

Abgesehen finde ich es lächerlich, jetzt AMD großartig zu kritisieren, kurz bevor Bobcat & Fusion & Bulldozer am Markt bekommen. Da wunder ich mich nicht, dass die Chipsätze jetzt etwas veraltet sind. Wobei ich es beachtlich finde, was AMD noch in den nächsten 14 Monaten noch auf dem Markt bringen wird, was vor 5-6 Jahren nicht möglich war.

Immerhin hat AMD z.B. im Notebook-Markt zugenommen, obwohl a) im Jahr 2010 den Nachteil von Intel-32nm hatten, sowie im Jahr 2010 keinen adequaten Atom-Konkurrenten hatten.
Und AMD hat im 4Q 2010 erstmals aus eigener Kraft Gewinn gemacht. Also, so schlecht sieht es momentan nicht aus.
 
Habe auch nicht gesagt das es schlecht aussieht, aber die kommen wie immer zu spät mit Allem. Andere machens schneller. Das ist dann auch keine Innovation mehr. Ich war bis Anfang Februar immer AMD/ATi-Kunde. Und das seit 13 Jahren.
Man muss aber hin und wieder mal über den Tellerrand schauen. Wenn man das tut stellt man fest das es eigentlich alles das Selbe ist - nur bei AMD halt alles langsamer.
Nach 3 Generationen CFX habe ich z.B. endlich wöchentliche Updates von Spiele-Profilen bekommen. Das hatte die Konkurrenz schon deutlich früher. Und die ersten Phenom-CPUs (von 2007) waren ja nicht wirklich der Renner - jeder C2D war besser (gabs schon 2006).
OpenCL wird noch ne Weile brauchen bis es stark genug etabliert ist. CUDA ist allerdings auch beschränkt, als das es sich langfristig durchsetzen wird. Erinnert mich immer etwas an Glide ;)
Im Notebook Segment konnten sie u.a. zulegen weil nun mehr Hersteller AMD verbauen um dem Kunden eine heterogene Produktpalette anbieten zu können.

LG Hübie
 
@hübie
Ich kann seit ner Woche bei Bedarf mit 3 Monitoren zocken, wo kann man das bei nvidia?
Ueber den Tellerrand zu schauen ist eine Sache aber man sollte seine eigenen Vorstellungen dabei nicht auf andere uebertragen.
GPU PhysX brachte mir nichts da es zu wenige Spiele sinnvoll nutzen und CUDA bringt mir bei meiner Software auch herzlich wenig...was bleibt da noch an Pluspunkten?
OK, die zusaetzlichen 2 Monitore kosten extra allerdings habe ich auch immer etwas davon. Wenn ich sie ausschalte und nur einen nutze, dann geht die Grafikkarte auf den normalen Idle Takt zurueck.

Edit: vergesst es.....zu OT beim CPU Thema. :)
 
Zuletzt bearbeitet:
Selbst wenn AMD's neue CPU Generation mit Intel's CPU den Boden aufwischen würde, würde sich an den Zahlen nichts ändern. Getreu dem Motto: "Was der Bauer nicht kennt frisst er nicht."
Letztendlich wird sicher das Kartellamt das ganze in die Hand nehmen.
 
Cheetah1337 schrieb:
Knappern?! O_o
Is das echt ein gebräuchliches Wort?
Ich denke mal nicht, dass das ein Tippfehler is ... daher ... bitte ich entweder um Aufklärung oder um einen Deutschkurs für den Ersteller. ^^

Volker schrieb:
Gute Ausrede^^
Letztlich war es aber einfach nur ein total dummer Fehler von mir - Sry.


Um das mal aufzuklären: knabbern ist der allgemein gebräuchliche hochdeutsche Begriff, knappern oder knuppern wird von einigen Personen ländlicher Regionen verwendet. Also alles im grünen Bereich und KEIN Verschreiber.
 
sompe schrieb:
@hübie
Ich kann seit ner Woche bei Bedarf mit 3 Monitoren zocken, wo kann man das bei nvidia?
Ueber den Tellerrand zu schauen ist eine Sache aber man sollte seine eigenen Vorstellungen dabei nicht auf andere uebertragen.
GPU PhysX brachte mir nichts da es zu wenige Spiele sinnvoll nutzen und CUDA bringt mir bei meiner Software auch herzlich wenig...was bleibt da noch an Pluspunkten?
OK, die zusaetzlichen 2 Monitore kosten extra allerdings habe ich auch immer etwas davon. Wenn ich sie ausschalte und nur einen nutze, dann geht die Grafikkarte auf den normalen Idle Takt zurueck.

Edit: vergesst es.....zu OT beim CPU Thema. :)

Habe mich auch gerade gefragt, was das alles mit Marktanteilen von AMD/Intel zu tun hat :lol:

AMD wird mit Sicherheit nicht untergehen, nur weil ich und ein paar andere auf Sandy Bridge umgestiegen sind. Das ist halt das üblich Tauziehen. Als damals der A64 kam quollen die Foren über mit Begeisterung der neuen AMD CPUs. Jetzt ists halt mal wieder Intel mit einem sehr guten Design.
Kurbelt ja nur den Willen AMDs an weiter nach dem Optimum zu forschen.

LG Hübie
 
SunnyboyXP0 schrieb:
Also alles im grünen Bereich und KEIN Verschreiber.
Wenn es nicht im Duden als gültiges Wort steht, ist es schlicht und ergreifend falsch und hat in einem Artikel auf einer ordentlichen Nachrichten-Seite nichts verloren. Ansonsten könnten wir uns die ganzen Rechtschreibstandardisierungen und Reformen auch stecken und schreiben wie vor 150 Jahren. "Dann hettn di meyßten hir aladings ayn Problehm."

Akzente, sprachliche Besonderheiten oder dialektisch formulierte Wörter haben in Schriftstücken und Derivaten nichts verloren, es sei denn diese dienen der Unterhaltung (quasi als "Schmankerl" ;) ) oder basieren komplett darauf. Es gibt ja auch komplette Bücher, Comics und Zeitschriften, die von vorne bis hinten in Schwäbisch, Bayrisch oder Sächsisch verfasst sind. Da ist das dann okay.

Gruß FatFire
 
Zurück
Oben