News AMD Shanghai: der Barcelona-Nachfolger

Ich würde mich freuen wenn AMD nun endlich mal mit seinen Prototypen auf den Markt kommt.
Bei AMD braucht es immer eine Ewigkeit, während Intel "Nägel mit Köpfen" machen und schon längst QuadCores unters Volk streut.


Gruss von Daniel
 
"Weil ma viel mehr Geld machen kann, wenn man jedes Halbjahr das Leistungsschräubchen ein bischen nach oben dreht, statt einmal in 5 Jahren."

Aha, und was genau würde AMD dazu bewegen angesichts der schlechten Zahlen ihre Produkte jetzt derart billig hinauszuschleudern, statt die X2 Produktion einzustelen und das nächst schnellere (C2D mindestens ebenbürtige - Sräubchen ein bißchen gedreht ;P )
Produkt auf den Markt zu werfen?
Angesichts der von dir postulierten "Tatsache" daß sie uns ja 10xSchnelleres vorenthalten.

"Es ist doch so, daß wir für daheim nur die Abfallprodukte aus der Schnittmenge Workstation/Officerechner bekommen."

Da die Workstations (IBM Power Architektur) nicht kompatibel sind und auch für teilweise andere Bereiche stark optimiert sind, gibt es keine Schnittmenge...

"Das ist ja das Problem, weder IBM noch AMD noch Intel hat die Macht einen glatten Schnitt zu machen und ein nicht x86 kompatibles System anzubieten."

Ähem... es gibt keine Software, die sowohl Arbeit als auch Unterhaltung für nicht x86 Prozessoren unter einen Hut bringt, daher gibt es auch kein bestreben "einen glatten Schnitt" zu machen.
Adidas und Nike entwickeln ja auch keine "Stöckelschuhe mit Eisenschutzplatte und Fußballstollen" weil es dafür keine Verwendung gibt.

Außerdem halte ich es für ein Gerücht, daß ein E6400 genausohoch getaktet werden kann, wie ein E6700...
Sie haben eben außreichende Leistung, und weil der Stromverbrauch im Rahmen bleiben sollte, wurden sie eben nicht so hoch getaktet.

Dahinter steht, wie bei allem Elektronikkram, eine statistische Berechnung: "Wie weit kann ich etwas dimensionieren (oder Takten) um höchstens 0,01%; 0,1%; 1%; 5% oder allgemein x% Ausfall (Garantiebeanspruchung) zu haben."

@Daniel
Tja, alles eine Frage der Mittel.
Aber das war schon immer so, INTEL betrat als erster Neuland und musste den Weg ebnen, AMD zog nach und machte einiges besser...
 
Zuletzt bearbeitet:
Und wie war der Versuch die IA64 Plattform einzuführen...Schnitt zu x86 gescheitert, von Intel.
Ebenso der BTX Formfaktor.

Zu C2D mit 2,8Ghz.
Nicht wenige Händler verkaufen den 4300/4400/6300/6320 in Komplettsystemen mit 2,8 statt 1,86 Ghz samt Garantie und den E/Q6600 mit 3Ghz.
War beim P4 nicht anders.

AMD hat deshalb Finanzprobleme, weil Intel den Lowendmarkt mit fast geschenkten Prozessoren überschwemmt.
Mit Celeron und P4 wird in den USA und Asien fest um Marktanteile gerauft die bisher AMD hatte.
Rückgang von 25 auf 13% im low end Markt.
AMD macht aber auch schon seit 5 Jahren keine schwarzen Zahlen.
IBM wirds schon richten...
 
Zuletzt bearbeitet:
Rasemann schrieb:
Und wie war der Versuch die IA64 Plattform einzuführen...Schnitt zu x86 gescheitert, von Intel.
Ebenso der BTX Formfaktor.
BTX Formfaktor war ja auch eigentlich nur dafür gedacht mehr als 120 W TDP vom Prozessor abgeben zu können. Die Grafikkarte auf dem Kopf einzubauen war schon nicht schlecht, aber das kann man auch mit der Grafikkarte richten. einfach den Chip auf die andere Seite Packen. Dafür muss nicht ein neuer Formfaktor her. BTX wurde vom Kunden nicht angenommen.
IA64 Plattform würde inkompatibitibilitäten schaffen. AMDs 64-bit Technik schafft dagegen einen weichen Übergang. Was spricht dagegen? Der Itanium 2, der IA64 nutzt ist da nicht gerade der Vorzeigeprozessor bei Intel. Da ist der Core 2 Duo effizienter und dank AMD64 auch 64-Bit tauglich.

Rasemann schrieb:
AMD macht aber auch schon seit 5 Jahren keine schwarzen Zahlen.

Das ist so nicht richtig. http://www.heise.de/newsticker/meldung/88539
 
Zuletzt bearbeitet:
Ach ja, Intel Fanboy Kindergarten wieder bei AMD News. Habt ihr denn keine anderen Hobbys als euer gekränktes Ego mit Unmengen an geistigem Dünnpfiff aufzuputschen? Wie kann sich der lästige Zwerg AMD nur erdreisten, Informationen über zukünftige Produkte zu veröffentlichen? Das darf nur Intel.

@Rasemann
Dir ist aber schon klar, dass mit der Erhöhung des Taktes auch der Leistungsbedarf steigt? Als Faustregel galt mal, dass dieser bei Takterhöhung linear, bei Erhöhung der Kernspannung quadratisch steigt. Keine Ahnung, ob das immer noch so ist. Eine Verbesserung, eine CPU auf 3,5 GHz zu takten, obwohl 2 GHz auch reichen, ist das nicht. Zudem muss es ja auch eine gewisse preisliche Abstufung im Produkt Portfolio geben. Ich habe jedenfalls keine Lust, mir eine 300 Euro CPU zu kaufen.

Viel interessanter fände ich es, wenn jemand mal eine vollkommen neue Architektur entwickeln würde, also nicht x86 basierend. Mit allem, was für moderne Systeme notwendig ist. Wie Multithreading, Int und FP Leistung satt, geringer Stromverbrauch, etc.pp. Und man dort mal sehen würde, was heutzutage möglich ist. Ich könnte mir vorstellen, dass sich dort auch eine Art x86 Übersetzungsmodul integrieren lässt, womit auch gängige Software ausgeführt werden kann. Der Itanium z.B. war ja schon ein erster Schritt, allerdings kein wirklich guter. Offenbar hatte Intel da einfach einige Fehler gemacht, die ihn letztendlich zum scheitern verurteilten. Interessant wäre auch, wie sich solch ein Prozessor gegen einen "nativen" x86 Prozessor schlagen würde.
 
Zuletzt bearbeitet:
gruffi schrieb:
überflüssiges Zitat entfernt *klick*

die physikalischen gesetze der elektrizität haben sich leider in den letzten jahren grundlegend geändert, daher stimmt das mit spannung und taktrate nicht mehr /ironie

wann immer du virtualisieren/emulieren o.ä. musst, geht leistung verlohren. daher würde deine "architektur" NUR (schnell) mit speziell angepasster software funktionieren. und was du meinst, kann in zukunft sicher die graka alias GPGPU berechnen. oder intels larrabee als CPGPU...
 
Zuletzt bearbeitet von einem Moderator:
Und wie war der Versuch die IA64 Plattform einzuführen...Schnitt zu x86 gescheitert, von Intel.
- eben, ist keiner so besoffen und macht einen harten Schnitt mit teuren Übergangskosten und begibt sich wiedermal in die Hände von nur einem HErsteller (der dann wieder nach etlichem hin und her weiterlizensiert...)

Ebenso der BTX Formfaktor.Weil ma viel mehr Geld machen kann, wenn man jedes Halbjahr das Leistungsschräubchen ein bischen nach oben dreht, statt einmal in 5 Jahren.
- Das Sergei Bubka Prinzip, oft kopiert doch selten so perfekt erreicht. Weltrekorde gab es auf Bestellung, im training waren 20cm mehr drin als der Weltrekord anzeigte. Wollte ein Veranstalter einen solchen als Prestige für seine Veranstaltung konnte amn den gegen bares bekommen. Nur was das Platinenlayout mit Leistung im großen Stile zu tun haben soll...

Es ist doch so, daß wir für daheim nur die Abfallprodukte aus der Schnittmenge Workstation/Officerechner bekommen.
-Du musst es so sehen, die große Masse wird mit dem Kram von vorgestern billig abgefüttert. Intel baute noch nei die besten CPU´s. Motorola war 2/3/486 Meilenweit mit der 68x Architektur überlegen, die sogar schon in Teilen 16 Bit war. Intel konnte sich nur aufgrund des Quasi Standards "IBM PC kompatibel" durchsetzen. Die x86 Architektur ist halt ziemlicher Dreck mit einigen Altlasten, aber dafür gut bezahlbar und es läuft alles drauf. Dieser VOrteil ist heute nicht mehr einzuholen. Siehe die Kapitulation Apples und der Umschwenk auf X86.

Das ist ja das Problem, weder IBM noch AMD noch Intel hat die Macht einen glatten Schnitt zu machen und ein nicht x86 kompatibles System anzubieten.
- Keiner kann das, es sei denn man ist so schnell, dass man x86 emuliert in guter bis sehr guter GEschwindigkeit laufen lassen kann. Zu Motorolas G4 Zeiten war das noch so. Da versenket ein G4 350/400 jeden zu der Zeit erhältlichen Pentium, das waren dann die PII, um Längen. Virtual PC liefen damals auf dem Mac recht schnell, so dass man mit einem Emulator gut leben konnte.

Darum ist Apple ja auch zu x86 gewechselt.
- genau. Wenn auch aus versch. anderen gründen. zB dass Jobs absolut nicht mit IBM kann. IBM entwickelt in Null Komma nix aus nem G5 den Xenon, einen 3Kerner für Kosnolen optimiert in einer xbox360 laufend. Dazu einen Cell mit 7 Recheneniheiten, ein Chip der quasi alles kann, auch Grafikberechnungen. (Wenn die PS3 mal ein paar jahr ealt ist und die Architektu ausgelotet wird, dann werden wir mit den Ohren schlackern...) und für die Wii wird mal eben der alte G3 (TDP von ca 15 Watt) aufgebohrt und spezialisiert. Da kann mir keiner Erzählen IBM wäre nicht in der Lage einen G5Mobile zu fertigen. Wenn Apple keinen wollte und IBM nicht beauftargt hat, warum soll IBM dann Entwicklungen durchführen, ohne die Konsequenz dass die CPU jemals verbaut werden. Apple wollte weg zu x86, da war jeder Grund recht.

Und aus keinem anderen Grund sind damals die Alpharechner gescheitert, DIE boten die 10 fache Leistung der 486er und ersten Pentium, mit damals 700Mhz Risc Rechnern!
Zum selben Preis!
Aber ohne Heimanwender/Spiele software dafür....
- ja so war es. Es lief kein Windows drauf und das ist irrigerweise ein Qualitätskriterium.

Einen Dual G5 Rechner bekam man für 3000 Euro von Apple.
- Der G5 war nicht teurer als die heutigen C2D, nur Apple musst emehr Entwickeln und bekam keine Referenzdesigns von Intel für lau. Außerdem will Apple immer 30% aufwärts an den Rechnern verdienen, so etwas erreicht kein anderer Hersteller für den Home-Markt.

Die Masse macht den Preis.
- meistens ja.

Core2Duo ist gleichschnell und kostet 800 Euro bei vergleichbarer Ausstattung.
- ja, bei Apple aber auch nicht wegen der hohen Gewinnmarge. Ein Apple Tower würde heute mit 4300er CPU und 250 GB, 512 MB RAM nicht unter 1000 EUR zu haben sein. Abgesehen davon könnten sie dann den teuren mini und den Zwangsdisplay-iMac vermutlich vom Markt nehmen, weil nichts mehr verkauft würde.


Intel müsste KEINEN Prozessor unter E6700 anbieten, da man ohnehin jeden C2D mit 2,8Mhz betreiben kann.
Warum tun sie es dann?
Es geht darum dem gamer und den Leuten die immer das neueste haben wollen, 200-x00 EUR an Ertrag bzw. Gewinnspanne aus den Rippen zu leiern. Grundsätzlich kosten die CPU´s in der HErtsellung alle das gleiche, ca 25-70 $ je nach verbrauchter Die-Fläche (Cache-Größe).
 
gruffi:

"Dir ist aber schon klar, dass mit der Erhöhung des Taktes auch der Leistungsbedarf steigt? Als Faustregel galt mal, dass dieser bei Takterhöhung linear, bei Erhöhung der Kernspannung quadratisch steigt. Keine Ahnung, ob das immer noch so ist. Eine Verbesserung, eine CPU auf 3,5 GHz zu takten, obwohl 2 GHz auch reichen, ist das nicht. Zudem muss es ja auch eine gewisse preisliche Abstufung im Produkt Portfolio geben."

Du kannst davon ausgehen, dass die TDP ANgaben fast nichts mehr bedeuten. Wenn dort Angaben für CPU´s mit gleichem Cache und Taktfrequenzunterschieden von 600/800 Mhz die gleiche TDP ergeben, weiß jeder dass das nicht stimmt. Ein 1,8 Ghz CPu hat eine geringere TDP als eine 2,6 Ghz CPU, gleicher Kern, gleicher Cache.
Die älteren AMD´s besitzen ANgaben von 89 Watt TDP. Mein ganzes System benötigt nur 117 Watt bei Maximallast (gemessen), mit 3700+ auf 2,6 übertaktet, 2 GB, 2 x 250 GB, DVB-S PCI, DVD Brenner, 7600 GS passive Graka.- da stimmt doch etwa snicht. Die CPU wird vermutlich maximal 50-60 Watt verbrauchen, wenn ich sie fordere. 89 Watt scheint der absolute Peak zu sein um die Kühlungsdimensionen mit entsprechendem Sicherheitszuschlag auslegen zu können.
 
Zurück
Oben