News Vier neue Opterons und massive Preissenkung

@19) azunutz
Lol, du hast Sorgen. Kannst du mir mal bitte sagen, warum zB der X2 5000+ und die ATI 29-irgendwas nicht für Crysis ausreichen sollten?

Wie immer - mit Kanonen auf Mücken schießen, wo's ne Fliegenklatsche auch getan hätte. Selbst wenn die Mücke zur Hummel wird...
 
@azunutz und den rest der welt: HIMMELHERGOTTNOCHMAL, LERNT ES:

TAKT, TAKTEN, ÜBERTAKTEN <--- da gibt es kein "ck"!!! *aufreg*

und nochmal @azunutz: Amd-CPUs sind kein Müll. Nur im High-End-Segment kann AMD z.Zt. nicht mithalten. Aber die CPU-Leistung ist eh nebensächlich.
 
mmh, das regt mich auch auf Dago :D (übertackten iss scheisse, übertakten iss kult :D)

mh, CPU leistung ist nebensächlich? weiss ich nich, das is etwas allgemein gesagt (ich weiss, dass du folgendes sicher nich meinst), aber demnach reicht auch ein P3 mit 900MHz. Naja, ich denke es kommt gewaltig drauf an, was eine CPU leistet, denn ohne die iss n PC nix. Ich denk es kommt viel eher drauf an, was man damit machen will. Fakt ist, dass man für aktuelle Games minimum 2GHz braucht. Darunter geht schon fast gar nix mehr (vor allem im Bereich 3D-Shooter).

Aber #19 muss man in gewisser Weise Recht geben - mir persönlich kommt es auch mehr und mehr so vor, dass AMD sich genüsslich zurücklehnt. Der größte Fehler war der Kauf von ATi (der Kaufn an sich vielleich nicht, aber zu dem Zeitpunkt auf jeden). Die hätten die finanziellen Mittel, die sie beim ATi-Kauf rausgeschleudert haben, in die eigene K10-Produktion stecken sollen. Ich garantiere, dass die damit besser gelegen hätten. Eventuell wären die ersten Barcelonas schon Juni aufm Markt gewesen. So aber hinken die genau eine Prozessorgeneration hinterher, ich hab die leise befürchtung, dass der Penryn den K10 unangespitzt in den Boden rammt. Hoffen wirs nicht, aber wenn ja isses überhaupt ned gut für den Prozessormarkt insgesamt. btw, ich mag die Opteron CPUs von AMD, fürn Server sindse ideal, da hab ich bessere Erfahrungen gemacht als mit intel.
 
@23

Es ging darum ATi JETZT zu kaufen oder gar nicht. Sonst hätte sich ATi wohl jemand anderes unter den Nagel gerissen. Zugegeben, der Zeitpunkt war scheise und AMD wird in naher Zukunft viel Fremdkapital brauchen, um allen Geschäftstätigkeiten nachgehen zu können. Sollten sie diese Durststrecke allerdings meistern, so sehe ich keine allzu großen Steine für die Zukunft. Auch wenn die neuen Prozis nicht direkt zum Crysis launch verfügbar sein sollten, wen juckts??

Ich hab mir geschworen, keine Games mehr ala published by EA zu kaufen und ich muss ehrlich sagen, ich finde es zum kotzen, dass Crysis von EA ge´publisht wird !! Ich lasse definitiv erst einmal die Finger davon und sehe weiter.
 
azunutz schrieb:
ich verstehe es nicht WILL amd seine kunden vergrauln?
Ja.. wollen Sie. Was ist das für eine überflüssige Frage..

TchiboMann schrieb:
Aber #19 muss man in gewisser Weise Recht geben - mir persönlich kommt es auch mehr und mehr so vor, dass AMD sich genüsslich zurücklehnt. Der größte Fehler war der Kauf von ATi (der Kaufn an sich vielleich nicht, aber zu dem Zeitpunkt auf jeden). Die hätten die finanziellen Mittel, die sie beim ATi-Kauf rausgeschleudert haben, in die eigene K10-Produktion stecken sollen. Ich garantiere, dass die damit besser gelegen hätten.
Oh... du produzierst also selber CPUs und kannst deswegen Garantieren, dass man mit mehr Geld automatisch schneller jene produzieren kann? Also demnach dürften es ja keine anderen CPU-Hersteller als IBM, Intel und AMD (vllt noch 2-3 kleinere) geben, weil die anderen ja nicht genug Geld dafür haben.. :rolleyes:

Und warum zum Teufel sollte AMD ATi nicht kaufen, wenn ATi am tiefsten Punkt angelangt ist? Steht es um ATi schlecht, kostet es sie nicht so viel - ganz logisch - anders hätte AMD sich das doch gar nicht leisten können.
Und woher zum Teufel willst du beurteilen können, ob das ganze gut oder schlecht für irgendwen war? Bist du irgendwie im AMD-Vorstand? Komm mal auf den Teppich zurück!

@2:
Dein "6400er" kannst du dir zum Thema Server übrigends einführen - da kann man damit nichts anfangen.. Siliziumschrott würde man dazu sagen.
 
@26
lol ATi war doch zu diesem Zeitpunkt in keinster Weise am Tiefstpunkt angelangt
für eine Firma am Tiefstpunkt zahlt keiner mal eben über 5Milliarden

Außerdem ist AMD nicht am ende weil sie in den letzten Quartalen verluste gemacht haben. der Großteil der Verluste ist immernoch auf den Kauf von ATi zurückzuführen und sowas wird natürlich vor einem Kauf mit einkalkuliert.

Der kauf von ATi sichert AMD langfristig neue und wichtige Entwicklungen tätigen zu können so wie mit den Fusion Prozessoren.
 
wenn die Chips mit 90nm schon 3,2 GHZ erreichen, dann sollten die Chips mit 65nm irgendwann am Ende der Fertigungszeit wohl max. 4,8 GHZ erreichen, weil IBM beim POWER5 Prozessor ähnliche Taktsteigerungen durch den Umstieg der Fertigungstechnik auf 65nm erreicht hat.
Zusätzlich wird so eine K10 CPU ca. 20% je Taktsignal schneller sein. Damit wären wir dann wieder bei Moores Gesetz mit doppelter Leistung alle zwei Jahre zum gleichen Preis.
 
Weil jemand mit einer anderen Architektur 4,8GHz erreicht hat, kann man noch lange nicht davon ausgehen, dass das auch andere schaffen. Du vergleichst hier Äpfel mit Birnen.
Und deinen vorletzten Satz musst du auch erst noch belegen bzw. AMD muss das. Aber es dauert ja schon eine Ewigkeit bis sie überhaupt mal aktuelle Versionen auf den Markt bringen.

EDIT:
Ich meinte den vorletzten Satz. Sorry
 
Zuletzt bearbeitet:
das Mooresche Gesetzt stimmt schon, zumindest ist es in der Vergangenheit immer zugetroffen. Wenn ein Prozessorhersteller nicht mithalten kann, dann verschwindet der von der Bildfläche. Und ich vergleiche nicht Äpfel mit Birnen, sondern alten 90nm SOI Fertigungsprozess mit neuen modernen SOI, DSL + SMT 65nm e-SiGe (und was weiss ich noch nicht was sonst noch für Gimmiks) Fertigungsprozess, der tatsächlich im Vergleich zu alten 90nm Prozess 40% schnellere oder verbrauchsärmere und kleinere CPUs produzieren kann.
http://en.wikipedia.org/wiki/POWER6 ,ein Prototyp hat sogar 6 GHZ erreicht !!!
http://www.saxxess.com/news/archiv/2005/sachsen/5547.html
 
Ich sage ja nicht, das IBM das nicht geschafft hat aber ich bezweifel, das man dann auf die Entwicklung bei AMD schließen kann.
 
Bert_64 schrieb:
Ich stecke zwar nicht in AMD drin, aber ich würde mal behaupten die haben doch größere Probleme mit ihrem K10. Wie auch immer...

Juff - lieber ein bisschen länger daran, dafür ohne beachtliche Fehler wie bei Kollege Intel...
M
F
G
Sopur
 
AMD profitiert von ATi und ATi von AMD,
AMD hat ja angekündigt das der R600 der letzte Grafikchip mit einer solch hohen Verlustleistung sein soll und das glaub ich AMD nur zu gern, die CPUs sind seit dem A64 unerreicht was sparsamkeit angeht!
Alle vergessen immer das der Speichercontroller schon in der CPU integriert ist und somit ind er TDP eingeschlossen, bei der Konkurrenz muss man den Controller immer noch draufrechnen.

@azunutz
"dann werde ich leider zu intel und geforce wechseln müssen..
wenn der quad nix ist dann ist amd sowieso für mich gestorben (sry)....
=cpu´s im mom müll
=gpu`s weißen tacktfehler auf
wat soll das?
man man man!?"

Klar geh doch zu NV, den Leuten die momentan Treibertechnisch nix auf die Reihe bekommen, Kumpel versucht seit Januar mit jedem neuen Treiber und Betatreiber, sein 6800GT SLI Gespann zum Laufen zu bekommen, keine Chance!
Wofür Quad? Wofür?
Damit wir demnächst 16 Kerne haben, alle mit 500MHz takten, man ein älteres programm öffnet was kein Multicore unterstützt und man sich wundert warum es so schnell rennt wie anno 1980?

AMD CPUs sind also Müll, so so wusste ich noch nicht, hab mir vor kurzem noch einen gekauft und weißte was?
Der gefällt mir um einiges besser als mein E6600.
Zu sagen das es Taktfehler gibt und das auch noch zu verallgemeinern ist ja schon unerhört, es ist eine Grafikserien, nein noch nicht mal
nur eine Kombi mit GDDR4 der HD2600XT Serie!
Klar ist das ärgerlich und sollte nicht vorkommen, aber es passiert eben und NV hat auch Probleme, speziell im Bereich Texturen der 8800!
 
Simon schrieb:
*hüstel*
http://www.anandtech.com/IT/showdoc.aspx?i=3057&p=11
Zwischen 4 und 80 Watt mehr für den 2224 SE. Das würde ich nicht gerade als Gleichstand bezeichnen...

mfg Simon

Ich kenne den Test,ich hab ja auch nicht behauptet,dass sie gleichviel verbrauchen,aber nicht soviel mehr wenn du den maximalverbrauch in dem Test von 409Watt bei AMDs 3,2Ghz und 376 bei den Intels nimmst.
Ansonsten müsste man auf jedes einsatzgebiet einzeln eingehen,weil die Unterscheide,bei verschiedenen Programmen so riesig sind,wer weiß was für Ergebnisse andere Programme noch sonst so geliefert hätten.
Der Unterschied in der TDP (120:80) sugeriert einem schließlich,dass die 2 Opterons immer 80Watt mehr verbrauchen würden als die 2 Intels,obwohls manchmal sogut wie keinen unterscheid gibt und manchmal doch 80 Watt.

Auf jeden Fall zeigen die Messungen wieder ein Problem auf,dass man nicht mal bei sowas einfachem wie Leistungsaufnahme wirklich generelle Aussagen treffen kann,sondenr höchstens den Maximalverbrauch angeben kann,insofern man nicht eine ganze Reihe Tests durchführt und einen schnitt bildet.

mfg AffenJack
 
eigentlich ungewöhnlich so kurz vor dem start der neuen generation die alte noch im highendbereich zu ergänzen - allerdings wenn die ausbeute an guten cpus mitlerweile so gut ist warum dann als kleineres modell verkaufen wenn mans als 3,2ghz version profitabler los wird...
 
Ich sitze hier mit meinem AMD 64 3000+ und denke mir, krass die Entwicklung ist schon bei 6400 angekommen.
Was denkt ihr, ist der 6400 wirklich doppelt so schnell als meiner? Also werde ich in Anwendungen einen merklichen Anstieg spüren?
Ich glaube nicht, dass der Unterschied der Bezeichnung gerecht wird. Ich weiß, dass es auf viele Einzelfaktoren ankommt, aber auch wenn alles gleich bleiben sollte und nur die Cpu umgetauscht wird, ist man doch meistens enttäuscht, von der sichtbaren Leistung in Anwendungen.
Ich muss dazu sagen, dass ich nicht den ganzen Tag Dateien packe und entpacke.


Cu

HosenStahl
 
Rein rechnerisch ist der X2 6400+ natürlich mehr als doppelt so schnell als ein normaler A64 3000+.
Ist schließlich ein Prozessorkern mehr und über 60% mehr Taktrate.

In einigen Applikationen merkt man das schon deutlich. Generell läuft ein System mit zwei Kernen einfach runder, als wenn nur einer vorhanden ist. Das lässt sich subjektiv immer gut feststellen, auch wenn die Benchmarks nicht immer dafür sprechen.

mfg Simon
 
TchiboMann schrieb:
aber die TDP iss ja mal wirklich gigantisch (nich die 95, die 130).
Welche 130? Ausserdem, TDP ist ziemlich belanglos. Die reale Leistungsaufnahme ist entscheidend. Und auch ein 6000+ mit 125W TDP braucht keine 125W. Laut H4U mehr als 50W weniger.

Simon schrieb:
*hüstel*
http://www.anandtech.com/IT/showdoc.aspx?i=3057&p=11
Zwischen 4 und 80 Watt mehr für den 2224 SE. Das würde ich nicht gerade als Gleichstand bezeichnen...
Wie kommst du denn auf die Werte? Unter Last (Cinebench) braucht er bis zu 55 bzw. 78 Watt mehr als die Intels, dafür im Idle bis zu 85 Watt weniger. Das kann man absolut als Gleichstand sehen, je nach dem, für was ein Server ausgelegt ist, mehr Load oder mehr Idle.

NoD.sunrise schrieb:
eigentlich ungewöhnlich so kurz vor dem start der neuen generation die alte noch im highendbereich zu ergänzen
Das eine hat mit dem anderen wohl nichts zu tun. Irgendetwas sinnvolles muss man ja bis zum Ende der Umrüstung mit Fab 30 noch anfangen.
 
Zurück
Oben