News Intel rüstet sich im Kampf gegen AMD

vf01 schrieb:
So erstmal HI@all hier (vll kennen mich ja welche hier)

So nun zum Thema:

also das meiste is ja hier schon gesagt, vor allem von Squall

was ich aber auch noch hinzufügen will ist der Preis und da schlägt AMD, Intel einfach um längen (mal vom FX-55 und FX-51 abgesehen) aber wenn ich mir jetzt anschau dass ich für einen P4 3,4 EE 930 Euro zahlen muss und für 450 euronen aber einen A64 3700+ bekomm der geringfügig schlechter oder sogar besser ist (kommt drauf an) dann seh ich das nicht ganz ein, oder 280 Euro für einen um vll 5% schlechteren (wenns hoch kommt) A64 3500+

da sollte Intel mal was ändern

Warum willst du von dem FX55 absehen? Genau dieser ist es ... den mal als direkten Konkurrent zum P4EE ansehen muss und somit auch vergleichen muss.
Dann haste:

AMD FX55 = 840€ (2.6GHz, 200 MHz FSB, 1MB Cache)
P4EE 2,46 = 900€ (FSB 1066, 2 MB Cache)

Jeweils noch 150€ für nen gutes Board dazu und du bist auf dem gleichem Level. 50€ sind in diesen Preisregionen nen Witz ... kann mir keiner sagen ... wer nen FX kauft ... der achtet auf die 50€. ;)

Erschwerend kommt dazu das der FX nur bestimmten Ram verkraftet (teuer). Der Pentium aber jeden x-beliebigen DDR2 533 aufnimmt.

Der nächste Vergleich den Du machen kannst ist der zwischen Prescott und A64. Dort jeweils die Besten:

AMD Athlon 64 4000+ Sockel-939 tray, 2.40GHz, 1024kB Cache = 700€
Intel Pentium 4 570J 3.80GHz Sockel-775, 200MHz FSB, 1024kB Cache = 560€

Jeweils 150€ für nen Board und der Pentium ist sogar billiger.

Wie gesagt ... ist nur ein Vergleich auf Basis des Preises zwischen entsprechenden und vergleichbaren Prozzessoren. Aber nen A64 mit nem P4EE zu vergleichen ist unfug. Speziell im Preis.

Mfg
Damokles
 
Aresta schrieb:
Der Nachteil ist, dass man sich so schnell daran gewöhnt und somit das Arbeiten auf meinem Notebook im Büro wirklich quälend ist ;-)
Oh man, wem sagst du das!

Oder auf ein AMD System umsteigt, das blockt voll! :lol: :evillol:
 
Hallo?

Also ich finde den 3,2er Dualcore für um die 400 Euro ziemlich gut im Preis! Dann noch schön bis 4000 mhz pushen, müsste ja wohl drin sein! Ne WaKü müsste man aber dann schon haben! Aber die meisten highocer haben sowieso eine oder holen sich dann eine! Bin dann mal auf AMD gespannt, wollte nämlich bei amd bleiben ;-) !!

MfG Korb123
 
@Aresta
Mal ne kleine Zwischenfrage: Beinhalten die Dual-Cores auch Hyperthreading?
Der Dual-Core Prescott soll bislang mit deaktiviertem SMT (Hyperthreading = intels Marketingname für SMT) kommen.
Aus gutem Grund, denn zum einem drängeln nun dann 2 Kerne am gleichen Bus -> Flaschenhals FSB, zum anderen macht SMT höheren Strombedarf -> Wärme. Die Gesteigerte Rechenleistung mit SMT ist ja nicht umsonst (mehr aktiv schaltende Transitoren pro Zeiteinheit fordern ihr Tribut).

Falls intel aber den Fertigungsprozess verfeinern sollte (was sie sicherlich machen), dann könnte irgendwann auch wieder SMT eingeschaltet werden.

Auch andere Hersteller haben (IBM), oder werden SMT (SUN, ARM, MIPS) in ihren Designs nutzen. Auch wenn AMD, bei jeder sich bietenden Gelegenheit, immer wieder SMT etwas abwerten ... dass AMD irgendwann so etwas macht halte ich für gut möglich. SMT verbraucht wesentlich weniger Fläche wie Dual-Core.

MFG Bokill
 
Zuletzt bearbeitet:
Bokill schrieb:
Tja wenn es ganz dumm läuft, dann hat man als Endanwender 0% Geschwindigkeitsvorteil. Dann bleibt da nur noch das "Smothgefühl", was zwar auch was feines ist, aber nicht meinem Arbeitsstil entspricht.

An sich sitze ich vorwiegend an einer Anwendung, da ist Dual-Core/SMT fast sinnlos.

Jedoch ist es in anderen Anwendungen so sinnvoll, dass man einen Geschwindigkeitsgewinn von fast 100% erwarten kann (Rendern), oder zumindest doch deutliche Durchsatzraten von mehr als 30% (Server für Netwerkverkehr mit vielen Nutzern).

Mit anderen Worten, es hängt extrem von der jeweiligen Software ab.

Besser kann man es fast nicht formulieren! Bis Dual-Core auf breiter Front auch von "normaler" Software (Office-Bereich, Gaming) genutzt wird, ziehen noch mindestens zwei Jahre ins Land, wenn nicht noch mehr.

Erst dann wird sich ein Dual-Core System effektiv lohnen.

Ciao Frank
 
Ich würde mal tippen das 99% der Kunden die Verlustleistung nicht interessiert. Was einzig und alleine zählt ist die Rechenleistung der CPU.
Der erhöhte Stromverbrauch macht über das ganze Jahr gesehen ja sowieso nur ein paar Euro aus.
Bei Notebooks ist das vieleicht anders weil dort die Laufzeit davon äbhängig ist. Auf dem Desktop Markt hat der Stromverbrauch nur eine sehr geringe Bedeutung.
 
Franky-Boy schrieb:
Besser kann man es fast nicht formulieren! Bis Dual-Core auf breiter Front auch von "normaler" Software (Office-Bereich, Gaming) genutzt wird, ziehen noch mindestens zwei Jahre ins Land, wenn nicht noch mehr.

Erst dann wird sich ein Dual-Core System effektiv lohnen.

Ciao Frank

Kann man so auch nicht wieder sagen.
Konvertierungsprogramme für Sound- und vor allem Videobearbeitung werden ganz sicher davon schon heute profitieren können. RIP-Programme etc.
Ist letztlich eine Sache der Anwendung.
Wobei, mir ist es ziemlich Wurst ob eine DVD eine Stunde braucht um fertig gerippt worden zu sein oder ob das in 45min. geschehen ist.
Ich bin hier zuhause und nicht auf der Flucht.
 
erstmal ein gruß an alle PISA-fälle unter meinen vorrednern und natürlich auch an die, die normal und verständlich schreiben können :evillol:

habe eine technische frage:

ist zu erwarten, daß trotz takttreiberei und dual- bzw. multicores in zukunft der stromverbrauch und die hitzeentwicklung dank kleinerer strukturen (65nm, 45nm, ? nm) sinken wird und eine CPU im idle-zustand passiv (= lautlos :daumen:) betrieben werden kann? (natürlich nur wenn man es richtig macht wie AMD beim 90nm-fertigungsprozeß :D )
 
Zuletzt bearbeitet:
JohnWayne schrieb:
Ich würde mal tippen das 99% der Kunden die Verlustleistung nicht interessiert. Was einzig und alleine zählt ist die Rechenleistung der CPU.
Der erhöhte Stromverbrauch macht über das ganze Jahr gesehen ja sowieso nur ein paar Euro aus.
Bei Notebooks ist das vieleicht anders weil dort die Laufzeit davon äbhängig ist. Auf dem Desktop Markt hat der Stromverbrauch nur eine sehr geringe Bedeutung.


Also rechne mal, wenn Du mehere Hundert Dual-Core Prozessoren benutzt, also ein etwas größeres Unternehmen, gehen wir mal von 300 Dual-Core Prozessoren aus.

Verbrauch:

AMD Opteron Dual Core 2,4 GHz: 95 Watt?
Intel Xeon? Dual Core 3,2 GHz: 150 Watt?

AMD Dual-Core: 0,095kWx24hx365x0,15€ = 124,83 € x 300 = 37449€
Intel Dual-Core: 0,15kWx24hx365x0,15€ = 197,1 € x 300 = 59130 €

Wie man sieht spart man bei einem Großserver mit 300 Dual-Core Prozessoren mit AMD 21681 € im Jahr.
 
Bluerock schrieb:
Also rechne mal, wenn Du mehere Hundert Dual-Core Prozessoren benutzt, also ein etwas größeres Unternehmen, gehen wir mal von 300 Dual-Core Prozessoren aus.

Verbrauch:

AMD Opteron Dual Core 2,4 GHz: 95 Watt?
Intel Xeon? Dual Core 3,2 GHz: 150 Watt?

AMD Dual-Core: 0,095kWx24hx365x0,15€ = 124,83 € x 300 = 37449€
Intel Dual-Core: 0,15kWx24hx365x0,15€ = 197,1 € x 300 = 59130 €

Wie man sieht spart man bei einem Großserver mit 300 Dual-Core Prozessoren mit AMD 21681 € im Jahr.

1.) Wer sich nen Server mit über 300 Prozzi's kauft und betreibt ... den interessieren keine Stromkosten mehr.
2.) Laufen alle 300 Prozzi's 60/60/24/31/12 mit voller Last beider Cores? -> NEIN!
Also ist deine Rechnung mal =0= praxisrelevant.

Mfg
Damokles
 
Bluerock schrieb:
Wie man sieht spart man bei einem Großserver mit 300 Dual-Core Prozessoren mit AMD 21681 € im Jahr.
Das kann aber auch eine ganz schöne Milchmädchen-Rechnung sein.
Da die Intel CPU´s gerade im professionellem Umfeld bei vielen Programmen performanter und schneller arbeiten als ihre AMD Kollegen, kann man nun auch Gegenrechnungen anstellen, weil ein Intelrechner mit der gleichen Aufgabe früher fertig ist bzw. in der gleichen Zeit mehr Arbeit erledigt hat! ;)
 
Damokles schrieb:
1.) Wer sich nen Server mit über 300 Prozzi's kauft und betreibt ... den interessieren keine Stromkosten mehr.
2.) Laufen alle 300 Prozzi's 60/60/24/31/12 mit voller Last beider Cores? -> NEIN!
Also ist deine Rechnung mal =0= praxisrelevant.

Mfg
Damokles


1. Aha, gut das Du kein Unternehmen, nach ein paar Wochen wäre es wohl pleite. Mehr muss man zu deiner Aussage nicht sagen

2. Ich gehe bei meiner Rechnung von Servern aus, die immer in Benutztung sind. Man geht aber trotzdem bei solchen Rechnung immer vom höchsten aus.

@Graka

Dein Einwand ist zwar richtig, aber der 3,2 GHz Prescott wird langsamer sein, als der Dualcore 2,4 GHz, außer AMD begeht einen schweren Fehler.
 
Zuletzt bearbeitet:
Bluerock schrieb:
@Graka

Dein Einwand ist zwar richtig, aber der 3,2 GHz Prescott wird langsamer sein, als der Dualcore 2,4 GHz, außer AMD begeht einen schweren
Es ging in der o.g. Rechnung jeweils um Dualcore! ;)
 
Bluerock schrieb:
1. Aha, gut das Du kein Unternehmen, nach ein paar Wochen wäre es wohl pleite. Mehr muss man zu deiner Aussage nicht sagen

Deine Rechnung machst du über ein Jahr ... sprichst dennoch im 2. Post das ich nach Wochen Pleite bin?!?! Wie verträgt sich das? Euer Energieprovider rechnet wöchentlich ab?

~ 1800€ im Monat interessieren keinen Chef wenn er im Keller nen Cluster hat, in dem 300 CPU's werkeln.

und nebenbei ... die Firma in der ich arbeite und auch beratende Rollen einehme, lebt immernoch ... und das seit 4 Jahren seitdem ich dabei bin.

Also lass bitte derartige Versuche Leutz zu beleidigen. Denn anders fass ich deinen Spruch nicht auf.

Mfg
Damokles
 
@Damokles

Zumindest rechnet Google so, die nahmen lieber viele Celerons (PIII Kern) statt den P4 (Williamette). Ein Argumnet war, dass mit dem gleichen Stromeinsatz wesentlich mehr gekoppelte Rechenpower möglich war (billiger war es zudem auch noch).

Das Statement kam zum Launch des Pentium4 ...

Das wird sich nicht wesentlich geändert haben in Zeiten des Dothams/Prescotts. Zudem fallen nicht nur Betriebskosten für die Rechner selber an, sondern auch für die Klimatisierung. Jedes Grad an nicht abgeführter Wärme bedeutet zusätzlich auch höhere Ausfallraten. Für Google alles Betriebswirtschaftliche Grössen (wie auch andere Firmen). Für diesen Bereich hat intel ja im nachhinein (weil Kundenwunsch) ja auch den Dotham dort gelauncht. Die werden sehr gerne für Blades genommen.

MFG Bokill
 
Zuletzt bearbeitet:
Damokles schrieb:
Deine Rechnung machst du über ein Jahr ... sprichst dennoch im 2. Post das ich nach Wochen Pleite bin?!?! Wie verträgt sich das? Euer Energieprovider rechnet wöchentlich ab?

~ 1800€ im Monat interessieren keinen Chef wenn er im Keller nen Cluster hat, in dem 300 CPU's werkeln.

und nebenbei ... die Firma in der ich arbeite und auch beratende Rollen einehme, lebt immernoch ... und das seit 4 Jahren seitdem ich dabei bin.

Also lass bitte derartige Versuche Leutz zu beleidigen. Denn anders fass ich deinen Spruch nicht auf.

Mfg
Damokles


Wie sich verträgt? Sowie Du dich hier gibst, ist es einem Unternehmen egal ob Sie viel mehr für Strom ausgeben müssen, in Zahlen mal gesagt 1.000.000€ oder 1.400.000 € für Strom, ist nach deine Ansicht vollkommen egal, ob sie nur 0.4 Millionen mehr gewinn machen oder nicht.

Aber ich will dich ja hier nicht beleidignen; nur denke jetzt bitte mal nach meinst Du Unternehmen wie Strato, 1&1 etc. die mehr hundert Server besitzen, wenn nicht Tausende achten nicht auf den Stromverbrauch?
 
DiGiTaL schrieb:
Wenn, dann schafft das IBM (Sie produzieren die G5-CPU) und nicht Apple. Und das auch nur in Apples Fake-Benchs.
Bei fairen Bedingungen verliert ein Dual G5 System gegen ein Dual Opteron System ( gibt natürlich Ausnahmen ).

Itanium ist nicht wirklich x86, oder ?

Und schmalbrüstig finde ich den Opteron eigentlich nicht !

Hi!

Mir wäre neu, dass ein x86 CPU gegen einen RISC Prozessor (Power PC CPU) gewinnen würde. Natürlich sind die Benches etwas gehschönt, von Apple, damit die anderen Rechner im Vergleich den kürzeren ziehen, aber wenn du mal Photoshop auf einem Mac erlebt hast, willst du dich nie wieder an einen PC setzten. Weil der Vorteil der RISC CPU's ist eindeutig.
Die Opteron sind ein angebliches Äquivalent zu den Itanium und den XEON Prozessoren von Intel. Wobei der Vergleich auf Anwendungsebene (Windows) zwischen Xeon und Opteron leichter ist.
Es ist richtig, dass der Itanium keine x86 Plattform darstellt. Hier verwendet man eine Struktur namens AI-32.

Nunja, so braichal wie viele hier im Forum behaupten ohne überhaupt mal eine Server CPU gesehen zu haben, ist er meines ermessens nach nicht. Habe Systeme auch Xeon Basis und auch auf Opteron Basis zusammengebaut. Und schneller sind die Opterons nicht wirklich. Das heißt jedoch nicht, dass sie schlecht sind. Die CPU's gefallen mir. Nur finde ich es schade, dass es für die AMD's keine Boards von Supermicro gibt, weil alles andere, kann ich an Serverboards nicht wirklich leiden. (z.B. ASUS, Tyan, oder der Gleichen).

MfG GuaRdiaN
 
Aresta schrieb:
Jedoch im "normalen" Windowsalltag bietet ein Dual-System einen sehr komfortablen Vorteil, nämlich, dass der Rechner (egal was ich grade mache) immer verfügbar ist. Eine Sanduhr sieht man eigentlich nie. Man kann im Hintergrund problemlos Videos und MP3 kodieren und währendessen Doom3 o.a. spielen, ohne das man Performance-einbussen hätte. Der Nachteil ist, dass man sich so schnell daran gewöhnt und somit das Arbeiten auf meinem Notebook im Büro wirklich quälend ist ;-)

Hmm...du hast sicherlich recht dass bei prozessorlastigen Dingen (eben spielen, oder codieren) einen Geschwindigkeitsvorteil hat. Man muss aber auch bedenken, dass das wahrscheinlich eine "normale" HDD das nicht mitmachen wird...;) Also, ich meine das Problem, dass viele unterschätzen ist dass sehr viele Ladezeiten usw. von der Festplatte verursacht werden. Der Prozessor hat in sehr vielen Dingen wenig bzw gar nichts zu tun (Office, Daten kopieren, installieren, usw) und trotzdem geht die Geschwindigkeit in die Knie.

Aber bei Notebooks finde ich die 2 Kerne Technolgie einfach genial. Z.B. müsste es doch möglich sein einen Kern komplett auszuschalten. Im Akumodus sollte man dann einstellen können, dass nur ein Kern arbeitet und dieser auch heruntertaktet (Pentium M) -> Der Energieverbrauch ist in etwa gleich wie bei einem CPU mit nur einem Kern. Im Netzbetrieb schalten sich dann alle beide Kerne ein und man hat so eine deutlich besser Performance (nehme ich halt mal an...;))

Mfg,
Callisto
 
Zurück
Oben