News AMD FX: Benchmarks, Preise und weitere Details enthüllt

:rolleyes:


Es ist völlig unerheblich ob es ein 14 Kerner mit 29 Threads ist, oder ein 17 Kerner mit 2 Threads ist.

Wichtig ist was hinten herauskommt und ob das Ergebnis zu gefallen weiß.


Die Fakten die für den Konsumenten wichtig seien sollten sind: (Komplettes) Leistung(angebot), (System-)Preis und Leistungsaufnahme.


Diese drei Eckpunkte sind das Einzige für das man sich interessieren sollte, alles andere sind Nebensächlichkeiten.

Und da diese Punkte weiterhin nicht endgültig geklärt sind, erübrigt sich jedwede Diskussion über die Leistung und wie sie erreicht wird. Denn was wir bis jetzt wissen ist weiterhin nur theoretischer Natur bzw. Ergebnisse aus ungesicherter Quelle.

Wartet einfach die ersten Tests ab.
 

Threats? -Wird wer bedroht? :eek:

Mal ehrlich, wird ein, auch nur irgendein Programm allein dadurch, daß man die Transistoranordnung des BDs nun als 4 oder 8 Kerne bezeichnet auch nur um eine Nanosekunde schneller oder langsamer?

Es ist völlig unerheblich ob es ein 14 Kerner mit 29 Threads ist, oder ein 17 Kerner mit 2 Threads ist.

Wichtig ist was hinten herauskommt und ob das Ergebnis zu gefallen weiß.

Eben ! Trotzdem immer wieder fazinierend, wie sich Leute seitenlang über diese völlig irrelevante Frage streiten können ;) - ein Glück das ich kein Popcorn hier habe, sonst hätte ich schon ein paar Kilo zugenommen ...
 
Zuletzt bearbeitet:
hornet331 schrieb:
Und genau darum geths, amd vergleicht seinen cpu mit einem produkt was überhaupt nicht in der reichweite ist, gibt aber ann 800€ billiger zu sein... wird das ganze mit einem 2600k verglichen kommt nur mehr vielleicht 50-100€ billiger raus... und das macht sich schelcht.

Was ist dann die daseinsberechtigung der 980X/990X?

hornet331 schrieb:
Es geht nicht darum das ma damit nicht "gamen" kann, es geht darum, dass ma die selbe oder besser leistung aus einem 2500k oder 2600k bekommt um 1/3 des preises...

Es geht darum das 1000 EUR für eine x86 CPU jenseits gut und böse ist. Dass das endlich jemand anspricht wird zeit.



derGrimm schrieb:
Ähm, Windows ist derjenige, der sich nicht an Standards hält, bzw pseudo Standards rausbringt.

Du meinst defacto-Standards an die sich dann jeder hält? Die hab ich nämlich auch gemeint, und die sind es die uns die billigen Systeme ermöglichen.

derGrimm schrieb:
Du verstehst mich falsch.

Windows ist die Frickellösung.
Anders =|= schlecht.

Anders muss nicht schlecht sein, aber wenns mit einem Einlern-Aufwand verbunden ist, ist es völlig irrelevant ob gut oder schlecht. Und daran scheiterts bei vielen Open Source Projekten, die einfach am "Markt" vorbeientwickeln.

derGrimm schrieb:
Ubuntu mit Gnome ist z.B. intuitiver, wenn man nicht schon von Windows umerzogen wurde die macken so zu aktzeptieren wie sie sind.

Das ist kein Argument. Ist vllt. ein wenig ein anderes Thema (da es ein Argument aus der Maus- vs. Touch-Bedienung Diskussion ist), aber Leute haben sich nun mal an etwas gewöhnt, und damit muss man leben.

Das einzige "Interface" das wirklich intuitiv ist, ist die Brust der Mutter - alles andere musste man erst lernen ... selbst so grundlegendes wie auf einem Sessel zu sitzen ohne runterzufallen.

Und ganz grundlos werden sich Standards wohl nicht etabliert haben - Windows musste sich schließlich auch erst mal gegen DOS durchzusetzen.

bLu3to0th schrieb:
Außer für Webserver, ist derzeit für mich ein Linux keine Alternative.

Webserver ist eben einer der wenigen Anwendungsfälle wo man idR. mit der Software in der Paketverwaltung zur gänze auskommt, und dadurch ihre Vorteile zu spüren bekommt.

Im Desktop Bereich ist es aber eben Flexibilität die mehr zählt...
 
Wow, geil, hammer, komm ausm staunen nicht raus! Der Bulli versägt überall die Intels! Geil! *irony*

Wir fassen zusammen:
-Bei anti-Multithread-Anwendungen kann man mit der vorherigen Generation von Intel mithalten, zumindest im GPU-Limit.
-Bei Multithread-Anwendungen hat man keinen Vorteil gegenüber gleich teuren CPUs, obwohl man doch die geniale Architektur mit den zwei Integer-Einheiten hat, die so viel besser als SMT ist.
-Speicher für einen 980X kostet das doppelte wie für den FX-8150
-Strom braucht man wesentlich mehr als die Konkurenz (125W TDP für einen Quadcore - AMD sollte sich was schämen!)
-Der FX-8150 wird etwa 250$ Kosten, also i7-2600k Terrain.

Also, Bulldozer ist wohl doch nicht das, was AMD verspricht.
-Ein Bulldozer-Modul entspricht einem Core: Single-Thread leistung auf höhe Nehalem, nicht die Offenbarung. Aber mit mordsmäßigem Turbo-Takt (4,2GHz gegen 3,3GHz, mal eben 27% mehr takt).
-Ein Bulldozer-Modul ist viel besser als ein single Core mit SMT: Bulli-core hat mieserable Leistungsdaten (man ist bestenfalls gleich gut wie ein niedriger getakteter Sandy)

Wenn man jetzt noch bedenkt, dass der Turbo evtl. wie beim Sandy außerhalb der TDP laufen kann, dann wird wohl BD in der Lage sein @Stock jenseits 150W zu verheizen, und das wär wieder mal eine neuer negativrekord ausm Hause AMD.

mfg
 
Sofern man den Folien glauben kann sieht das alles ganz gut aus, bei den Nachfolgern wird man sich dann gewissen Baustellen widmen(IPC?) und gut ist. Die Leistung in F@H würde mich interessieren, ob Bullis CMT da besser abschneidet als Intels HT und ob er durch CMT hier die geringe IPC eventuell etwas abfangen kann? Bei F@H sind "echte" Kerne immer besser.


Jungs könnt ihr das geflame über den 980x nicht sein lassen, nur weil ihr euch das nicht leisten könnt oder mit der Leistung nichts anfangen könnt, heisst es noch lange nicht das diese CPU keine Daseinsberechtigung hat. Ich würde mir hier gerne auch zwei 4 Sockel Opteron Systeme mit je 48 Cores hinstellen nur kostet das ein hübschen 5 stelligen Betrag, mecker ich deswegen rum weil die CPUs ebenfalls über 1000€ kosten oder bezeichne User die sowas haben als "dumm"?
 
Zuletzt bearbeitet:
Was ist dann die daseinsberechtigung der 980X/990X?

und

Es geht darum das 1000 EUR für eine x86 CPU jenseits gut und böse ist. Dass das endlich jemand anspricht wird zeit.

Zum ersten:
Er ist in manchen Anwendungsbereichen noch immer die mit Abstand schnellste CPU, trotz SB und BD!

Zum zweiten:
Wenn jemand mit seinem Rechner Geld verdient und mehr Arbeit in der selben Zeit erledigen kann, rechnet sich das durchaus.

Man könnte auch gleich fragen warum jemand ein paar Tausend Euro für ein Dual Xenon System ausgibt, die Antwort bleibt die selbe: Es geht um Produktivität!

Der Gulftown ist und war nie für Otto Normal Verbraucher gedacht, genausowenig wie Opteron und Xenon!

Wenn man nur daddeln will kann man aber auch das Argument bringen wie bescheuert man sein muss über 500Euro für ein System auszugeben wenn es doch Spielkonsolen viel billiger gibt!
 
@KainerM

Die TDP trifft nur eine Aussage über die theoretisch maximal mögliche Leistungsaufnahme wenn alle Transistoren schalten, dazu zählt auch der riesige Cache. Das hat nichts mit der tatsächlichen Leistungsaufnahme zu tun, die dank exzessiven PowerGating ganz gut sein dürfte. Ansonsten gilt auch für dich meine letzte Post.
 
Fakt ist der FX8150 wird den 2500k weit hinter sich lassen und mit dem 2600k ungefähr gleichauf liegen.

.... und dabei wieviel mehr Kühlung bzw. Energie verbrauchen ? Wenn man überhaupt vergleichen will, sollte dabei der gleiche Energiebedarf zugrunde gelegt werden. Da fällt der FX8150 sehr wahrscheinlich als Vergleichsmodell schonmal weg...... und weiter hat AMD dann nichts mehr zu bieten, was an die Konkurrenz heranreicht. Traurig, aber wahr. Aber Hauptsache der Bulli schlägt den i5 (vor kurzer Zeit war das sogar noch ein i7) irgendwie - koste es Kühlung oder Strom, was es wolle.........
 
MRM schrieb:
Eben ! Trotzdem immer wieder fazinierend, wie sich Leute seitenlang über diese völlig irrelevante Frage streiten können ;) - ein Glück das ich kein Popcorn hier habe, sonst hätte ich schon ein paar Kilo zugenommen ...

Mich fasziniert wie es Andere "fasziniert" und Diese sich dann gleich animiert fühlen einfach nur Nonsens posten zu müssen, anstatt sich konstruktiv einzubringen. :o

Für eine neue Architektur mit einem laut Intel 4 Jahre hinterherhinkenden Fertigungsverfahren ist das ein gutes Ergebnis, dazu wird Anfang des nächsten Jahres das Refresh folgen.

Seh ich ebenso.

Ich werde auf jeden Fall zu einem Bulldozer greifen. Jetzt hab ich schon so lang drauf gewartet. Jetzt muß er her. :)
 
noskill: Das mag schon sein, aber wenn der Schritt von 95W auf 125W schon beim mittleren Proz von Nöten war, dann wird der große die TDP wohl wieder mal Ausschöpfen, so wie die Phenom und Phenom II auch. Bei Intel war das schon eine Weile nimmer der Fall, allerdings.

mfg
 
crackett schrieb:
.... und dabei wieviel mehr Kühlung bzw. Energie verbrauchen ? Wenn man überhaupt vergleichen will, sollte dabei der gleiche Energiebedarf zugrunde gelegt werden. Da fällt der FX8150 sehr wahrscheinlich als Vergleichsmodell schonmal weg...... und weiter hat AMD dann nichts mehr zu bieten, was an die Konkurrenz heranreicht. Traurig, aber wahr. Aber Hauptsache der Bulli schlägt den i5 (vor kurzer Zeit war das sogar noch ein i7) irgendwie - koste es Kühlung oder Strom, was es wolle.........

Und das weißt du weil...
...du einen der Bulldozer zu Hause ans Messgerät geklemmt hast. Tu mir doch den Gefallen und mach gleich ein paar Benches wenn du mit deinen Stromverbrauchsmessungen durch bist. :freak:

Jetzt mal ohne Scheiß: das sind TDP Angaben, die sagen so viel über den durchschnittlichen Verbrauch aus wie die Aussage 'Mein Auto braucht bei 250 auf der Autobahn 25Liter auf 100km.'. In der Praxis im Windowsbetrieb juckt das keinen Menschen, und selbst beim Zocken läuft selbst ein überforderter Prozessor selten auf der max TDP weil er auch auf andere Komponenten warten muß. Für die Praxis ist das durch die Bank irrelevant: ein Hummer hat einen höheren Verbrauch als ein Polo, trotzdem wird der Hummer weniger verbrauchen wenn er einfach nur in der Garage steht.
 
MRM schrieb:
Threats? -Wird wer bedroht? :eek:

Mal ehrlich, wird ein, auch nur irgendein Programm allein dadurch, daß man die Transistoranordnung des BDs nun als 4 oder 8 Kerne bezeichnet auch nur um eine Nanosekunde schneller oder langsamer?



Eben ! Trotzdem immer wieder fazinierend, wie sich Leute seitenlang über diese völlig irrelevante Frage streiten können ;) - ein Glück das ich kein Popcorn hier habe, sonst hätte ich schon ein paar Kilo zugenommen ...

Genau darum geht es mir. Ich bin kein Fanboy weder von AMD noch von Intel, habe auch schon beide Hersteller im Einsatz gehabt. Mir geht aber das dumme Geschwätz auf die Nerven wenn Leute bei inoffiziellen Tests aussagen tätigen "Sieh an, Amd kann sich nicht mal mit einem 8 Kerner gegen einen 4 Kerner behaupten. Drecksbude". Frühere Kommentare waren mal "Was ist schon dabei. Ein 8 Kerner gegen einen 4 Kerner ist unfair. Natürlich ist da dann Amd besser, welche Glanzleistung".

Heutzutage wird Bill Gates ja immer noch falsch zitiert "640 kb ought to be enough". Alles völlig aus dem Kontekt gegriffen. Aber egal.

Für mich zählt auch nur die Leistung, der Preis und der Verbrauch, Die innere Architektur interssiert den vermeintlichen Nutzer nicht. Mich als Student aber schon.
 
-=Azrael=- schrieb:
Jungs könnt ihr das geflame über den 980x nicht sein lassen, nur weil ihr euch das nicht leisten könnt oder mit der Leistung nichts anfangen könnt, heisst es noch lange nicht das diese CPU keine Daseinsberechtigung hat.

Ok, was ist der Grund wieso jemand zu einem 990X/980X greifen sollte?

-=Azrael=- schrieb:
Ich würde mir hier gerne auch zwei 4 Sockel Opteron Systeme mit je 48 Cores hinstellen nur kostet das ein hübschen 5 stelligen Betrag, mecker ich deswegen rum weil die CPUs ebenfalls über 1000€ kosten oder bezeichne User die sowas haben als "dumm"?

Ist der 990X/980X eine Server CPU? Kann er auf Multi-Sockel Boards verwendet werden?

Fischkopp schrieb:
Man könnte auch gleich fragen warum jemand ein paar Tausend Euro für ein Dual Xenon System ausgibt, die Antwort bleibt die selbe: Es geht um Produktivität!

Genau, aber das war nicht meine Frage. Meine Frage war wieso ein 980X/990X statt einem Xeon, für diejenigen die mit der Leistung wirklich was anfangen können.

Fischkopp schrieb:
Der Gulftown ist und war nie für Otto Normal Verbraucher gedacht, genausowenig wie Opteron und Xenon!

Wieso ist er dann nicht als Xeon "gebrandet"?



Worauf ich hinaus will ist dass Intel sehr wohl beabsichtigt diese CPUs Enthusiasten (Endverbrauchern) anzudrehen, die zu viel Geld aber nur wenig Durchblick haben. Weil "professionelle" Anwender schon durch eine andere Produktlinie bereits abgedeckt sind.

AMD ist auf diesen Punkt eben eingegangen, und stellt klar dass der 4- bis 5-fache Preis sich in der Realität in nur wenigen Prozent Mehrgewinn widerspiegelt. Und dass man stattdessen das Geld lieber in eine 2., 3. oder gar 4. Graka stecken sollte bevor man zum Intel Top-Modell greift.
 
was ist denn mit dem Gerücht, dass der Turbo nicht so funktionieren soll wie er sollte? Also, dass weniger Module als geplant den vollen Takt erreichen?
 
Tomahawk schrieb:
Bitte was?
BD:
http://chip-architect.com/news/AMD_Bulldozer.jpg
320 mm^2
SB: rund 220 mm^2
Selbst Gulftown braucht weniger Silizium als der BD (248 mm^2).

Nehalm : 296 mm², zwar 45 nm, war aber vor einem Jahr noch aktuell, und glaub mir, der war nicht so teuer weil die Produktion so teuer war, nein weil Intel da noch sehr auf eine alte Preisgestaltung gesetzt hat. Hätte Intel nicht von BD erfahren, wären die SB nicht so günstig, seid euch da mal sicher. Und k-Modelle gäbe es auch keine.
Der Verbrauch war trotz 45 nm durch Optimierungen im Verbrauch sparsamer als der Phenom II.
Also willst du mir jz weiß machen, dass BD, trotz Optimierungen, nicht sparsamer sein kann als sein Vorgänger ? oder sogar sparsamer als Nehalem ?
Intel Core i7-870 (4C/8T, @ 2,80 GHz, 45 nm) ist was Leistung angeht ein guter vergleich zum Intel Core i5-2500K ( 4C/4T, @ 2,80 GHz, 32 nm deaktivierter turbo)

2500k (deaktivierter Tubro und 2,8ghz) Verbrauch idle: 80 Watt last: 137 Watt
Intel Core i7-870 (4C/8T, @ 2,80 GHz, 45 nm) Verbrauch idle: 82 Watt last: 158 Watt

Also einen Unterschied im idle von 2 Watt und einen Unterschied von 20 Watt. Da Krautmeister vorhin meinte CPU spielt nur mit der Plattform wichtige Rolle, wollen wir diese Werte so belassen und nicht schauen was die Boards Verbrauchen.
Jz überlegt man sich Bulldozer 320 mm^2 und 32 nm. Wieso sollte man nicht die Werte eines Nehalem oder Sb erreichen können ? Wurde ja lange optimiert, 32 nm, SoI und High-k Metal Gate.
Und eben das verbesserte Clock Gating wovon man wohlmöglich am meisten profitieren müsste.

Floletni schrieb:
Bei Tests kommt es dann auf andere Faktoren an, wie z.B. Mainboard, die den Stromverbrauch massiv beeinflussen. 10W an unterschied sind keine Seltenheit.

Ja bei FM1 hat man schon den Verbrauch von 7.9 watt, Am3+ ist er leider glaube ich ca doppelt so hoch. Man könnte aber damit man einen besseren Vergleich zu Intel Boards hat, einige Bauteile einfach deaktivieren, somit kommt man den Baords von Intel näher(5 Watt oder ?)
Doch wenn BD vllt weniger im Idle verbraucht als SB, da dieser wohlmöglich auch cache usw deaktivieren kann, würde man im Gesamtsystem einen ähnlichen Verbrauch haben können.

Krautmaster schrieb:
..Qualität der Werbefolien gibt es dennoch einen Unterschied zwischen AMD und Intel...

...Vielleicht arbeitet man schon längere Zeit an der Optimierung der Architektur und muss mit Gen 2 einiges ausbessern, beim Phenom ist das ganz gut gelungen...

https://pics.computerbase.de/3/6/2/7/9/1-1080.3097108126.png
Man muss sich doch nur mal die Folie anschauen. Man nimmt seine Topprodukte, oder Forschungen, und vergleicht die gleiche Technik der Konkurrenz mit dessen Entwicklungsstand. Ja logisch ist man dann 4 Jahre voraus, wenn die Konkurrenz einen ganz anderen Weg beschreitet. Würde jz IBM eine eigene Folie mit SoI und dessen Weiterentwicklung gestalten, könnten sie ähnliche Behauptungen aufstellen.

digitalangel18 schrieb:
...komplett neue Architektur schonwieder hinter Intel her hinkt oder im allerbesten Fall etwa gleich auf ist (mit dem Unterschied das Intel noch mehrere Asse im Ärmel hat) und AMD nur über den Preis was reißen kann? ...
... Retro-AthlonXP_vs_Pentium IV-Battle starten :D...

Ja für dich scheint das Retro sein, für manche ist das aber noch gar nicht solange her, denn einige hatten einen Athlon XP und Vorgänger.
Was störend ist, dass viele hier im Forum weniger an die Technik interessiert sind, mehr an einem Spiel, wer hat den schnellsten Prozessor. Das bedeutet, anscheinend nur der Prozessor der am schnellsten ist, kann gewinnen was ? So Vorteile und Nachteile der einen und anderen Architektur ist anscheinend unwichtig.

Krautmaster schrieb:
@Floletni & bLu3to0th

Der Stromverbrauch wird heute weniger durch die CPU bestimmt, auch Abschalten der Kerne bringt wenig wenn der Rest der Plattform ordentlich Saft zieht. (CPU liegen ja bei 1-5 W idle...)

Ich denek nicht, dass AM3+ hier viel anders macht und an den geringen Verbrauch der 1155 Plattform rankommt, lasse mich aber gerne überraschen. Scheint als täte sich auch FM1 mit Llano damit schwer, zumindest kenne ich noch keine PicoPSU Llano Messungen die mir y20W idle bescheinigen.

Ich glaub da ist aber AMD nicht nur der einzige der schuldig ist daran. Irwie hab ich das Gefühl wenn es um Intel Boards geht, hat man mehr Angebot von Seiten der Hersteller und somit ist es einfacher ein gutes Board zu finden das wenig verbraucht.
Fm1 hat soviel Schnickschnack, und die meisten nehmen das Gigabyte oder ASUS Modell das von haus aus viel verbraucht, verglichen zu einem Jetway das schon im idle 7-12 watt weniger friesst, aber weniger Funktionen hat, aber hochwertige Bauteile hat.
Aber wenn ein system, 5-10 Watt mehr verbraucht, finde ich kann man das meist sogar vernachlässigen, kommt aber natürlich auf die Performance der Systeme an, ob man das verkraften kann oder nicht.

bLu3to0th schrieb:
... normaler Weise waren auch eher die AMD-Bretter die Stromsparer und nicht die von Intel :freaky:

Hier muss man sagen, dass AMD immer weiter geht als Intel, also zukunftsorientierter ist, und intel sich mehr nach dem Markt richtet.
Bsp Phenom I besitzt einen integrierten Speichercontroller. Zwar verbraucht das Board weniger aber die CPU mehr. Alle haben gemeint Phenom I verbraucht soviel mehr als ein Intel quadcore. Dabei haben die meisten immer nur die CPU verglichen nie das Board, den das hat 15 Watt und mehr verbraucht da der Speichercontroller noch oben war.
Dann hat Intel den Core i -first Generation auf den Markt gebracht, der um einiges leistungsstärker war und eine highend-plattform war. Da der Prozessor schneller war, war ein hoher Verbrauch gerechtfertigt. Nun mit SB, bessere Struktur, integrierten Bauteile die sonst am Board wären, verbraucht der Prozessor und dessen Plattform dank seiner Fertigungstechnik sicherlich weniger als die in Jahre gekommene 45 nm Stars Architektur, und es sieht somit aus, als würde AMD immer mehr verbraucht haben. Jz aber wenn der BD auf den Markt kommt und zeigen könnte was er stromspartechnisch drauf haben könnte, wird die komplette Plattform verglichen (die vom Vorgänger noch ist) um es sozusagen seine Leistung abzuschwächen ?
Wieso jz aufeinmal ?
Ich bin auch dafür dass man die komplette Plattform vergleichen sollte, bzw war ich schon immer dafür. Aber man hätte das auch schon damals beim Phenom I machen können.


Krautmaster schrieb:
der Mainboards an sich werden immer wichtiger, Powergating im Chipsatz, niedrigere Spannungen, Abschalten ungenutzer Spannungswandler kombiniert mit einem effizientem PSU, das auch bei Leistungen von <40W effizient arbeitet.

Wie gesagt, es kommt eben auch auf die MB-Hersteller an, dass sie effizientere AMD-Boards bauen.

Volker schrieb:
Mal bitte selbst die parteiischen Scheuklappen abnehmen...

Gibt es auch Quoten bezüglich kritische Artikel/Aussage gegenüber AMD/Intel ???? Ist das sehr ausgewogen ?
Ich mein Kritisch darf man sein, lieber wäre es wenn die Nachricht neutral sind,( und ich beim durchlesen nicht denken muss, dass zum bsp ein core i5 750 im Rechner des Redakteur werkelt oder ähnliches).
Doch gebe ich zu, ich wäre niemand, der gute Artikel schreiben könnte. Somit kann ich meist die Arbeit die ich auf CB lese nur bewundern und bewundere sie meistens auch, nur sieht man dass bestimmte Aussagen, gerne von bestimmten Leute gemerkt wird und in jedem Thread ohne Hintergründe und aus dem Kontext gerissen, ständig gepostet werden.

deadohiosky schrieb:
:rolleyes:
Es ist völlig unerheblich ob es ein 14 Kerner mit 29 Threads ist, oder ein 17 Kerner mit 2 Threads ist.

Stimmt, aber das gilt nicht für jene, die meist Sachen vergleichen, deren Betrag nicht höher sein darf als die Anzahl deren Finger .
Somit was passiert wenn mal 10+ cores oder Threads -Prozessoren auf den Desktop-Markt kommen :O


KainerM schrieb:
Wenn man jetzt noch bedenkt, dass der Turbo evtl. wie beim Sandy außerhalb der TDP laufen kann, dann wird wohl BD in der Lage sein @Stock jenseits 150W zu verheizen, und das wär wieder mal eine neuer negativrekord ausm Hause AMD.
mfg

Ich glaube nicht dass der Prozessor über die TDP springen würde. Es gab schon mal einen ausführlichen Bericht über den Turbo 2.0 von AMD. Der übrigens auch bei Llano vorkommt, nur eben mit igp eingebunden.
Lese dir den mal durch, findet man auf Computerbase.
Nur beim SB-E hab ich bis jz was von 150-180 W tdp gelesen und irwas von 10-20 % schneller als Intels-Mittelklasse.
 
Zuletzt bearbeitet: (iso xD)
@ Cytrox
Ganz einfach, ein 980x/990x kannst du übertakten, bei den Xeons geht es nicht, mir ist kein Serverboard bekannt, das sowas könnte. Und ob er eine Multi Sockel CPU ist, ist völlig wuppe. Mir ging es um die Relation.
 
Zuletzt bearbeitet:
Mr_Tee schrieb:
Für mich zählt auch nur die Leistung, der Preis und der Verbrauch, Die innere Architektur interssiert den vermeintlichen Nutzer nicht. Mich als Student aber schon.


Nur was hast du von einer Architektur die ihre stärken nicht immer nutzen kann, da die passende Software fehlt? Wenn das Endprodukt nur über den Preis punkten kann und von dem gehe ich jetzt aus, interessiert es mich z.B. nicht die Bohne.
Ich kann mir einen Intel leisten, gut die die nicht so flüssig sind greifen zu AMD oder sparen halt.

Und wenn der Bulldozer in gewissen Situationen von den ehemaligen High End CPUs aus gleichen Hause geschlagen wird, dann hat AMD was falsch gemacht. Das sollte man zumindest schreiben dürfen ohne das gleich die halbe Fanboy wieder mit "der ist ja nur ein Intel Fanboy" kommt.

Ja ich kauf mir seit Jahren schon nur noch Intel CPUs, da AMD nicht die Leistungskrone inne hat und wie bei den Phenom II CPUs mehr verbraucht. Da zahle ich gerne etwas mehr.
AMD ist ja auch kein Wohlfahrtsunternehmen, man bedenke welche Preise AMD damals für die X2 CPUs verlangt hat. Die wahren damals teurer als vergleichbare Intel CPUs. Warum? Weil sie besser waren, so einfach ist das.
Mir passt es einfach nicht wie Intel immer die Schiene der Böse Firma gesteckt wird und AMD als Robin Hood Verein hochgelobt wird. Ja die AMD CPUs sind zum Teil sehr günstig, aber auch nur weil Sie nicht mit der Konkurrenz mithalten können.
 
Tomahawk schrieb:
Eine kWh kostet mittlerweile 25 Cent. Demnach sind es 4h Vollast am Tag.
Abgesehen davon, finde ich einen Mehrverbrauch von 50 Watt (aus dem Beispiel von LoRDxRaVeN) nicht unerheblich, wenn der PC über Nacht fast durchgehend unter Volllast läuft, um Animationen in AE oder einem 3D-Programm zu berechnen.
Da bin ich dann bei ca. 8 Stunden Vollast in der Nacht + der Vollast, die am Tag dazukommt.
OK, das Beispiel ist zwar nicht repräsentativ, aber da läppert es sich schon "ein wenig".
Und wenn dann der etwas teurere Prozessor auch noch etwas schneller arbeitet, ist eigentlich klar, für was man sich entscheiden sollte.
 
Zurück
Oben