Bericht Bericht: AMDs „Bulldozer“ im Detail

Bionten-Scout schrieb:
Es kann auch daran liegen, das wenn ein Game das üblicherweise (mutmaßlich)3 oder 4 treads hat einen I5 halt Kernzahl mäßig auslastet. Und für den Turbo damit weniger Spielraum bleibt.
Starcraft 2 belastet (im Wesentlichen zumindest) beispielsweise nur 2 Kerne, die anderen beiden sollten bei Windows 8 (zumindest meistens) geparkt sein, sodass der Turbo voll zünden kann. Und hier kommen auch tatsächlich 4 bis 5% raus (immerhin): https://www.computerbase.de/artikel...zer-im-detail.1621/seite-11#abschnitt_seite_2

Aber sei dir sicher, dass da mehr gingen, würde AMD Intel direkt im Nacken sitzen, was nun mal leider nicht der Fall ist.
Intels 32nm-Fertigung dürfte so gut wie perfekt laufen, die hervorragende Übertaktbarkeit von Sandy ist bestens bekannt, aber die TDP wird durch den Turbo einfach nicht ausgereizt wie es beim FX unter Windows 8 schon sehr viel eher der Fall ist.
Intel verkauft zumindest mit den beiden getesteten Modellen Mogelpackungen, weil sie es einfach können.
 
Zuletzt bearbeitet:
calluna schrieb:
Schon einmal etwas vom Amdahlschen Gesetz aus der Informatik gehört?

Selbst wenn es CPUs mit 50 Kernen gibt, wird es weiterhin Programme geben, die auf einem Prozessor mit weniger Kernen aber hoher single-threaded Leistung schneller ausgeführt werden.

Es gibt ja nicht umsonst spezialisierte Prozessoren für spezielle Probleme wie die GPUs. Für Server-CPUs mag der Weg von Bulldozer gut sein, aber nicht für Desktop-CPUs, da zählt die single-threaded Leistung.

Wir reden ja nicht von 50 Kernen, sondern von 2-8. Schonmal im Normalbetrieb eines Rechners den Taskmanager beobachtet? Es gibt keine Software mehr im Alltagsbetrieb die stupide einen Kern nutzt, während das restliche System still steht. Insofern würde ich mir nie im Leben einen i3 kaufen. Tests wo Browser, Virenscanner, E-Mailclient, Windows Update und Co deaktiviert sind, sind realitätsfern.
Ergänzung ()

Staubwedel schrieb:
Kein Vergleich, der 2500K ist deutlich bis extrem schneller.

Der i3 billiger, weniger Verbrauch, in Spielen 20% schneller

Und wenn jetzt wieder die Aussage kommt "Ich spiele nicht" , wieso zum Teufel kaufst du dir nicht einen X2 für 45€?

Mag sein das der F6 noch der beste Zambezi ist, aber gut ist er deshalb nicht; höchstens nicht völlig schlecht.

Weil ein X2 im Alltagsbetrieb völlig überfordert ist. Szenario 2 Browser mit ca. 20 Tabs, 1 Dualcore VM im Hintergrund mit ebenfalls Browser, dazu Outlook, Photoshop, download Software die im Hintergrund an und zu entpackt. Und wenn ich Lust habe, mache ich nicht alles aus zum Spielen, sondern lasse den ganzen Kladderadatsch laufen. Was soll man da mit einem Stinkedualcore wie i3 oder X2?

Ich nutze einen alten i5, den FX-6 hatte ich nur zum Testen und schnell wieder verkauft, weil es dafür mehr Geld gibt als für die alte gestorbene i5 Plattform.

Schlecht fand ich ihn jetzt nicht, beim Spielen hängts eh an der Grafik und in Anwendungen habe ich wie gesagt seit Jahren kaum etwas gesehen, was nur einen Kern nutzt.

Man hat also die Wahl einen sehr teuren i5 zu nehmen, oder einen stromfressenden Thuban oder X4. Da ist der FX-6 keine so schlechte Alternative.
 
Wer redet denn von parallel ?

Eine logische Schlußfolgerung aus dem vorher gesagten. Wurde das echt nicht verstanden?

Ein Phenom MK III hätte also nach dem Wunsch von ein paar Leuten, die es beurteilen können, a) (natürlich) nach den öffentlichen BD-Tests, b) nach dem Gequengel zu urteilen, c) natürlich möglichst gestern lieferbar, d) in Dresden in 32nm gebacken werden müssen, weil einige ja genau wissen, dass das Produkt besser sein könnte, ja muss, und nur AMD das noch nicht schnallt. Dass die Fab mit 32nm Llanos und Bulldozer aber mittlerweile die Roadmap abarbeitet, damit voll ausgelastet ist, AMD bereits langfristige Lieferverträge mit Blade- und Mainframe- Herstellern eingegangen ist, wohin bereits erhebliche Stückzahlen geliefert werden, das entzieht sich anscheinend mancher Vorstellung (solche Geschäftsberichte lassen sich natürlich weder von Hans ergoogeln, geschweige denn erahnen).
Jedenfalls bleibt dabei kein Mikrometer Platz für einen parallel laufenden Phenom-Shrink (w.z.b.w.)

Ich rede davon den BD in der jetzigen Version einfach zu streichen und mit der nächsten Auflage anzufangen.

Einfach mal streichen... Cray & Co einfach mal mitteilen, wir haben uns anders entschieden.
Man kommt sich vor, wie im Legoland...
 
Zuletzt bearbeitet:
Schöne Arbeit mit dem Test.
Der Test ist aber schon ganz schön Grotesk,bzw. sein Fazit und die Tatsache, dass die kritischen Elemente zwar Grossteils gefunden werden, aber die Interpretation durchaus Lücken enthält.
Zwar wird herausgefunden, dass CMT bei vielen Spielen nicht hilft, und es sogar schädlich ist. Das wird aber einfach als Gottgegeben akzeptiert, und nicht hinterfragt. Warum sollte das SMT 10% Leistung kosten?
Das ist doch auf keinen Fall Plausibel von der Hardwareachitektur aus. Das ist ein Softwareproblem, möglicherweise Betriebssystem evt. Grafikkartentreiber. Fakt ist aber, in 3 Spielen und 2 weiteren in Low schadet CMT, in zweien hilft es. In Wochen/Monaten kann die Situation also eine andere sein.


In 10 von 12 Tests, stellt man fest Low-Res ist klar über 5% langsamer als 1680. Das lässt darauf schliessen, dass es in 10 von 13 Tests kein reines CPU-Limit auf 1680 gibt.
In BC2 und Dragonage liegt der intel trotzdem ca 10% vor AMD. In vielen anderen Spielen um die 3%.
Bei BC liegt man z.B. mit einer 570 GTX mit dem AMD 10% vor den intels.
Plausibel und abhängig von der Leistungsfähigkeit der GPU scheint das alles nicht, nichts desto trotz, verschiebt es den Wert ungeheuer.
Es bleiben an Spielen, an denen man auf 1680 ein reines CPU Limit erkennen kann:
SC,Witcher
In denen man ein Teilweise CPU-Limit vermuten kann:
Stalker,LP2,BC2

Wie schon erwähnt halte ich BC2 für nicht aussagekräftig, siehe 570gtx Test. Wenn man die Auflösung auf realitätsnahe Full-HD(ne GTX580 aber nen 20"?) stellt sind die 3 Teilweise GPU-Limit sicher auch weg.
Vermutlich sogar The Witcher. Welches wie Stalker den CMT Nachteil hat, ansonsten wäre es über 5FPS näher dran. Stalker wurde obendrein im Test extra erwähnt wegen den grossen Vorteilen eines besseren Schedulers.
The Witcher hat unter Win8 jetzt schon mehr Frames als unter win7, natürlich nur bei AMD.

Wie man sieht sind spürbar langsamere Spiele auch in diesem Testszenario die Ausnahme. Und bei den Spielen, bei denen es so ist, liegt meistens das Problem nicht (alleine) an zu schwacher Hardware.

Super sind natürlich im Forum wieder die Poster, die einen Phenom x8 fordern.
Wenn dieser Test mal wieder eines zeigt, viele Kerne sind für Gamer ziemlich uninteressant.
Und wenn man sich anschaut, wie häufig der Grossteil der Kerne inaktiv ist, stellt sich mal wieder die Frage, wen interessiert der Stromverbrauch unter volllast, wenn fast alle Kerne fast immer am idlen sind.

2/4 vs 4/8 bringt in 1680 im Schnitt gerade mal 5%. Crysis 2 mit seiner grandiosen Multicoreunterstützung gewinnt z.B. 0%.
Lostplanet,BC2,SC3 sind die einzigen 3 Spiele mit einem Gewinn von über 10%.
Mit +29% ist LP das einzige, welches über 15% kommt. Nicht schlecht für eine Verdopplung der Kerne.
Interessant wird das ganze natürlich nochmal, wenn man sich überlegt, die Werte 4/8 sind mit Turbo. Wenn man 2/4 auswählt, was macht das Board/CPU dann Turbo immer an, da die Hälfte der Kene inaktiv sind, oder muss nun von den 2/4 entsprechend Kerne idlen, damit der Turbo aktiv wird?
Bei SC ist der Gewinn durch den Turbo 11%, der durch die Verdopplung der Kerne 13%. Zu vermuten wäre durchaus, dass es hier gar keinen Vorteil gibt, sondern einfach durch das abschalten der Hälfte der Kerne der Turbo rausgegangen ist. Der Rest ist Messungenauigkeiten bzw. Belastung der CPU durch andere Tasks im System. Von 12 Tests zeigen also vermutlich 10 auf, ach Multicore, wozu brauch ich das.



Wo ist BF3 eigentlich beim Windows 8 und CMT-Test?
 
@Qwerty08
Naja, über den Alltagsbetrieb kann man wohl andere Ansicht sein. Wenn ich Dein Anwendungsprofil hätte, dann würde wohl nur ein 4 Core in Frage kommen.
Habe selber oft einige Programme auf und mein i3 macht das alles ohne irgendwelche Probleme.

Wollte eigentlich noch etwas mehr schreiben, aber lasse das besser. Kenne aber kaum eine CPU über die so viel diskutiert wird und wurde wie den Bulli. Nur gekauft wird der von den wenigsten.
Wenn irgendwann einmal Windows 8 draußen ist, dann wird auch der Nachfolger vom Bulli in den Startlöchern stehen und hoffentlich wieder eine gute Konkurrenz zu Intel sein.
 
Qwerty08 schrieb:
Tests wo Browser, Virenscanner, E-Mailclient, Windows Update und Co deaktiviert sind, sind realitätsfern.
Ich denke mir dein Szenario ist da doch deutlich realitätsferner bzw. seltener vorzufinden. Ich mach den Browser + Email beim Zocken übrigens zu und Windows-Updates wird kein vernünftiger Mensch gleichzeitig laufen lassen weils die Latenzen erhöht wenn Windows im Hintergrund Updates runterläd.

@RD171:
Soweit ich informiert bin laufen die Server-Varantien auf den bestehenden Sockeln und Chipsätzen, ich denke nicht, dass Cray und co (sofern man überhaupt verbindliche Verträge mit denen hat die speziell den BD in der Revision und zum festgesetzten Termin dieses Jahr fordern, was ich erst mal als Behauptung deinerseits sehe und nicht als Tatsache) traurig wären wenn AMD eine CPU liefern kann die besser ist als der BD und den BD liefert wenn er was taugt.
Ich denke mal wenn HP ne ganze PC-Sparte über Nacht dichtmachen kann wird AMD kaum Verträge haben die es unmöglich machen eine CPU bei der das erste Stepping nicht marktreif ist ein halbes Jahr nach hinten zu schieben.
Alleine schon weil man immer mit Steppings rechnen muss die unerwartete Fehler haben oder mit Problemen beim Yield halte ich deine vermutung mit den Verträgen doch recht unwahrscheinlich

a-d dürften für AMD eh zweitrangig sein, schlechtere Presse als mit dem was Sie rausgebracht haben hätten Sie kaum bekommen können, selbst wenn Sie nur nen X4 mit nochmal 100MHz in 45nm mehr hervorgebracht hätten.
 
Alleine schon weil man immer mit Steppings rechnen muss die unerwartete Fehler haben oder mit Problemen beim Yield halte ich deine vermutung mit den Verträgen doch recht unwahrscheinlich
http://www.zdnet.de/news/41556237/amd-liefert-supercomputer-chip-bulldozer-aus.htm
So ist das mit Firmengeheimnissen. Gerade weil es Probleme mit den Steppings gibt, wird man sich darauf konzentrieren müssen, sie zu beheben. Platz für ein weiteres Stepping einschließlich Entwicklung an einer bereits eingestellten CPU-Gerneration schafft das dennoch nicht, so spannend und interessant man sich das auch vorstellt (vor allem, wenn man nur träumen kann selbst keine Verantwortung übernehmen muss)
 
Zuletzt bearbeitet:
Qwerty08 schrieb:
Weil ein X2 im Alltagsbetrieb völlig überfordert ist. Szenario 2 Browser mit ca. 20 Tabs, 1 Dualcore VM im Hintergrund mit ebenfalls Browser, dazu Outlook, Photoshop, download Software die im Hintergrund an und zu entpackt.

das nenne ich mal unorgansiert... kann ja nicht als argument herhalten eine hektacore prozessor nutzen zu müssen.

btt: ich kaufe nunmehr seit 12 jahren konsequent amd, weil die produkte gut und z.t. gleichwertig für kleines geld zu bekommen sind.. nur, intel macht mittlerweile auch etwas in diesem preissegment. mein x3 720 war schon mehr ein "alibi"-, als leistungsorientierter-kauf, um amd zu unterstützen, aber mal ehrlich, wenn amd mit ihrer neuesten generation nichtmal der auslaufenden generation von intel ansatzweise paroli bieten kann... dann kommt wohl für mich auch demnächst ein intel-kauf in frage , der erste seit 1993. schade amd, es bleibt zu hoffen, dass der fertigungsprozess bei gf noch unausgereift ist, und beim bulli noch potential schlummert, ansonsten gute nacht amd, die luft scheint raus, der vorsprung mitte des letzten jahrzehnts wurde leider nicht ausgebaut, stattdessen ist man in trägheit verfallen und hat die letzten 5 jahre wohl verschlafen. bleibt zu hoffen, das 2016/2017 mal wieder ein geniestreich gelingt, mit der neuesten architektur wohl nicht.
und nein, da ist kein rechenfehler drin, mein 486-DX266 hatte mir über 6 jahre die treue gehalten :D
 
Was nützt ein 5% besseres Mehrkern Managment unter Win8 wenn die ProKern-Leistung der neuen Architektur nicht besser ist und das Ding sogar noch mehr Strom säuft als vorher...
 
Qwerty08 schrieb:
Weil ein X2 im Alltagsbetrieb völlig überfordert ist. Szenario 2 Browser mit ca. 20 Tabs, 1 Dualcore VM im Hintergrund mit ebenfalls Browser, dazu Outlook, Photoshop, download Software die im Hintergrund an und zu entpackt.

Ob mehr offene Programme automatisch mit einem 8-Core wirklich besser sind als mit einem 4-Core lasse ich mal dahingestellt. Das setzt voraus, das Win die Aufgaben gut verteilt, was nicht unbedingt der Fall ist.
Letztendlich bekommt das aktive Fenster/Programm die meiste Power, alles andere wird heruntergesetzt, es sei denn im Hintergrund ist ein Programm dem eine erhöhte Priorität gegeben wurde.
Browser, Outlook, Photoshop, Entpacken im Hintergrund sehe ich nicht als extrem leistungsfordernd, da ist RAM und Festplattenspeed eher wichtig.

RD171 schrieb:
Einfach mal streichen... Cray & Co einfach mal mitteilen, wir haben uns anders entschieden.
Man kommt sich vor, wie im Legoland...

Soweit ich weiß setzt Cray den Interlagos ein, also den "echten" Server-CPU. Der Zambezi spielt da keine Rolle
 
Dieses von den meisten Usern fast schon vernichtende Urteil ist
etwas verfrüht, hierbei gibt es noch einiges zu beachten. Und das hat
der Bulli sicher nicht verdient.


Für aktuelle Software und im Moment ist Bulldozer oft nicht konkurrenzfähig im Vergleich zu Sandy und sicher auch Ivy bzw. Sandy-E.
Nichts desto trotz ist Bulli die AMD Architektur für die nächsten Jahre.
Wenigstens mal was Neues anstatt der Xte Aufguss von K7 oder Pentium Pro auf der anderen Seite. Genau wegen der neuen Architektur gibt es aktuell ja auch die Leistungsproblematik.

Ich gebe den Kritikern recht, dass ein optimiertes, geshrinktes und mit mehr Takt versehenes
K10.5 Modell im Moment für den Spieler und Desktopnutzer interessanter und sparsamer wäre und günstiger zu produzieren im Vergleich zu BD.


Aber das endgültige Urteil über Bulldozer darf noch nicht gefällt werden denn:

-Der Win 7 Scheduler, welcher dem Turbo nicht gestattet richtig zu zünden, Module schlafen
zu legen und Strom zu sparen ist eine Baustelle
-Der Win 7 Scheduler, welcher durch das Corehopping den Exclusiven L2 Caches des Modules
jeweils löscht und somit bereits errechnete Resultate löscht und ünnötig Energie verbraucht ist die andere Baustelle
-der bestehende beta Win 8 Scheduler ist keinesfalls das letzte Wort
-BD würde für hohen Takt entworfen und der aktuelle Fertigungsprozess lässt das nicht zu
-die BIOS und UEFI für AM3+ sind bisher alle Beta hier schlummert ebenso Potential, CPU Microcode und Co.
-es gibt noch keine passenden CPU Treiber für die diversen OS
-die Software bzw Compiler ist noch nicht für BD optimiert
-Singlethreat Software ist leider immer noch zu verbreitet
-Cache Latenzen sind wegen automatisierter Planung unnötig lang
für Handoptimierung blieb wohl keine Zeit
-L1 Cache wohl etwas zu klein, gewisse Einsparungen an L2 Cache könnten leicht dafür geopfert werden, benötigt alledings ein Neudesign
-FPU müsste und wird sicher aufgebohrt werden
-ein guter Teil des Mehrverbaus ist durch die aktuellen Chipsätze oder gewisse Boards
begründet, die neuen kommen bald

Das alles ist mit Softwareoptimierung, welche viel bringen wird, neuen Steppings
oder in der nächsten Generation des BD gut machbar.


So oder so, für den Spieler reicht die nächsten Jahre mit einer potenten GPU ein
Core2Quad (45NM) der Phenom II X4 oder X6 oder natürlich auch i5, i7 bzw Bulldozer
leicht aus, vielleicht auch etwas übertaktet. Da bewegt man sich im GPU Limit. Und auch wenn nicht, ob jetzt 55 oder 63 FPS oder 120 bzw 150 FPS interessiert doch kein Schwein!
Solange P/L und Verbrauch halbwegs im Rahmen ist, dürfte das egal sein.

Überhaupt für den Heimanwender ist das alles mehr als nur ausreichend.

Man sieht aber auch wie wenig die Software im Heimanwenderbereich optimiert ist.

Was die Verbrauchsmessungen angeht würd ich gern in Spielen mal sehen was wirklich gebraucht wird. Aufgezeichnet während des spielens. Wenn eh nur gewisse Teile der CPU ausgenutzt werden, müssten wir uns egal womit, sowieso weit weg vom TDP Limit befinden. Damit relativiert sich der ach so grosse Mehrverbrauch sowieso.


Weiterhin sollten viele Anwender es sich abgewöhnen von sich auf auf alle zu schliessen.
Egal ob derjenige Musik produziert oder gamet oder was auch immer. Für den einen oder anderen sind sicher andere Bereiche relevanter oder besser optimierter Software wird eingesetzt.

Also ein EPIC Fail sieht für mich anders aus.

Wie auch immer, sollte AMD die Preise etwas purzeln lassen dürfte auch für Spieler ein FX n interessante Bereiche stossen. Wenn auch noch mit etwas Optimierung hier und da.

Versteht mich nicht falsch, im Moment würd auch ich mir einen i5 2500K in den Spielerechner stecken, wenn ich einen neu brauche.

Aber in anderen Bereiche, abseits des Desktop dürfte die BD Architektur dankend angenommen werden. Das ganze auch noch im vorhandenen Sockel.
Viele Supercomputer dürften gröbre Leistungssprunge machen.


BTW. ich bein kein Fanboy, ich kaufe aus Überzeugung AMD, weil ich Intels Praktiken nicht mag.
Das sollten andere auch, denn auch Intel macht Fehler, wenn ich mir Chipsatz, SSD, Treiberproblematiken für den neuen ATOM etc. und das nur im letztenJahr ansehe. Komischweise wird über den Fehlern von Intel gern hinweggesehen.

Weiterhin hätte ich gern auch in Zukunft die Wahl und angemessene Preise im x86 Markt.

Ich dann doch etwas länger geworden.

Ach und CB, wieso nur Spiele?
 
Das wurde hier schon oft genug diskutiert, aber ich wiederhole es nochmal: Wenn ich einen CPU kaufe, will ich das er SOFORT seine Leistung bringt und nicht erst EVENTUELL in ein paar Jahren, wenn er eigentlich schon insgesamt wieder veraltet und zu langsam ist.

Warum nur Spiele? Weil dies die größte Schwachstelle ist, da sind Verbesserungen bitter nötig. In manch anderen Dingen ist er nicht so langsam.

Ich mag Intels Erpressungs-Taktiken auch nicht, aber AMDs derzeitige Irrungen genauso wenig
 
Zuletzt bearbeitet:
Querty08 schrieb:
Wir reden ja nicht von 50 Kernen, sondern von 2-8. Schonmal im Normalbetrieb eines Rechners den Taskmanager beobachtet? Es gibt keine Software mehr im Alltagsbetrieb die stupide einen Kern nutzt, während das restliche System still steht.

Was hat die single-thread Leistung mit Software zu tun, die nur einen Kern nutzt? Wenn eine bestimmte Software mit 2-4 Kernen in der Leistung noch gut skaliert, kann das bei 4-16 schon nicht mehr der Fall sein.

Du hast behauptet, die single-thread Leistung wäre nicht mehr wichtig, aber das ist nicht richtig.
 
Ich sehe das wie Staubwedel.

Selbst wenn es so ist und Bulldozer eigentlich eine geniale Archtiektur ist, die nur durch schlecht angepasste Software (von Spielen bis zu ganzen Betriebsystemen) massiv ausgebremst wird, macht das AMDs Fehlschlag nicht besser.

Die Leistung einer CPU ergibt sich nunmal immer aus einer Kombination aus Hardware und Software. Die Hardware kann AMD direkt beeinflussen, die Software nur indirekt. Wenn sie sich trotzdem entscheiden, ihre Hardware für noch nicht vorhandene Software zu entwickeln, dann wäre es AMDs Aufgabe gewesen, im Laufe der letzten 4 Jahre die Entwicklungen und Anpassungen entsprechender Software massiv zu puschen. Z.B. mit ausführlicher Dokumentation, Compilern und sonstigen Entwicklungswerkzeugen und wenn es sein muss auch mit direkter finanzieller oder personeller Unterstützung.

An dieser Aufgabe ist AMD offensichtlich komplett gescheitert. Nicht mal die Open Source Community konnte zum Marktstart mit perfekt angepasstem Linux-Kernel und optimierten Anwendungen aufwarten, geschweige denn die kommerziellen Softwareschmieden, allen vorran Microsoft. Die scheinen alle mehr oder weniger von den Spezialitäten der Bulldozer-Architektur überrascht worden zu sein.

Dieses Versagen durch AMD wäre genauso schlimm, wie wenn die Hardware selbst misslungen ist und es ist nicht nur ein Scheitern in der Umsetzung, sondern auch von Anfang an eine verdammt gewagte Idee. Wie gesagt hat AMD nur sehr indirekt Einfluss auf die Softwareentwickler. Nicht mal der Riese Intel kann so einfach die ganze Software-Industrie dazu bringen, alle Features ihrer neusten CPUs zu nutzen, geschweige denn das kleine AMD.

AMD hätte das einfach besser wissen müssen und Bulldozer primär auf existierende Software optimieren. Wenn dieses Ziel erreicht ist, also vorhandene Software auf den neuen CPUs deutlich besser läuft, als auf der zu ersetzenden Vorgängergeneration, kann man noch zusätzliche neue Features quasi als Bonus dazu packen, die sich erst mit zukünftiger Software auszahlen werden.

Diese Erkenntnis ist doch auch nicht neu. Intel selbst ist mit dem Pentium Pro in genau die selbe Falle getappt. (Damals ging es um den Übergang von 16Bit- auf 32Bit-Software.) Und Intel hat daraus gelernt.
 
Fehlschlag hin oder her - ich habe mir nur den FX8150 zugelegt, obwohl ich beim Sprung von einem X6 1090T keine Leistungssteigerung erwarten kann. Ich möchte zum einen aber AMD unterstützen, zum anderen bin ich hier gern "early Adopter" und Basteltyp.

Ich will sehen, was bei ihm mit Luftkühlung geht und auch beim Speicher upgraden (1833er, anstelle 1333er beim X6).

Was noch viel bedenklicher ist: mein Bulli mag mein AM3 Board nicht (MSI 890FX-GD70). Ich habe die letzten drei BIOS Versionen - die alle den Bullli unterstützen (sollen) getestet, aber mit keinem der BIOS Versionen läuft das System beschwerdefrei. (mir kommt es so vor, als würde die SB den Bulli nicht mitmachen, da die HDD LED blinkt und das Board gar nicht hochfährt in 95% aller Fälle.

Heute kommt mein 990FX Board, ich hoffe, mit einem aktuellen BIOS (UEFI), denn sonst muß ich erst wieder einen alten Prozessor draufmachen, um hier zu aktualisieren. Da sollte AMD lieber mal die Boardpartner treten, was den Support der CPU angeht.
 
JanR schrieb:
Zum Thema "Effektivitaet von CMT":

Kernelcompilation unter Linux mit

...zwei Threads EINES Moduls: 15m12.427s
...je ein Thread von ZWEI Modulen: 11m51.664s

(nicht ueber die Zahlen wundern, das war untertaktet auf 1400 MHz, siehe unten)

Im Vergleich zu Intels Lynnfield i7 860 (keine Sandy zum Testen vorhanden), dieses Mal mit ALLEN Threads mit vollem Takt und Turbo im Vergleich zu deaktiviertem HT/CMT:

FX6100 OHNE CMT, also 3 Kerne von drei Modulen: 3m28.108s
FX6100 MIT CMT, also 6 Kerne, 3 Module: 2m22.931s
i7 860 OHNE HT (4 Threads, 4 Kerne): 2m21.761s
i7 860 MIT HT (8 Threads, 4 Kerne): 1m58.376s

Wenn man davon absieht, dass der bald zwei Jahre alte Lynnfield mit dem kleineren FX 6-Kerner kein Problem hat, sieht man, dass das CMT in der Tat deutlich wirksamer bei gut parallelisierbaren Lasten ist als Intels HT.

Unter Linux existiert uebrigens auch kein Schedulingproblem... die Schedulingdomaenen werden so gesetzt, wie es Linux auch bei HT macht: Siblings werden erst benutzt, wenn pro Kern (Intel) oder Modul (AMD) schon ein Thread laeuft. Sprich: 3 mit Vollast laufende Threads laufen beim FX6100 mit je einem Thread pro Modul.

Und zu guter Letzt... das, was mich geschockt hat (und das ich so auch nicht im Netz gefunden habe):

Bei Lasten, die die neuen Befehlssatzerweiterungen (AVX und Co) nicht verwenden, ist ein Zambezi-Kern etwa genauso schnell wie ein Bobcat-Kern (Zacate) bei gleichem Takt! Unser E-350 laesst sich auf 1422 takten, der Zambezi auf 1400... dabei ergibt sich beim Kernelcompilieren:

1 Zambezi-Modul mit 2 Kernen @ 1.4 GHz: 15m12.427s (siehe auch oben)
2 Zacate-Kerne @ 1.422 GHz: 15m33.807s

Kompiliert wurde jeweils mit Parallelitaet 4 (also 4 Threads - make -j4), so dass die jeweils 2 Kerne wirklich ausgelastet werden.

nbench (ziemlich alter single-thread Benchmark):

Zambezi@1.4 GHz, Dual Channel DDR3-1333

MEMORY INDEX : 9.715
INTEGER INDEX : 10.926
FLOATING-POINT INDEX: 15.534

Zacate@1.422GHz, Single Channel DDR3-1066

MEMORY INDEX : 9.153
INTEGER INDEX : 11.731
FLOATING-POINT INDEX: 15.690

Ein uralter K7 Thunderbird ist bei 1.4 GHz uebrigens etwa ebenso schnell...

OS war jeweils Linux 3.1, nbench war mit gcc und -march=native compiliert (was bei Zambezi allerdings zu K10-Optimierungen fuehrt, da der benutzte gcc 4.5 ihn noch nicht kennt - macht aber nichts, denn ich schrieb ja: Software, die die neuen Erweiterungen nicht nutzt).

Vielleicht sollte CB einen taktbereinigten Vergleich mit Zacate mal ernsthaft erwaegen... ich frage mich dabei, wohin der ganze Aufwand geflossen ist, denn bobcat ist ja nun wirklich sehr einfach und trivial. Sollten es tatsaechlich "nur" die potentielle Taktsteigerung und die Befehlssatzerweiterungen sein?

Viele Gruesse,

Jan

auch von mir vielen Dank für diesen qualifizierten ersten ausführlichen Post.

Sehr interessanter Vergleich, auch ich hatte recht genau mit derselben Leistung / Takt verglichen mit den Zacates gerechnet, eigentlich schon sehr erschreckend.

Ich bin gespannt ob in richtigen Server Benches die Architektur auch große Vorteile aus dem riesen Cache der gut 40% der DIE einnimmt ziehen kann, denn Trinity muss ohne L3 auskommen.

Sind auch BDs Gen 1 ohne L3 geplant? Wohl kaum oder, sonst hätte man diesen vermutlich schon bei dem FX6XXX und FX4XXX gestutzt.

Naja, der FX6XXX bleibt Stand heute noch der beste Vertreter seiner Art, wenn gleich Intel im Mainstream die deutlich bessere Figur macht.
 
@ CB kurze frage, auf welchem Board habt ihr die möglichkeit gehabt CMT auszuschalten !?? Konntet ihr im Bios einstellen " Only one Thread pro Modul" ? Mein CH V kann das scheinbar nicht, oder ich bin blind...
 
Staubwedel schrieb:
Das wurde hier schon oft genug diskutiert, aber ich wiederhole es nochmal: Wenn ich einen CPU kaufe, will ich das er SOFORT seine Leistung bringt und nicht erst EVENTUELL in ein paar Jahren, wenn er eigentlich schon insgesamt wieder veraltet und zu langsam ist.
Und wer hat behauptet, dass die Leistung eines BD heutzutage nicht ausreicht? Das habe ich noch nirgends gelesen. Und wer spricht hier von in ein paar Jahren. Wolltest du nur ein wenig polemisch sein? :evillol:


Staubwedel schrieb:
Warum nur Spiele? Weil dies die größte Schwachstelle ist, da sind Verbesserungen bitter nötig. In manch anderen Dingen ist er nicht so langsam.
Nicht Spiele sind die Grösste Schwachstelle, auch nicht CPUs, sondern die Tester hier. Wenn man die Leistung der CPUs ausnutzen würde, hätten die Spiele genug Leistung. Aber man programmiert nicht auf x4/x6/8Cores. Und warum nicht?
Weil man es nicht braucht. Die Tests hier zeigen nicht nur einen Nischenmarkt, sondern gehen darüber hinaus. Nur sehr wenige Anwender nennen eine 580 gtx ihr eigen, davon nutzt wohl niemand die Low-Res Auflösung, und auch die so genannte High-Res. der Tests hier wird tatsächlich niemals eingesetzt werden. Ab ner aktuellen Midrange-Karte, kann man ziemlich sicher davon ausgehen, dass FullHD oder besser eingesetzt wird.
Alle Tests wo man gerade so am CPU-Limit ankommt, sind Phänomene der Testkultur und spiegeln sich in der Realität nicht wieder. In den Rechnern dieses Landes findest du fast ausschliesslich GPU-Limits und bei den Highendsystemen Monitorrefrehlimits.
Das Absurde ist ja sogar, das solche Tests wie man sie zuletzt hier häufig lesen konnte dafür sorgen, dass sich viele User Starke CPUs kaufen, und bei der Grafikkarte sparen. Absurd hoch 10.
Mehr Ehrlichkeit in diesen Tests würde massivst helfen. Beratungsqualität mangelhaft.

Staubwedel schrieb:
Ich mag Intels Erpressungs-Taktiken auch nicht, aber AMDs derzeitige Irrungen genauso wenig
Welche Irrungen? Ich lese hier nirgendwo, Hilfe die Leistung meines Phenoms/BD reicht nicht aus. Ich lese hier nur Posts "epic fail", was wohl soviel heisst wie "mein Hirn setzt aus".
 
Zuletzt bearbeitet:
mace1978 schrieb:
Das Absurde ist ja sogar, das solche Tests wie man sie zuletzt hier häufig lesen konnte dafür sorgen, dass sich viele User Starke CPUs kaufen, und bei der Grafikkarte sparen. Absurd hoch 10.
Mehr Ehrlichkeit in diesen Tests würde massivst helfen. Beratungsqualität mangelhaft.
Auweia, die Zockerfraktion mal wieder in voller Fahrt! Wozu braucht man eine starke Graka? Zum Zocken, sonst nichts, denn für alles andere reichen heutzutage selbst interne GPUs a la AMD Llano und Intel HD3000 dicke aus. Und selbst beim Zocken sind die, wenn man nicht zu große Ansprüche hat, echt akzeptabel. Aber eine starke CPU-Leistung kann man immer gebrauchen.
Wenn man wenig oder garnicht spielt warum, soll man sich eine große Graka holen? Hmm? Absurd wäre nur, sich eine dicke ....verlängerung zu kaufen, die ordentlich Strom fressen kann und man nie braucht. Anwendungsprofil ist hier gefragt! Sei mit "absurd" bitte etwas zurückhaltender!

Welche Irrungen? Ich lese hier nirgendwo, Hilfe die Leistung meines Phenoms/BD reicht nicht aus. Ich lese hier nur Posts "epic fail", was wohl soviel heisst wie "mein Hirn setzt aus".
(Jetzt wäre es schön, wenn mal jemand von der AMD-Fraktion eins auf den Deckel kriegt für einen Hirnkommentar, nicht nur die Inteler!) Bulli erfüllt doch die Anforderungen an einen "Epic Fail" doch sehr gut. Als die Zocker/ÜT/Intelkiller-CPU angekündigt, läßt er Riesenpotenzial liegen und ist genau dort nur mittelprächtig oder schlecht, wofür er angeblich so toll sein sollte. Eben beim Zocken, Übertakten ist nur mit unglaublichem Stromfraß machbar und vom Sandbrückenkiller ist er meilenweit weg. Intel wird schon seine nächste Generation am Start haben, wenn Bulli vielleicht zu SB aufschließt!
Insgesamt ist der Bulli 1 kein Bulldozer, sondern ein Spielzeugbagger. Was aber an AMD liegt, nicht an anderen. Bei allem Falschen, daß z.B. die Softwareschmieden so fabrizieren, sind sie unschuldig, wenn ein Chip-Hersteller es nicht schafft, seine Produkte auf vorhandene Programme abzustimmen. Eine CPU muß vom Tag 1 an volle Leistung bringen, nicht erst (vielleicht) in ein paar Jahren. Über die ganze Bandbreite und nicht nur bei ein paar Spezialdingern. Wenn ich einen neuen Hammer anpreise, kann ich den Handwerkern auch nicht sagen, daß er ein guter Schraubenzieher ist, nur mit dem Hämmern wird das erst irgendwann mal was.
 
Hi,

@ CB kurze frage, auf welchem Board habt ihr die möglichkeit gehabt CMT auszuschalten !?? Konntet ihr im Bios einstellen " Only one Thread pro Modul" ? Mein CH V kann das scheinbar nicht, oder ich bin blind...

Ich bin zwar nicht CB, aber ich kann es trotzdem beantworten:

Auf unserem ASrock 880GMH/U3S3 (das war das billigste AM3+ Board mit 880G Chipsatz) gibt es BIOS-Optionen fuer "1 Thread pro Modul" (weiss nicht, ob das genau so heisst, aber der Name ist auf jeden Fall selbsterklaerend) und zusaetzlich noch zum Einstellen der Anzahl der aktiven Module.

Entgegen diversen Berichten im Netz hat das aber keinen Einfluss auf die Performance (es umgeht hoechstens den "Bug" des Schedulers von gewissen Betriebssystemen): Es spielt keine Rolle, ob man einen Singlethreaded Benchmark auf einen Kern per taskset pinnt oder ob man den zweiten Thread abschaltet. Bei Intels HT macht es hingegen einen kleinen Unterschied (getestet beim Lynnfield), hier scheint AMDs Loesung also ziemlich gut zu sein.

AMD haette sehr gut daran getan, statt des ganzen Marketing-Blablas um 8 Kerne usw. das Ding lieber so zu bauen, dass es dem OS sagt "ich bin ein Vierkerner mit HT". Denn genau das ist es letztlich und genau das kann jedes aktuelle OS auch problemlos sinnvoll nutzen, wie man an all den CPUs von Intel sieht.

Die SW-Loesung in Linux sieht auch in etwa so aus, dass es auf die HT-Algorithmen abbildet, was auch sehr gut funktioniert. Lustig ist dann nur sowas hier (aus /proc/cpuinfo):

core id : 5
cpu cores : 3

Sprich: "Ich bin Core 5 von 3" (wird natuerlich ab 0 gezaehlt).

Auf unserem Board steht uebrigens gross drauf 8-Core-ready, allerdings tat es mit dem Bully erstmal gar nichts, kein Post, nur drehende Luefter. Laut Aufkleber war Bios 1.4 drauf, ab 1.5 wird Zambezi unterstuetzt. Welch ein Glueck, dass wir im Lab einen 1055T hatten, den wir da dann kurzerhand draufpacken konnten! In unserem Fall bedeutete "nicht unterstuetzt" also "geht gar nicht".

Viele Gruesse,

Jan
 
Zurück
Oben