Bericht Bericht: AMDs „Bulldozer“ im Detail

il-bastone schrieb:
Mit groben Begriffen wie "Abschließendes Performance Rating" kann ich irgendwie nicht viel anfangen. Oder "Performance Rating Anwendungen" - welche denn?

Klick doch mal unter Fazit (zb. BD-Hauptartikel) auf "Anhang", dann siehst du auch die Details ;)
 
el-mujo schrieb:
Tja dumm nur, dass bei meinem BOINC Projekt (CPDN) fast aussließlich die Fließkommaleistung entscheidend ist.

Gehen wir mal 12 Jahre zurück:

Intel zog einsam seine Kreise mit dem P-III am CPU-Horizont (und das seit anbeginn der Zeiten). Grund: Intel hatte die wesentlich bessere Fließkommaeinheit. Und die ist das wichtigste bei Spielen (gewesen?).
Bei Gleitkommataberechnung waren die K6/2 CPUs den P-III überlegen.

Was kam?
Richtig - Der Athlon. Und damit die Wende für AMD.
Was konnte der Athlon richtig gut?! Richtig - Fließkommaberechnung. Die sind für die meisten Programme das Maß der Dinge und verschaffte AMD einen Vorsprung der bis zur Einführunng der Core-CPUs reichte. Dann kehrte sich das ganze wieder um.

Sogesehen, wirkt der Bulldozer auf mich eher wie eine Notlösung a la K6/2+ oder K6/3+.

Solange man in der Billigwelt des Intel Schrottes verblieben ist, hatte Intel eine Weile bei der FPU die Nase vorn. Allerdings bedurfte es auch erst einer Schock-Prozedur seitens ITT, um die lächerlichen Intel FPUs schneller zu machen.

Wenn am Ende einer "Revolution" nur noch mordende Stalinisten übrigbleiben, sind natürlich nur noch Vergleiche unter dieser Gattung möglich. Vor 12 Jahren hatte Intel unter allen Architekturen die wohl mieseste FPU. Und bis heute ist die x86-abgeleitete CISC Pseudo-RISC Architektur nicht sonderlich besser. Nur: es gibt keine Vergleiche mehr! RISC mit seinen schönen Ansätzen ist weitgehend tot und erlebt erst mit einem uralten Design von 1988 jetzt seine Renaissance, dem ARM (ich hatte einen Arm 1988, mit 8 MHz Takt hat dieser Kasten jeden 25 MHz i386/i387 in numerischen Modellierungen technisch überrannt).

Man darf nicht vergessen, daß Intel ein extrem radikales Unternehmen ist. Intel hat fast alle Alpha-Patente geschluckt, die AMD nicht abbekommen hat. SMT zum Beispiel ist eine DEC Erfindung. DEC ist weg, heute hat Intel diese Technik. Intel verfügt über diverse Entwicklungseinrichtungen und hat viele Erfahrungen im ASIC Bau, nebst massiv parallelen CPUs. Patente werden ausgeschlachtet, bis kein Tropfen Blut mehr aus dem Opfer zu quetschen ist - Opfer ist der Kunde.

Die Kastrations- und Preisorgien bei Intel zeigen, wer den Markt dominiert. Man kann auch schön verfolgen, daß Intel auf einen Konter der Konkurrenz stets etwas verzögert umso massiver zurückgeschlagen hat. Das ist gut für Intel, aber schlecht für den Markt, schlecht für die Innovation, schlecht für den Preis.

Ich glaube auch, daß der Bulldozer eher eine Notlösung gewesen ist. Nur welcher Art?

Eine Interimlösung, um den Untergang abzuwenden oder die letzte agonische Flatulenz eines sterbenden Unternehmens?

@JanR:
Hübscher Vergleich und ganz nach meinem Geschmack. Vielen Dank!
Sag, kannst Du noch sagen welchen Compiler Du verwendet hast? GCC 4.6 oder 4.7 oder hast Du schon mit dem GCC 4.7 experimentiert? Wie schaut denn der CLANG/LLVM 3.0 aus?

Nebenbei, es ist seit einiger Zeit bekannt, daß die Bulldozer-Kerne keine bis marginale Veränderungen gegenüber ihren K10-Vorgängern erfahren haben, wenn man von den AVX/2 Erweiterungen absieht. Das hat bereits zu vielen Spekulationen geführt, die sich letztlich fast alle in eine zermürbende Tatsache gewandelt haben.
 
@il-bastone: Öhhh? Ich dachte der Test vom SB wäre so schön detailliert?!

Wär mal cool, wenn man die Bulldozer mal anährend so detailliert testen würde, wie die Sandy Bridge.

An dem BD-Test bzw. an dem Testparcour ist doch nichts anders wie beim SB-Test :confused_alt:
 
Hmm, also immer noch nichts an mehr Leistung für Bulldozer ?

Wird Zeit für ein Fake-Bench unter irgendeiner Linux-distributionen, wäre doch gelacht das man irgendwie noch
ein bissl Leistung raus quetschen könnte ;)

Die derzeitigen Preise für die FX-Modelle sind allesamt ZU HOCH, wenn AMD da die Preise nicht senkt !
Allerdings geht es dann wieder In die RAMSCH-KISTE, wo man ja eigentlich raus wollte - Zu Dumm !!

Von fünf möglichen Bulldozer-Käufern in meinen Umfeld, haben alle AMD die rote Karte gezeigt und Intel gekauft - So vergrault man die Kundschaft .....
 
@ Eisenfaust: JanR hat angegeben, dass er gcc 4.5 verwendet hätte
OS war jeweils Linux 3.1, nbench war mit gcc und -march=native compiliert (was bei Zambezi allerdings zu K10-Optimierungen fuehrt, da der benutzte gcc 4.5 ihn noch nicht kennt - macht aber nichts, denn ich schrieb ja: Software, die die neuen Erweiterungen nicht nutzt).
 
el-mujo schrieb:
Selbst heute noch werden Programme geschrieben, die nur einen exklusiven Kern mit Last beschäftigen - da MUSS was passieren! Zur not auch auf die Harte Tour mittels OS-Scheduler.

Programme werden nunmal für die Hardware geschrieben die aktuell im Einsatz ist.

Edit:
Ich kenne auch 4 Leute die sich einen Bulli holen wollten und dort wird es jetzt ein Intelsystem oder restmal ein Phenom 2.
 
Staubwedel schrieb:
Wofür brauchst du zuhause sonst Power? Oder bist du ein 24/7 BluRay zu avi-Konvertierer?
Weder noch!
Staubwedel schrieb:
Sorry Leute, aber wenn ich hier so manches lese frage ich mich, was ihr zuhause treibt. Es geht schließlich um die Eignung des BD im Desktop-Bereich, da er als Desktop-CPU angepriesen wird.
Der Desktopbereich ist mehr als nur Spiele. Und auch hier reicht eine "Mittelklasse" CPU locker. Alles andere ist doch für Freaks die ihren Phallusmark erhöhen wollen. Werder AMD oder Intel sind Spielwarenhersteller.
 
Wintel schrieb:
Also ich würde es als vermessen ansehen, wenn man meint, dass nur Spielebenchmarks von Belang wären.
Mich würde so eine einseitge Einstellung zu einer Thematik nicht zufriedenstellen.

Warum zu Hause treiben?
Der User den du zitiert hast, sprach davon, dass solche Anwendugen eben nicht zuhause sondern eben in Serverumgebungen vorranggig genutzt werden.
Und um was es hier gehen darf oder um was nicht, das bestimmst sicherlich nicht du, das ist jedem selbst überlassen.

Anwendungsbenchmarks über den Bulli findet man en masse, bei den Spielen jedoch hinkt er mit W7 dermaßen hinterher, das man eben da schauen will ob er mit W8 mehr reißen kann; ist für mich also logisch, das man jetzt den Focus darauf legt

Das man mit den BDs Server baut um Videos zu codieren halte ich eben für ein Gerücht erster Güte, deshalb hab ich das mit dem Serverumfeld als unrealistisch angesehen. Zumal bei echten Serven kein Zambezi zu finden ist.

Ich bestimm bestimmt nicht was jeder zu Hause treibt. Aber es sieht hier aus als würde jeder BD-Fan(boy) den Zambezi für seine Leistung in Bereichen hochjubeln die niemand zu Hause nutzt.

Besonders wenn man wirklich öfters daheim BluRay in Avis konvertiert, von mir aus eine riesige Sammlung für einen Mediaserver konvertiert, wäre ein BD aufgrund seines Stromverbrauchs keine gute Wahl

Und ich seh das wie einer meiner Vorredner, wenn AMD Müll auf den Markt schmeißt, muß man kritisieren damit AMD auch merkt das man mit seinen Käufern nicht alles machen kann.
Schönreden ist da auf keinen Fall der richtige Weg

elmex201 schrieb:
Weder noch!
Der Desktopbereich ist mehr als nur Spiele. Und auch hier reicht eine "Mittelklasse" CPU locker.

Eben, also ist ein BD doch kein Thema, oder was? Fürs Surfen und Bilder bearbeiten kauft man keinen BD, weil man ihn nicht braucht.

Ich habs doch bei meinen Ausführungen nicht von Leuten die mit einem kleinen X2 vollkommen zufrieden sind sondern von jemanden der Power braucht.
 
Zuletzt bearbeitet:
Iscaran schrieb:
...
Ist klar wenn ich ein Auto mit angezogener Handbremse auf eisglatter Straße fahre wird es sich immer wie ein schlitten Verhalten und immer und nicht nur in Kurven hindriften und die (erreichbare) topspeed wird langsam sein...
:eek:
Na, wa erwartest du denn??? :D
Dein Automobilhersteller (AMD) liefert seine Autos (Bullis), im Rahmen der Neukonzetion,
jetzt ohne Handbremse und Bremszylinder, aber dafür fertigungstechnisch mit
mit angeschweißen/fest arretierten, angezogenen Bremsbacken aus!!! :freak:

Beschwer dich doch bitte bei deinem Autofabrikanten!!! :rolleyes:
 
Für was nur reicht der BD nicht(außer Spiele)? Wir sprechen jetzt im Privathaushalt.
Finde die Leistung eines I7 2600K, braucht doch eh keiner?

Früher brauchte ich besonders viel Leistung wegen En(De)codieren von Video Dateien. Doch Heute spielt jedes x-beliebige Gerät alle Format ab.

Bisschen Foto Bearbeitung vielleicht? Aber auch da, ist schnelle Platte und viel Ram wichtiger als unbedingt I7.
Ansonsten fällt mir als normaler User kein Szenario ein, welches die hohe Power benötigt.

Doch außer bei Spiele, ist der BD für Restliche aufgaben sehr gut zu gebrauchen.

Für meinen Teil, ich werde ihn Testen. Sobald für das große Model der Preis beim I5 2500K angelangt sind.
Weil egal ob BD oder i7, i5 bei meiner AMD 6850 wird immer erst die Grafikkarte Limitieren.


Gruß
 
AMDs Turbo ist also effizienter weil die Framerate mit Turbo mehr zulegen kann ? LoL
Auf den Gedanken zu kommen das Sandy mit Standardtakt die Grafikarte schon ausreichend versorgt und daher mit Turbo kaum noch Steigerungen erzielen kann könnte man auch kommen. Und das der Schwächere Prozessor in dem Fall dann auch die grössere FPS Steigerung erzielen muss, da er das grössere Defizit hat.

Die Verteilung auf möglicht wenig Module, um den Turbo oft nutzen zu können ist ein Vorteil. Aber in dem Artikel finden sich auch Benchmarks wo 4 Treads @ 4 Module besser abschneiden als 6Treads @ 3 Modulen, das steht dem Vorteil wieder entgegen.

So schlecht der FX in niedrigen Auflösungen seinen Rückstand verbergen kann, so egal wird das letztendlich bei üblichen Gamer Auflösungen. Da limitiert zuallermeist die GPU.

...nur schade dass man die Themen so spielefixiert betrachtet hat. ...

Das hat man getan da sich der FX hier hinter der GPU Limitierung verstecken kann. Und der im Grundtakt schon zu Leistungsfähige I5 hier kaum noch zulegen kann. Man verkauft also die schwäche des FX als Vorteil. LOL

Wenn man tatsächlich die Maximalleistung der Systeme vergleichen möchte , bräuchte das FX und Sandy @ MaximalTakt ohne limitierende GPU. Sandy @ 4.8 bis 5 Ghz und FX @ 4,6 bis 4,7 sind das maximale. Dann würde FX in Anwendungen vieleicht 60% von Sandy erreichen.

So ist der technische Stand.

:)
 
Staubwedel schrieb:
Ich bestimm bestimmt nicht was jeder zu Hause treibt. Aber es sieht hier aus als würde jeder BD-Fan(boy) den Zambezi für seine Leistung in Bereichen hochjubeln die niemand zu Hause nutzt.

Woraus erschließt du dir das jemand etwas hochjubelt? Oder gar schönredet?
Anderen User unwahre Dinge zu unterstellen sondern ihnen argumentativ ihnen die Grundlage zu entziehen, sollte eher das Ziel sein.
Vielmehr kommt es mir so vor, als ob du jeden der nicht sehr negativ über Zambezi herzieht, als Fanboy siehst.
Du kannst ja gerne mal entsprechende Quotes des Users im korrekten Zusammenhang zitieren und dich dann sachlich darüber auslassen.
Warum du behauptest, Anwendungen seien nicht relevant, hast du nach wie vor nicht beantwortet.
Ich erinnere dich an Post 106.
 
Zuletzt bearbeitet:
Bionten-Scout schrieb:
Auf den Gedanken zu kommen das Sandy mit Standardtakt die Grafikarte schon ausreichend versorgt und daher mit Turbo kaum noch Steigerungen erzielen kann könnte man auch kommen.
Liegt aber keine Limitierung durch die GPU vor (Test unter möglichst geringer Auflösung und mit High-End-GraKa) und testet man unter Windows 8 (das ja endlich Core Parking unterstützt), bleibt nur eine mögliche Schlussfolgerung, wenn der Turbo gerade mal zwei, drei Prozent bringt: Intels Turbo ist zumindest bei den getesteten Modellen ein Witz.

Und genau so ist es offensichtlich auch: https://www.computerbase.de/artikel...#abschnitt_leistung_in_niedrigen_aufloesungen
;)


Bionten-Scout schrieb:
Die Verteilung auf möglicht wenig Module, um den Turbo oft nutzen zu können ist ein Vorteil. Aber in dem Artikel finden sich auch Benchmarks wo 4 Treads @ 4 Module besser abschneiden als 6Treads @ 3 Modulen, das steht dem Vorteil wieder entgegen.
Sind mehr als die Hälfte der Module aktiv, kann aber nur der All-Core-Turbo zünden, der maximale Turbo nicht.
Vielleicht wird Turbo Core 3.0 da mehr "Granularität" bringen. Es wäre zumindest sinnvoll.
 
vitel09 schrieb:
Finde die Leistung eines I7 2600K, braucht doch eh keiner?

Ich denke, "du" brauchst die Leistung nicht ;)
Es wird aber bestimmt den ein oder anderen Fraggle wie mich geben, der vermutlich auch Privat ein Hexacore Dual-Xeon-System regelmäßig ins schwitzen bekäme.

Der Grund für meinen Leistungsbedarf: Ich bin ein großer Anime-Fan (japanische Zeichentrickfilme/serien) und puste ältere SD-RAW´s etwas auf, oder editiere Tippfehler auf den DVD´s usw. <--- Klingt doch gar nicht so crazy, oder!? :freaky:


LG
 
Was mir auffällt:
2 Module mit 4 Threads sind fast so schnell wie 4 Module mit lediglich 4 Threads. Das bedeutet das 2 Module fast wirklich so schnell wie 4 Cores sind. Bei 3 und 4 Modulen nimmt der Zuwachs aber drastisch ab. Ich denke, die Architektur hat durchaus noch potential.
 
Um den krassesten Fall einmal darzulegen:

Quelle planet3dnow:
http://www.planet3dnow.de/vbulletin/showthread.php?t=399188&page=16


Fritz Chess Benchmark 2 Threads, Turbo ein, Threads nicht festgepinnt:
3594 Punkte

Threads auf 0,2=2CU/2C festgepinnt, Turbo an
4138 Punkte

Threads auf 0,1=1CU/2C festgepinnt, Turbo an
3233 Punkte

Threads auf 0,2=2CU/2C festgepinnt, Turbo aus
3670 Punkte

Threads auf 0,2=2CU/2C festgepinnt, Turbo aus und fest auf Turbotakt übertaktet
4317 Punkte

Win8, Threads nicht festgepinnt, Turbo aus und fest auf Turbotakt übertaktet
4467 Punkte (es arbeiten mehr als 3 Kerne an 2 Threads lt. Taskmanager)

Win8, Threads festgepinnt, Turbo aus und fest auf Turbotakt übertaktet
4260 Punkte

1. man sieht wie dämlich der Windows 7 Scheduler agiert, er verschenkt ggü. dem besten festgepinnten Fall 544 Punkte (15 %)
2. 1CU/2C Problem, bereits hinreichend besprochen
3. fest übertakten ist nochmals 179 Punkte effektiver (>4%)
4. Windows 8 Scheduler agiert sehr effektiv
5. Zwischen schlechtestem und besten Fall liegen 20 % Performanceunterschied, die Bulldozer mal hier und mal da abruft, wenn man unter Windows 7 selbst Hand anlegt.

Ein Resümee ist, dass man den Turbo auf jeden Fall abschalten sollte und einfach soweit wie möglich hochtaktet ohne die Spannung zu erhöhen. Darüber hinaus schluckt die CPU dann noch 20 Watt weniger unter Last von 2 Kernen.
 
Zurück
Oben