Test Test: AMD Phenom II X6 1100T Black Edition

Ist doch klar der Testparcour musste für 6 Kern CPUs ausgelegt sein, das würde aber bedeuten alle CPUs noch mal neu zu Testen, das rechtfertigt den Aufwand nicht.

Also muss man sich die theoretische Leistung selbst ausrechnen.

Die X6 Reihe von AMD ist genau so wie der x6 von Intel eine CPU für s professionelle
Arbeiten, halt ebend bloss von AMD günstiger mit etwas weniger Leistung, durch den hohen Takt
ziehen sie aber auch schon ganz gut "alte" Games durch.

Die x6 Reihe ermöglicht es Intel und AMD mehr Leistung aus einer CPU raus zuholen
wenn man über den Takt mit 4 Kernen nicht mehr weiter kommt.

In ein paar Jahren werden viel Rechner bestimmt 6 Kerne und mehr besitzen.
Trotzdem wird die Ära der 4 Kern Prozessoren noch vermutlich sehr lange anhalten,
beziehungsweise werden es die Officekisten von Morgen oder Übermorgen MFG:)
 
Zuletzt bearbeitet:
Mike Lowrey schrieb:
Das in einem x264 Benchmark der prima auf mehrere Kerne skaliert ein Core i5-760 schneller ist als fast alle Hexa Cores von AMD bei weniger Takt als 3 davon ist einfach übel.

Naja, da hättest du genauer hinsehe sollen, denn der Phenom 1100T ist 41% schneller als der i5 760.
Was du meinst ist single Thread Performance in Test1, das intressiert keinen.

Zum Test:

Guter Test insgesamt.
Allerdings ist der mangelnde Informationsgehalt in der Rubrik Overclocking zu kritisieren.
Warum hier nur 4,2ghz mit 1,6Volt gemessen werden ist unverständlich.
Wo sind Werte ohne Spannungserhöung und mit leichter Spannungserhöhung?

Niemand gibt seiner CPU mehr als 1,5Volt.
Das Fazit des Overclockings ist demnach auch eher wenig gehaltvoll.
 
Canopus schrieb:
Sprach die Intel Werbetrommel.

Man kann sich eben die Rechnung so aufbauen, wie man eben will. Man muss aber auch 1366 mit in die Rechnung nehmen und da sieht es für Intel bis zum i7 960 nicht toll aus. Der i7 960 kostet auch noch ~230€ mehr. Man bekommt praktisch 2 X6 1100T für einen i7 960. Die lächerlichen 5% die dann ein i7 975 für 845€ auch noch schneller, ist ja mal eine fast schon Frechheit.

jetzt rate mal wieso der soviel teurer ist...

1. weil er für die High End Platform 1366 ist die grundsätzlich preislich über der der 1156 er angesiedelt ist
2. weil dieser Prozessor seit zwei Jahren praktisch kein Konkurrenz Produkt hatte seitens AMD.
3. Wird der Preis nicht so bleiben sofern die eigenen CPU von Januar ihm Konkurrenz machen oder AMD eben abschließt. Intel passt die Preise soweit an wie man Konkurrenz hat. Vollkommen normal dass man zuvor für 5% mehr Power 400€ mehr bezahlen durfte. War schon immer so. Zumal Intel sicher nicht mit dem i7 960 das große Geld verdient ^^

Deswegen kann man nicht nur 1156 und AM3 vergleichen, zumal die AM3 Plattform auch noch fortschrittlicher ist als die minderbemittelte Lanes 1156 Plattform. Da spricht man natürlich nur Vorteile an und unterschlägt die Nachteile.

ich wüsste nicht ein Fall bei der die Mainstream Platform 1156 hier an die Grenzen gestoßen ist. Selbst PCIe 8x Gen 2 bietet weit genug Power für aktuelle Grafikkarten (macht vllt 1-2% zu 16x aus)
Auch der DMI reicht dick aus. So butter ich an einem H57 locker 550 MB/s vom Raid5 über die Leitung...

Auch mit aktuellen SSDs kommt Intels ICH sehr gut klar und bietet meist höhere Raten als die AM3 Konkurrenz.
http://www.anandtech.com/show/2952/5

Da profitieren sogar mehr vom CF + SLI Support als vom PCIe Lans Vorteil von AM3... Und für ausreichend PCIe Lanes ist auch 1366 bestimmt.

Aber wir werden das ja nicht erleben. Es wird über einen X6 hergezogen, die überteuerten 1366 Teile mit kaum mehr Leistung unter den Tisch gekehrt und dann immer schön mit einem i5 760 argumentieren, der bei Multi-Core-Test im Vergleich zum X6 völlig versagt. Dabei ist auch noch der X6 in Multi-Core-Test auf gleichem Niveau eines um 600€ teureren Intel Prozessor.

scheint als hättest du genau die letzte Aussage meines Posts nicht verstanden.

Krautmaster schrieb:
-> X6 = toll für User die 6 Kerne auch oft auslasten
-> i5 = toll alle anderen die in de Regel nur bis 4 Threads auslasten

Natürlich spielt der X6 bei MultiCore Tests mit 6 Threads + seien Stärken aus. Wär auch irgendwie arm wenn man mit deutlich mehr Mhz und zwei Kernen mehr hier nicht mit dem i5 mithalten könnte ^^
Die Szenarien bei denen der typische Anwender im Alltag aber 6 Threads auslastet sind vergleichsweise selten. 1-2 Threads ist nach wie vor gängig und da liegt der 4 Kerner dann im Vorteil.

Natürlich kann man den X6 für preiswerte Systeme die sehr auf MultiThread ausgelegt sind empfehlen, wenn gleich ich nicht zu dem 1100er sondern einem kleineren Modell greifen würde. Warum? Weil zum jetzigen Preis die Intel Konkurrenz dann mit HT selbst bei Multithread wieder auf einer Höhe mit dem X6 liegt.

Ich bin mir aber sicher, dass du das wieder für Intel versuchst zu erklären um die 600€ nur für den Prozessor um 5€ schön zu reden.

Von was redest du jetzt, dem i7 960, dem i7 870, dem i5 760 der was? Ich frag mich wieso du mit drei verschiedenen CPU ums Eck kommst wenn ich zuvor den X6 als direkten Konkurrent zum i7 für 1156 sehe.


Edit:

man darf sich fragen warum Intel bei den 1155er Quad bis auf den i7 2600 auf HT verzichtet. Ganz einfach, weil man es scheinbar noch nicht nötig hat.
 
Zuletzt bearbeitet:
Hallo

Meine frage wäre ob sich gegenüber einem 940 phenom
der x6 1100t bzw1090t lohnen würde

Wenn ich nämlich zb cod6 oder battlefield bad company 2 daddel
geht mein cpu auf 80 bis 90 prozent auf low einstellung
Es läuft zwar flüssig bei 60 fps durchschnitt
aber für so ein system müsste doch eig mehr drin sein oder nich ?

mein System|940 Phenom2 /3,5 ghz watercooling
|Ati 5870 pcw 1Gb
|SSD Ocz vertex2 60 gb
|4gb corsair 1066 xms2
|Enermax 87+700watt
|Gigabyte 790 fx dq6
 
Marv82 schrieb:
Das Encoding von Videos mit Hilfe der GPU bringt aber leider immer noch eine lausige Bildqualität im Vergleich zum Kodieren auf der CPU.

Wie kommst denn auf das dünne Brett ? :freak:

Du hast vmtl. noch nie Full-HD Videos geschnitten und als Blu-Ray exportiert!
Mein "alter" Phenom II X4 940 BE (4Core mit je 3.0 Ghz) braucht allein ca. 9-11 Stunden bei
1,5 Stunden Full-HD Material.
Mit meiner GTX 285 zusammen (CUDA) im Adobe Premiere elements 8 brauch der noch ca.
3 Stunden!
Die Bildqualität ist logischer Weise die gleiche.

Nimm auch mal Badaboom als Beispiel, da wird decodiert per CPU und das umgewandelte Video
encodiert per GPU gerechnet. Es hat eine sehr gute Bildqualität.
Es kommt auf die Programme an, nicht drauf WER nun genau was umrechnet!
 
Zuletzt bearbeitet:
burnsi schrieb:
Hallo

Meine frage wäre ob sich gegenüber einem 940 phenom
der x6 1100t bzw1090t lohnen würde

Wenn ich nämlich zb cod6 oder battlefield bad company 2 daddel
geht mein cpu auf 80 bis 90 prozent auf low einstellung
Es läuft zwar flüssig bei 60 fps durchschnitt
aber für so ein system müsste doch eig mehr drin sein oder nich ?

mein System|940 Phenom2 /3,5 ghz watercooling
|Ati 5870 pcw 1Gb
|SSD Ocz vertex2 60 gb
|4gb corsair 1066 xms2
|Enermax 87+700watt
|Gigabyte 790 fx dq6

hm is bei einem X4 @ 3,0 ghz auch schon aufgefallen, dass gerade bei GTA4 oder Mafia 2 die CPU schon sehr am Limit fährt. Ein X3 @ 3 Ghz sorgte da schon für Einbrüche.

Dennoch würde ich den 940@ 3,5 Ghz erstmal lassen da du ja super spielbare Frames hast. Wenn die CPU dann aber mal auf gegen 100% geht und deine Frames kurzzeitig auf unter 30 einbrechen würd ich mir überlegen ob du vllt. CPU oder die ganze Platform dann upgradest, je nach dem wann das ist...
 
Canopus schrieb:
Sprach die Intel Werbetrommel.

zumal die AM3 Plattform auch noch fortschrittlicher ist als die minderbemittelte Lanes 1156 Plattform.

Ich glaube die wenigsten School-Gamer hier wissen das ihr auch so teures Intel Board (welcher Hersteller auch immer) zwar PCIe 2.0 Protokoll "spricht", aber nur die Geschwindigkeit von PCIe 1.1 hat.
AMD hat da Nägel mit Köpfen gemacht und beides komplett implementiert.
Wenn ich mir für ein AMD Board eine USB 3.0 Karte kaufe, dann ist das ab meines Wissen SB750 Chipset kein Problem (AM2+ Boards), SB850 sowieso nicht.
Seit den AM2+ Boards schon ist das bei AMD so !
Alles läuft mit voller PCIe 2.0 Geschwindigkeit. (seit AM2+)

Bei Intel Chipsets wird da die USB 3.0 Karte ausgebremst, weil sie weniger Anbindung (halb so groß wie bei AMD Boards) an die Chipset hat, als sie eigentlich bräuchte.
Intel hat quasi "neue" Boards reusgebracht, die immer noch diese Krücke mit PCIe haben!
Haben eigentlich die teuren 1366 Baords wenigstens den vollen Speed bei PCIe ???
 
Zuletzt bearbeitet:
Meine Fresse, das der Q9550 so viel Dampf hat ist ja heftig. Sorry for offtopic, aber wundert mich gerade sehr.
 
mastermc51

Jupp das Lanes Problem, von Intel wohl unabsichtlich verschuldet um den Sockel 1336
vom 1156 abzusetzen, ging wohl solange gut (oder fiel nicht ganz so auf) bis USB 3.0 und S-ATA 3 (6GB) im kommen waren.
Teurere Board s umgehen das Problem mit einem Zusatzchip MFG:)

Ps Jupp der "alte" Q9550 schlägt sich noch ganz gut;)
 
Zuletzt bearbeitet:
Ich glaube die wenigsten School-Gamer hier wissen das ihr auch so teures Intel Board (welcher Hersteller auch immer) zwar PCIe 2.0 Protokoll "spricht", aber nur die Geschwindigkeit von PCIe 1.1 hat.
Das stimmt nur für die Lanes der Southbridge der PCIe Root Complex der CPU hat beides implementiert.
 
AMD ist definitiv auf dem richtigen weg. wenn die Bulldozer tatsächlich die versprochenen effizienzsteigerung von etwa 30% machen und den spaß dann noch mit 8 kernen zu brauchbaren Preisen, dann werden die Sandbrücken aber richtig "umgebulldozert" :D
 
aaah interessant das wusste ich noch gar nicht :evillol: habe ich nicht umsonst mir ein AMD Brett geholt:)
Aber Scherz bei Seite hatte andere Gründe, aber trotzdem schön zu wissen das man PCI 2.0 hat;)
Ich dachte nicht das es da zwischen Intel und AMD einen Unterschied gibt mfg


DAASSI

Bulldozer ja das wird sehr interessant auf den Warte ich auch, aber gegen Intel wird es ganz bestimmt nicht leicht..naja schau wir mal :) Ich traue Sandy Bridge ne Menge zu.
Es ist sozusagen ne alte aber hoch optimierte Architektur und AMD hat sehr grosse radikale Änderungen
vorgenommen. VLT kann man sogar sagen ein fast völlig neu aufgebauten Entwurf der mehr
in Richtung Server-Vielkern CPU geht und die Effizienz in Vordergrund stellt.

Aber AMD wird schon wissen warum sie den Weg gehen.
 
Zuletzt bearbeitet:
mastermc51 schrieb:
Wie kommst denn auf das dünne Brett ? :freak:

Du hast vmtl. noch nie Full-HD Videos geschnitten und als Blu-Ray exportiert!
Mein "alter" Phenom II X4 940 BE (4Core mit je 3.0 Ghz) braucht allein ca. 9-11 Stunden bei
1,5 Stunden Full-HD Material.
Mit meiner GTX 285 zusammen (CUDA) im Adobe Premiere elements 8 brauch der noch ca.
3 Stunden!
Die Bildqualität ist logischer Weise die gleiche.

Nimm auch mal Badaboom als Beispiel, da wird decodiert per CPU und das umgewandelte Video
encodiert per GPU gerechnet. Es hat eine sehr gute Bildqualität.
Es kommt auf die Programme an, nicht drauf WER nun genau was umrechnet!

Wir werden hier OT: Ich habe Versuche gemacht mit sowohl Premiere als auch mit Badaboom. Mehrere verschiedene Video-Schnipsel (hell, dunkel, verrauscht, ruhige und schnelle Szenen). Im Vergleich zum x.264 können die beiden Programme in Sachen Bildqualität nicht mithalten.
Man hat auf den ersten Blick bereits erkannt, was auf der GPU, und was auf der CPU kodiert wurde. Nur weil die GPU schneller ist, ist sie nicht besser. Ich wäre auch gerne auf die GPU als Kodierarbeitspferd umgestiegen. Aber die Qualität eignet sich leider nur, um eben schnell ein Video fürs Handy für die Fahrt mit der U-Bahn zur Arbeit umzuwandeln. Für die Archivierung meiner Videos ist das deutlich zu wenig. Vielleicht schaffen die beiden Hersteller es ja mit einer der kommenden Versionen zu akzeptabler Qualität zu finden.
 
Marv82 schrieb:
Wir werden hier OT: Ich habe Versuche gemacht mit sowohl Premiere als auch mit Badaboom. Mehrere verschiedene Video-Schnipsel (hell, dunkel, verrauscht, ruhige und schnelle Szenen). Im Vergleich zum x.264 können die beiden Programme in Sachen Bildqualität nicht mithalten.
Man hat auf den ersten Blick bereits erkannt, was auf der GPU, und was auf der CPU kodiert wurde. Nur weil die GPU schneller ist, ist sie nicht besser. Ich wäre auch gerne auf die GPU als Kodierarbeitspferd umgestiegen. Aber die Qualität eignet sich leider nur, um eben schnell ein Video fürs Handy für die Fahrt mit der U-Bahn zur Arbeit umzuwandeln. Für die Archivierung meiner Videos ist das deutlich zu wenig. Vielleicht schaffen die beiden Hersteller es ja mit einer der kommenden Versionen zu akzeptabler Qualität zu finden.

sign.

An das gute HQ x264 über CPU kommt bisher kein GPU Encoder ran...
StaxRip 4 the rocks.
 
DAASSI schrieb:
wenn die Bulldozer tatsächlich die versprochenen effizienzsteigerung von etwa 30% machen und den spaß dann noch mit 8 kernen zu brauchbaren Preisen, dann werden die Sandbrücken aber richtig "umgebulldozert" :D

Das hat mich jetzt richtig amüsiert zu lesen :D

Ja da bin ich auch mal gespannt was AMD da für uns auf Lager hat :)
 
Ich finde, dass der Performance-Zuwachs bei +100MHz irgendwie nicht realistisch skaliert. Kann mir also nicht vorstellen, dass ein auf dem selben Niveau arbeitender 1090T/1055T dieseleben Werte liefert. Wenn doch, dann ist die CPU leider nicht wirklich sinnvoll, zumal der 1090T ebenfalls eien Black Edition ist, welche günstiger gleich schnell betrieben werden könnte.

Zitat von DAASSI :
AMD ist definitiv auf dem richtigen weg. wenn die Bulldozer tatsächlich die versprochenen effizienzsteigerung von etwa 30% machen und den spaß dann noch mit 8 kernen zu brauchbaren Preisen, dann werden die Sandbrücken aber richtig "umgebulldozert" :D
lol, das nenn ich mal ein geiles Wortspiel :D
 
Zuletzt bearbeitet:
Drei Wörter:
zu alt
unnötig(Prof Bereich in Ordnung)
Strom hungrig

Abwarten auf die neue Plattform und fertig. Grafikkarten bringen mehr als ein CPU je leisten kann. Cuda und OpenCL ist das Stichwort.
 
Zuletzt bearbeitet:
MC BigMac schrieb:
Drei Wörter:
zu alt
unnötig(Prof Bereich in Ordnung)
Strom hungrig

1 ooooh ist Sandy Bridge schon draussen, wie schnell doch ein 6 Kern alt werden kann;)
2 Wenn ich vor der Wahl stehe AMD x4 955/965...würde ich wahrscheinlich ein x6 nehmen auch wenn ein x4 im grossen und ganzen reichen würde (geschätze Max Leistung 1100T zu x4 955 = 140 %) (955=100%)
3 der x6 1100T hat 2 Kerne mehr als ein zb AMD x4 955 selbst wenn der ne TDP von 95 Watt
hat sieht der X6 ganz gut aus von der Effizienz trotz der 125 Watt TDP

Rein Rechnerisch 955 4/95 Watt =23,75 Watt pro Kern
........................1100T 6/125 ......= 20,84 Watt pro Kern

Am besten ohne Turbo betrachten da der X4 955 95 TDP ja auch kein Turbo hat...dann wäre das Ergebnis Linear

MFG:)
 
Zuletzt bearbeitet:
@held2000

der X6 wird anders gefertigt, das Verfahren ist anders bzw erweitert. Deshalb die gute Effizienz verglichen mit dem Phenom II X4.
 
Zurück
Oben