PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Test: AMD FX-8350 „Vishera“



Seiten : 1 [2] 3

Krautmaster
23.10.2012, 15:53
@Matzegr

laut eigener Aussage damals sollte SOI aber sparsamer sein da weniger Leakage oder? ;)

Lübke
23.10.2012, 16:03
naja amd braucht für 8 physikalische kerne ja auch nur so viel strom wie intel für 6 physikalische kerne ;) nur ist geringerer verbrauch != effiziens
egal ob soi sparsam ist oder nicht, die architektur ist und bleibt ineffizient. das eine sagt über das andere wenig aus.

scf-since1904
23.10.2012, 16:11
irgendwie find ich's lustig wie hier auf computerbase damit umgegangen wird :D bei den zambezi's hieß es noch "schwarzer mittwoch für AMD" beim test & jetzt "auferstanden aus ruinen". irgendwie wirkt beides für mich absolut überspitzt. die 15% sind jetzt auch nicht soo toll dafür, dass der stromverbrauch gleich geblieben ist/bisschen hoch & immerhin 1 jahr vergangen ist. intel hat nämlich auch weiterentwickelt.

ich fand den zambezi/ 1. Generation Bulldozer nicht soo schlecht. Klar der Piledriver ist jetzt auch im Vergleich (Marktposition & so) etwas besser. Trotzdem wie gesagt ich find das alles etwas übertrieben.

schlussendlich (mein Fazit) : Bulldozer ganz ok -> Piledriver besser -> Intel Leider immernoch am besten -> für den normalen Menschen dem's nicht auf paar Prozent Leistung/Stromverbrauch ankommt alles kaufbar ;)

Voyager10
23.10.2012, 16:12
Das war doch genauso zu erwarten gewesen , AMD holt die Leistung aus 400MHZ Mehrtakt raus und verbraucht dabei 3x !!!! soviel Energie wie ein gleichschneller Core i5 .

xeq
23.10.2012, 16:17
so lange die cpu sich preislich nicht deutlich vom 3570k absetzt ist es doch nur ein weiterer schuss in den ofen.

Matzegr
23.10.2012, 16:18
laut eigener Aussage damals sollte SOI aber sparsamer sein da weniger Leakage oder? ;)

Richtig, nur ist die Frage wie sich es mit kleineren Strukturbreiten verhält. Was bei 130nm noch einen Vorteil bringt, kann bei 32nm schon wieder anders aussehen. Wenn ich mir die V-Core anschaue, bekomm ich bei AMD regelmäßig Albträume :evillol
Mein 65nm Brisbane läuft aktuell mit 0,8V@1,5GHz bzw. mit 1V@Stock, das sind bei Standardtakt mal eben 0,35V weniger als Werksseitig. Potential hatte die SOI-Fertigung, nur irgendwie konnte man es nie wirklich gut umsetzten. Während Intel die V-Core mit kleineren Fertigungen senken konnte (65nm Conroe: 0,8-1,5 V; 32nm SB: 0,6–1,375 V) scheint sich bei AMD nichts zu tun, wobei ich eher noch das Gefühl habe AMD braucht mehr V-Core als früher.

Hoffe doch mal das GF den 28nm-bulk-Prozess anständig zum laufen bringt, damit wir nächstes Jahr Kaveri sehen.



die 15% sind jetzt auch nicht soo toll dafür, dass der stromverbrauch gleich geblieben ist/bisschen hoch & immerhin 1 jahr vergangen ist. intel hat nämlich auch weiterentwickelt.

Der FX-8350 ist 13% (http://media.bestofmicro.com/Y/0/357624/original/energy%20used.png) effizienter als ein FX-8150. Sprich er verursacht 13% geringere Stromkosten als sein direkter Vorgänger. Die maximale Leistungsaufnahme, die leicht gestiegen ist, macht keine Aussage über Effizienz/tatsächlichen Stromverbrauch!

Micha83411
23.10.2012, 16:18
Hm wenn ich meinen i5-750 auf 4ghz bringe dürfte er schneller sein ^^

drago-museweni
23.10.2012, 16:20
Ja doch nicht ganz so schlecht wie befürchtet mit der Leistung der CPU wäre ich so eigentlich sehr zufrieden, haben sie doch etliches eingeholt.

Dennoch der Wermutstropfen bleibt die Leistungsaufnahme, schade das sich da nicht etwas getan hat mit hätte es ja schon genügt wenn sie unter den ollen 1100T gefallen wären so 10 bis 20w.
Dennoch muss man auch anerkennen das es mehr Leistung gibt, und der Stromverbrauch nicht viel weiter steigt.

Schade dasb bei der Leistungsaufnahme keine DVD oder Videowiedergabe getestet wurde.

Julz2k
23.10.2012, 16:22
Hm wenn ich meinen i5-750 auf 4ghz bringe dürfte er schneller sein ^^

Siehe dazu meinen Beitrag

http://www.computerbase.de/forum/showthread.php?p=12884353

Ameisenmann
23.10.2012, 16:23
@Ameisenmann: dann rate ich dir zu einem trinity. bei ner cpu 30 watt spraren und bei der graka 200 watt verballern passt irgendwie nicht zusammen ;)

aber ernsthaft: ja intel ist sparsamer und zwar unstreitbar, das thema wird nun aber schon seit 12 seiten strapaziert ohne das irgendwas neues dazu gesagt wird. amd-fans finden verbrauch nicht schlimm und kaufen amd, intelfans finden verbrauch das wichtigste von der welt und kaufen intel und ich kaufe alles was mir spass macht, sowohl von intel als auch von amd ;)

Ich meinte wo es nicht weh tut! Natürlich bevorzuge ich eine sparsamere Grafikkarte, die ist ja immerhin auch leiser zu kühlen. Und wenn etwas viel verbraucht und dafür dreckig viel Leitung liefert, dann geht das schon i.O. Man muss aber sehen was es sonst noch am Markt gibt.



Ameisenmann
Der Auto Vergleich ist in meinen Augen nicht gerade der beste.
Besonders da die neuen Prozessoren genug Stromspar-Modi haben.
Also wenn der FX in vielen Anwendungen kaum mehr verbraucht (idle -Werte haben sich zum FX1 sogar verbessert) dann kannst du deine Argumententation nur bringen, wenn du einen gleich schnellen Intel mit AMD unter Last vergleichst. Um da aber wirklich einen großen Unterschied zu haben, der im Geldbörse bemerkbar macht, musst du diesen täglich lange auf 100% auslasten.

Was autofahren angeht. Ich fahre bereits bei 50 km/h mit dem 5 ten gang, suche mir die kürzesten und einfachsten strecken wo ich den Motor weniger beanspruche. Somit kann ich auch gut effizient Sprit sparen.
(mit dem Tacho/km-Stand ca abgeschätzt und verglichen)
Aber ich muss zugeben, ich weiß nicht was für Spritsparfunktionen moderne Motoren besitzen!

mein Rechner muss knechten, mein Laptop darf chillen. Das mit dem Autovergleich passt schon, wenn man den 535er sanft gefahren ist, hat der auch nur zivil gesoffen, bei Vollgas oder flotter Fahrweise war den schon ziemlich durstig, war aber dennoch ein geiles Auto. Heute habe ich nen Volvo mit 200 Turbo PS, geht besser ab und braucht deutlich weniger.

Myon
23.10.2012, 16:34
Glückwunsch, AMD... Der FX 8350 schafft es nun, meinen auf 3,85GHz übertakteten Phenom II X6 1100T herauszufordern. Aber dennoch ist mein "oller" X6 in vielen Belangen noch schneller - und wohlgemerkt habe ich das Teil vor etwa einem Jahr für 150€ erworben. Der vishera schafft es nur in besonderen Szenarios, wo beispielsweise FMA oder massives Multithreading begünstigt werden, den Phenom soweit zu knacken, dass man überhaupt eine "Aufrüstwilligkeit" verspürt. Dass ein Bull(shit)dozer nicht in Frage kommt, ist klar. Vishera hat mehr Leistung, mehr Takt, mehr Stromhunger. Das überzeugt mich nicht.

Der Steamroller wird vermutlich erstmals wieder Aufrüstgedanken aufkommen lassen. Bis dahin wird der Thuban noch seinen Job machen.

Voyager10
23.10.2012, 16:37
Das witzigste an der Sache scheinen mir hier die AMD Fans zu sein , die von dem hohen Verbrauch damit ablenken wollen das der FX ja die ganze Zeit nur im Idle ist :D
Seit wann kaufe ich mir eine 8 Thread 4 GHZ CPU die die ganze Zeit nichts tut !? ;D So eine CPU kaufe ich mir erst wenn ich professionell Videos und Bilder wandeln muss und da idle der bestimmt nicht .

Tammy
23.10.2012, 16:42
Wenn du Tests sehen willst, bei denen die GPU-Leistung gemessen wird, dann lies einen GPU-Test. Hier geht es um die Leistung der CPU. ;)

Hier geht es um unsachliche Aussagen der Redaktion ohne Relevanz und das habe ich angesprochen.


Es ist vollkommen legitim, das GPU-Limit "künstlich" zu reduzieren, um die Unterschiede der CPUs zueineinder deutlich zu machen.
Das der 640x480-Test ganz gut die Situation mit einer zukünftigen GPU-Generation widerspiegelt, hat Computerbase schon in einem Test bestätigt.
(Ich finde den Artikel gerade nicht wieder.)

Wo ist er wohl, wird sicher seine Gründe haben ;)

Wer die Vorrausschau auf die nextgen Grakas von AMD und Nvidia gelesen hat der weiss, dass keiner der aktuellen Prozessoren noch in Betrieb sein werden, wenn sich das Bild mal verkehren sollte, wobei Ausnahmen die Regel bestätigen.


Außerdem bremst z.B. ein FX-8150 auch schon "normale" Karten der letzten Generation wie eine GTX570 oder HD6970 um 6-8% (http://www.computerbase.de/artikel/grafikkarten/2011/bericht-gpu-braucht-cpu-zweiter-teil/) aus, gegenüber eunem 2600K. Das ist nicht die Welt, aber immerhin schon fast so viel, wie Vishera gegenüber Bulldozer zulegt.
Diese Lücke wird mit neueren Karten nur noch größer werden.

Das ist schlicht nicht wahr und das kann ich im Alltagstest mit einem FX-6200 und einer 7950 nur untermauern, denn bei mir limitiert die Graka und nicht der Prozessor. Da wird, wie gesagt bestätigen irrelevante Ausnahmen die Regel, ein FX keine lastgen GPU ausbremsen!

duke1976
23.10.2012, 16:44
Ich sags auch gerne (nochmal) anders: Ich will gar nicht wissen, wie viele eine Grafikkarte zu ihrem Sandy/Ivy haben, die 300 Watt braucht, obwohl es eine mit halben Verbrauch auch tun würde. Warum darf eine GTX 690 300 Watt verbrauchen? Und bei AMD bekommen die Leute jenseits der 100 Watt die Krise? Ich versteh's einfach nicht...:o

Lübke
23.10.2012, 16:45
@Ameisenmann: das mit dem verbrauch ist imho dummheit vom amd-marketing. hätten sie einen fx-4300 präsentiert, wäre das verbrauchsproblem erheblich geringer... intels sechskerner ist ja auch eine stromvernichtungsmaschine gemessen an i3 und i5.

natürlich glänzt amd hier nicht und ich hab selbst auch sandys (neben bulldozer, deneb und anderen) und empfehle aktuell meist den ivy i5 auch zum zocken, nur das drama um den verbrauch ist hier doch ein wenig überzogen... seite 14 und noch immer wird über nichts anderes geredet... ;)
wer hat nach bulldozer ernsthaft ein sparwunder erwartet?

hrafnagaldr
23.10.2012, 16:48
Seit wann kaufe ich mir eine 8 Thread 4 GHZ CPU die die ganze Zeit nichts tut !? ;D So eine CPU kaufe ich mir erst wenn ich professionell Videos und Bilder wandeln muss und da idle der bestimmt nicht .

Auch die wenigstens i7-Besitzer die ich kenne nutzen die CPU auch nur ansatzweise in die Richtung. Aber im neuen PC muss der i7 scho drin sein. Für Office und so.
Kein Scherz, sondern Realität als IT-Systemkaufmann. Ist immer gar nicht so leicht, dass den Leuten auszureden.

Geschrieben an einem Rechner mit Pentium 4 2.80Ghz und 2GB RAM. :D

Quad-core
23.10.2012, 16:49
Alle heulen über den Verbrauch , ingame macht der FX bei mir keinen großen unterschied zum I7 3770K , ich weiß ja nicht , aber einige scheinen den ganzen tag ihre CPU mit Prime95 zu befeuern .
Mein Verbrauch liegt bei 280Watt ingame , mit einem i7 3770K komme ich auf fast den selben wert .

SaarL
23.10.2012, 16:55
Zumal, wenn wirklich Vollast herrscht, sprich alle "Kerne" ausgelastet werden - bspw. durch rendern - so geschieht dies dann auch in einer kleineren Zeitspanne, da Mehrleistung.

Also relativiert sich der Verbrauch wieder.

Lieber eine CPU die 200W (unter absoluter Vollast!) braucht, aber die Aufgabe in 1h erledigt als eine die nur 100W (auch Vollast) braucht, aber 3h dafür benötigt...

;)

StayFelix
23.10.2012, 16:55
harter titel :D

Quad-core
23.10.2012, 17:02
Was mich noch wundert das CB unter Prime95 238Watt gemessen hat , ich komme mit meinem system @4Ghz auf nur 175Watt bei Prime95 .

phiber66
23.10.2012, 17:06
Das witzigste an der Sache scheinen mir hier die AMD Fans zu sein , die von dem hohen Verbrauch damit ablenken wollen das der FX ja die ganze Zeit nur im Idle ist :D
Seit wann kaufe ich mir eine 8 Thread 4 GHZ CPU die die ganze Zeit nichts tut !? ;D So eine CPU kaufe ich mir erst wenn ich professionell Videos und Bilder wandeln muss und da idle der bestimmt nicht .
Finde ich auch irgendwo lächerlich! Ich persönlich habe ein AMD Laptop als HTPC und ein Power-Rechner zum Arbeiten mit Intel CPU! Das heist ich schalte den Rechner auch wirklich nur zum Arbeiten oder Spielen an! Und dann Arbeitet ER und der Rechner verbringt sozusagen die meiste Zeit somit unter Last!
Jeder weiss das es auch einen Ruhezustand gibt also wenn der Rechner nicht genutzt wird!
Irgendwie gehen die Leute die du hier ansprichst wohl alle davon aus das in Smartphone/Netbook&Tablet Zeiten die Masse immer noch einzig und allein einen einzigen Desktop Rechner zu Hause stehen hat der im Leerlauf dann die Meiste Zeit rumgurkt! Das ist in vielen Fällen sowie in Firmen und Schulungräumen usw. auch noch der Fall! Diese Aussage darf aber somit nicht mehr so pauschalisiert werden wie noch vor 5 Jahren! Aufwachen sag ich da nur die FX CPU ist aber auch ein Bratapfel in Sachen Verbrauch unter Last! Da bekommt man ja am Ende des Verbrauchs-Jahres bei der Stromrechnung einen regelrechten Schock:cool

sebi100
23.10.2012, 17:06
Lieber eine CPU die 200W (unter absoluter Vollast!) braucht, aber die Aufgabe in 1h erledigt als eine die nur 100W (auch Vollast) braucht, aber 3h dafür benötigt...

;)

Unterschreib ich dir sofort :D

aber die meisten wollen es so nicht verstehen... aber damit hab ich mich abgefunden... egal wie amd es macht... sie machen es verkehrt...
Sie bringen mehr leistung, können aber den Stromhunger nicht senken... damit ist AMD direkt wieder "fail"!
Amd bringt ne sparsamere CPU, könnten dafür aber nicht die CPU leistung steigern, AMD ist direkt "fail"!

Aber das AMD weniger Geld hat sieht keiner :freak


Finde ich auch irgendwo lächerlich! Ich persönlich habe ein AMD Laptop als HTPC und ein Power-Rechner zum Arbeiten mit Intel CPU! Das heist ich schalte den Rechner auch wirklich nur zum Arbeiten an! Und dann Arbeitet er auch und verbringt die meiste Zeit unter Last!

Toll... wirklich freut mich für dich... und was mach ich? Ich hab nur einen Rechner... den nehme ich zum surfen, chatten, downloaden und zum zocken... jetzt darfst du gerne raten wie lange der im idle ist... ja richtig überwiegend... "nein wirklich ist so... der ist die meiste zeit im idle"... krass oder... also bin ich sonderbar?


Da bekommt man ja am Ende des Verbrauchs-Jahres bei der Stromrechnung einen regelrechten Schoc

Also... hab ich nicht :)... habe noch einen uralt Q6600... nichts gesenkt oder so. Und die Stromrechnung war bis jetzt nach einem Jahr ganz okay... eigentlich genau das bezahlt was vorher berechnet :D Daher kann ich persönlich deine Aussage nicht direkt teilen

Ameisenmann
23.10.2012, 17:13
@Ameisenmann: das mit dem verbrauch ist imho dummheit vom amd-marketing. hätten sie einen fx-4300 präsentiert, wäre das verbrauchsproblem erheblich geringer... intels sechskerner ist ja auch eine stromvernichtungsmaschine gemessen an i3 und i5.

natürlich glänzt amd hier nicht und ich hab selbst auch sandys (neben bulldozer, deneb und anderen) und empfehle aktuell meist den ivy i5 auch zum zocken, nur das drama um den verbrauch ist hier doch ein wenig überzogen... seite 14 und noch immer wird über nichts anderes geredet... ;)
wer hat nach bulldozer ernsthaft ein sparwunder erwartet?

na ist halt wie es ist, ich sehe die CPU nicht als 8 Kerner, mehr als 4 Kerner mit HT und damit sollte man es auch vergleichen. Dafür braucht es aber zu viel Strom. Als 8 Kerner gesehen relativiert sich das aber, dafür finde ich die CPU zu langsam. Wie man es dreht. Für Zocker mit OC Ambitionen ist das auch nichts. Für wen soll die CPU sein? AMD sollte die APU ausbauen und den Bullischrott einstampfen oder sich eben auf die kleineren Versionen konzentrieren.

krutoistudent
23.10.2012, 17:14
ARM ist sogar noch kleiner als AMD und trotzdem werden jährlich mehr CPUs mit ARM Kernen verkauft als Intel und AMD zusammen verscherbeln. :rolleyes


hmm? arm? also du meinst samsung, apple usw. sind kleiner als amd?

Rock Lee
23.10.2012, 17:20
Erinnert mich wie ATI damals doi 3870 rausbrachte, nachdem die 2800XT eine totale Enttäschung war.
Im Gegensatz zu damals hat die Konkurrenz aber den Fertigungsprozess-Vorteil. Während man nächstes Jahr irgendwann auf 28nm springt, ist Intel bereits seit Anfang des Jahres auf 22nm. Ein immenser Vorteil, grade was den Energiehunger angeht. Apropo:

Wäre da nicht der Energiehunger, wäre ich sogar am überlegen mir so eine CPU zuzulegen.
Trotzdem hält mein Core2Duo@3,5 GHZ wacker durch und wartet auf Ersatz. Eventuell Steamroller? Mal sehen!

Daedal
23.10.2012, 17:24
Das war doch genauso zu erwarten gewesen , AMD holt die Leistung aus 400MHZ Mehrtakt raus und verbraucht dabei 3x !!!! soviel Energie wie ein gleichschneller Core i5 .
Diesen 3x Mehrverbrauch würde ich gerne mal irgendwo belegt sehen - hast du eine Quelle für diese absurde Behauptung? Der Verbrauch ist doppelt so hoch unter Last. Mann muss es ja nicht übertreiben.
(@CB Redaktion: Das kommt von den unsinnigen Idle-Last-Differenz-Schaubildern)


Der FX-8350 ist 13% (http://media.bestofmicro.com/Y/0/357624/original/energy%20used.png) effizienter als ein FX-8150. Sprich er verursacht 13% geringere Stromkosten als sein direkter Vorgänger. Die maximale Leistungsaufnahme, die leicht gestiegen ist, macht keine Aussage über Effizienz/tatsächlichen Stromverbrauch!

Die maximale Leistungsaufnahme ist nur beim CB Test gestiegen - alle anderen Seiten kommen auf andere Testergebnisse. Der Verbrauch ist gleich geblieben zum Vorgänger.

phiber66
23.10.2012, 17:32
@Sebi100
Der FX-8350 verbraucht unter Last ganze 100Watt mehr als nen I7-3700k
und wenn du dein Allround Nutzungsverhalten ansetzt denn sind immer noch 70Watt im Differenz-Idle Vollast Unterschied!
Solch hohe Werte werden sich definitiv deutlich in der Stromrechnung bemerkbar machen!
Für Leute denen der hohe Stromverbrauch egal ist sicher nicht verkehrt aber was spart man denn da wenn die CPU hundert Euro billiger ist man aber nach 2-3 Jahren über den Stromverbrauch das wieder abdrückt an den Energiekonzern!
Mal ganz zu schweigen das die Leistung in 3 Jahren wieder unzureichend ist und man mit dem I-7leistungstechnisch dann noch wesentlich besser darsteht! Bedenkt man noch den Mehraufwand & die zusätzliche Zeit für Berechnungen bevor das Ergebnis endlich fertiggerechnet wurde oder die Applikation fertiggerendert wurde entsteht auch noch mal ein Verlust in Watt aufgrund mehr benötigter Zeit! Ums mal so zu sagen die CPU ist recht ineffizient durch ihren Hohen Verbrauch!

CHAOSMAYHEMSOAP
23.10.2012, 17:36
Auch Haswell wird nicht mehr als 15% Performance Anstieg zu Ivy haben. Steamroller sollte allerdings etwas mehr Potential als die anvisierten 10-15% Steigerungen haben.

Auch Haswell wird wieder vor der entsprechenden CPU von AMD liegen.

Und das bei geringerem Verbrauch an Strom und an Fläche.
=> Intel wird das Rennen wieder mit einer höheren Gewinnspanne beenden und somit auch mehr Geld für Forschung, Entwicklung und die Ausrüstung der Fabs übrig haben. :evillol



Ist dir schonmal aufgefallen, dass AMD nicht selber fertigt sondern fertigen lässt?
Ist dir schonmal aufgefallen, dass ARM auch nicht selber fertigt?

Und trotzdem ist ARM kein jämmerlicher Verliererhaufen wie AMD. Warum wohl?

Weil sie sich im Gegensatz zu AMD eine profitable Nische gesucht haben, um dort Marktführer zu werden.
Wenn man wie AMD in die x86 Fußstapfen tritt, braucht man sich nicht zu wundern, wenn man fast immer vom x86 Erfinder überholt und in Grund und Boden gestampft wird. :rolleyes

Da hilft auch kein Gejammere über die Fertigungsvorteile beim übermächtigen Konkurrenten.


hmm? arm? also du meinst samsung, apple usw. sind kleiner als amd?

Nein, ich meine ARM Holdings Plc (http://www.arm.com/about/company-profile/index.php). Darum habe ich auch nichts über Samsung und Apple geschrieben.

Aber seit PISA sind die mangelnden Lese- und Verständnisfähigkeiten der Deutschen hinreichend bekannt. :rolleyes

Ein_Freund
23.10.2012, 17:46
Für wen soll die CPU sein? AMD sollte die APU ausbauen und den Bullischrott einstampfen oder sich eben auf die kleineren Versionen konzentrieren.
AMD sprach doch selbst den klassischen Wettkampf gibt es nicht mehr.Steamroller soll 2014 kommen...
Quelle (http://www.computerbase.de/news/2012-02/bulldozer-nachfolger-im-desktop-muss-bis-2014-durchhalten/), Quelle 2 (http://www.computerbase.de/news/2011-11/amd-der-klassische-amd-vs.-intel-wettkampf-ist-vorbei/)

Tammy
23.10.2012, 17:51
Und trotzdem ist ARM kein jämmerlicher Verliererhaufen wie AMD. Warum wohl?


Wenigstens bist du unsachlich genug um allen zu beweisen das Diskussionen mit dir sinnfrei sind^^

Matzegr
23.10.2012, 17:57
Für wen soll die CPU sein?


@Sebi100
Der FX-8350 verbraucht unter Last ganze 100Watt mehr als nen I7-3700k
....
Mal ganz zu schweigen das die Leistung in 3 Jahren wieder unzureichend ist und man mit dem I-7leistungstechnisch dann noch wesentlich besser darsteht! ...

Für Gamer ist die CPU nichts. Allerdings gibt es doch das ein oder andere Anwendungsfeld wo der FX-8350 gar nicht mal so schlecht da steht.

For many of the Linux computational benchmarks carried out in this article (http://www.phoronix.com/scan.php?page=article&item=amd_fx8350_visherabdver2&num=1), the AMD FX-8350 proved to be competitive with the Intel Core i7 3770K "Ivy Bridge" processor.
...
In other words, the AMD FX-8350 is offered at a rather competitive value for fairly high-end desktops and workstations against Intel's latest Ivy Bridge offerings -- if you're commonly engaging in a workload where AMD CPUs do well.

Es gibt also durchaus Anwendungen wo der FX-8350 eine ähnliche Leistung bringt wie ein i7-3770K! Der FX-8350 braucht max. 100W mehr, klingt viel, rechnen wir aber mal ein wenig.

FX-8350 kostet 195$, der i7 kostet 330$.
Jetzt verlassen wir mal good old Germany und gehen über den großen Teich, wo man den Strom für ~0,09$/kWh bekommt. Und schon braucht man min. 15000h (625 Tage) unter absoluter Volllast damit sich der Intel lohnt. Der FX-8350 kann für einen Anwender in den USA also durchaus interessant sein. In Deutschland aufgrund des höheren Strompreises und der kleineren Preisdifferenz eher nicht. Intel und AMD sind Firmen die einen globalen Kundenkreis haben und nicht viele Länder haben einen so abartig hohen Strompreis.

Wenn man also zufälligerweise das richtige Anwendungsfeld erwischt, dann ist ein FX-8350 gar nicht mehr so Fail wie hier immer dargestellt wird. Klar für die meisten hier im Forum ist das Teil uninteressant, das heißt aber noch lange nicht, dass er generell uninteressant ist.





Ist dir schonmal aufgefallen, dass ARM auch nicht selber fertigt?

Und trotzdem ist ARM kein jämmerlicher Verliererhaufen wie AMD. Warum wohl?

Was soll der Vergleich überhaupt bringen? ARM verkauft keine Hardware. Äpfel und Birnen sag ich da nur. ARM entwickelt nur das Design von Prozessoren, die von Lizenznehmern gefertigt und verkauft werden. Sprich Kosten für die Fertigung, Verkauf etc. zahlen alles die Lizenznehmer und nicht ARM. Somit kann man schlecht ARM mit Intel oder AMD vergleichen.

sebi100
23.10.2012, 18:01
Mal ganz zu schweigen das die Leistung in 3 Jahren wieder unzureichend ist und man mit dem I-7leistungstechnisch dann noch wesentlich besser darsteht!

Bedenkt man noch den Mehraufwand & die zusätzliche Zeit für Berechnungen bevor das Ergebnis endlich fertiggerechnet wurde oder die Applikation fertiggerendert wurde entsteht auch noch mal ein Verlust in Watt aufgrund mehr benötigter Zeit! Ums mal so zu sagen die CPU ist recht ineffizient durch ihren Hohen Verbrauch!

Aber das ist doch eben nicht der Fall...
Woher z.B. weißt du das die Leistung in 3 Jahren unzureichend ist? Vielleicht nutzen die Programm in 3 Jahren ja alle 8 Threads?... Dann reicht doch immer noch die Leistung. Und ja... ich habe nur vielleicht geschrieben wer weiß :D.


Desweiteren mein ich bei Toms Hardware gelesen zu haben das der 8350 schneller wieder in den Idle Modus ging nach deren Testszenario... [kleines edit IM edit... er war 15 minuten langsamer als der I7-3770k dafür aber 12 sekunden schneller als der beliebte I5-3570k von Intel]

joel
23.10.2012, 18:11
Im zuge weiter steigender Stromkosten ist auch weiterhin der 3570K außer Reichweite. Ich warte dann wie erwartet auf Haswell für die Anschaffung einer neuen AMD CPU. So lange muss dann der 965BE noch ausreichen.

Caanon
23.10.2012, 18:15
Seit wann kaufe ich mir eine 8 Thread 4 GHZ CPU die die ganze Zeit nichts tut !? ;D So eine CPU kaufe ich mir erst wenn ich professionell Videos und Bilder wandeln muss und da idle der bestimmt nicht .
Was glaubst du bei wievielen von 100 Leuten, die genau das gleiche von sich behaupten, dann doch Woche für Woche Stunden zusammenkommen, in denen sie vor der Kiste hocken und nichts wirklich CPU-forderndes machen. Aber eben auch tatsächlich einige Videos (oder ähnlich CPU-forderndes) pro Monat, wofür die Leistung dann natürlich da sein sollte.
Genau dafür ist Vishera okay und nicht wirklich dramatisch ineffizienter als ein Core i5.

Wenn man sich natürlich sicher ist, dass idlen die Ausnahme bleibt, ist der i5 die bessere Wahl, ohne Frage. Wobei man dann auch lieber noch etwas mehr Kohle für einen i7 zusammenkratzen sollte, gegen den Vishera nun wirklich kein Land sieht. ;)

phiber66
23.10.2012, 18:20
@Matzegr
oha das wusste ich nicht! auch das mit den Strompreis US & andere Länder kenne ich auch nicht ... aber schön das man hier auch immer wieder was Neues dazulernt!

@sebi-3570
Das mit deinem Testszenario ist ein haltloses Argument was sich auf verschiedene Stör-und Beieinflussung-Faktoren schieben lässt! Letzendlich wurden sehr viele aktuellere Boards mit Intel Chipsatz gerade auf diesen Punkt "schnelles Erwachen aus dem Hibernate" getrimmt, bzw. dies über neue Features realisiert!
Was in 3 Jahren unzereichend ist weis ich nicht! OK da haste recht aber wie gut man/ich aufgestellt ist/bin weis ich momentan schon;-)
--------------------------------------------------------------------------------------------------------------
Ich kann mich nur Meinung von "Ein_Freund" anschliessen die APU´s sollte AMD weiter vorantreiben wenn man bedenkt das der FX-8350 soviel verbrät und das ohne integrierte Grafik! Die Trinity Serie sehe ich persönlich als das effizientere Produkt in Sachen P/L & Stromverbrauch an!


--------------------------------------------------------------------------------------------------------------
Notebook-HTPC: Thinkpad Edge 525 AMD LLANO 8GB RAM&upgraded USB 3.0 Solution
Desktop: Li Lian Li PC-7FNWX - be quiet! Straight Power E9 400W - Core I7 3770k@ 4,3Ghz - be quiet! Dark Rock Advanced - Gigabyte Z77MX-D3H - 32GB G.Skill TridentX PC3-19200U 2,4Ghz CL10 -2TB Hitachi 5k3000 - LG BH10LS38 - Graka & SSD is coming soon

Julz2k
23.10.2012, 18:30
Was glaubst du bei wievielen von 100 Leuten, die genau das gleiche von sich behaupten, dann doch Woche für Woche Stunden zusammenkommen, in denen sie vor der Kiste hocken und nichts wirklich CPU-forderndes machen. Aber eben auch tatsächlich einige Videos (oder ähnlich CPU-forderndes) pro Monat, wofür die Leistung dann natürlich da sein sollte.
Genau dafür ist Vishera okay und nicht wirklich dramatisch ineffizienter als ein Core i5.

Wenn man sich natürlich sicher ist, dass idlen die Ausnahme bleibt, ist der i5 die bessere Wahl, ohne Frage. Wobei man dann auch lieber noch etwas mehr Kohle für einen i7 zusammenkratzen sollte, gegen den Vishera nun wirklich kein Land sieht. ;)

Nicht daramatisch ineffizienter?

http://images.anandtech.com/reviews/cpu/amd/Vishera/power-ivb.png

Der AMD ist 1/10 schneller, verbraucht aber 8/10 mehr Energie als der Intel.

Caanon
23.10.2012, 18:45
Nicht daramatisch ineffizienter?
Ich wusste das sowas kommt. :rolleyes
Bitte lesen UND verstehen!

Wenn du den lieben langen Tag Videos kodierst oder ähnlich CPU-forderndes machst, vergiss Vishera, nimm einen i5, besser noch einen i7. Nichts anderes habe ich gesagt.
Wenn nicht, wenn, wie es wahrscheinlich sowieso bei den meisten Leuten der Fall ist, idlen eher die Regel als die Ausnahme darstellt, ist der Unterschied logischerweise viel geringer als in dieser Grafik.

ExcaliburCasi
23.10.2012, 18:53
Amerikanische Power ...

Noch nicht mitbekommen was damit in der Autobranche passiert ist :freak


Also, Ich habe meine erwartungen nach Bulli in den Keller geworfen und habe Elefanten darüber laufen lassen. Hat geklappt, ich bin nicht entäuscht!
Über die Performance kann ich garnicht mal klagen, die Leistungskrone ist mir egal.
Ein 8350 passt Performancemäßig ganz gut zu mir.
Aber, bitte, die Energieaufnahme, ... , ich Persönliche ziehe da den Vergleich zum 3570K. da reden wir von 20% bis 100% mehr Leistungsaufnahme, für welche mehr Performance?
und welchen Preisunterschied?

Für einen 8350 sind derzeit genau 150€ okay, damit ich nicht SOFORT per Stromrechnung draufzahle.


Und es will mir einfach nicht in Birne, warum man für soetwas vom Phenom desgin weg ist.


PS: Naja, wenn AMD 22nm Trigate hätte, wären sie vermutlich wirklich auf Augenhöhe.
Die Leistung die AMD bringt, dafür das es AMD ist, ist beachtlich, aber ich kann das Produkt deshalb nicht schön reden ...

pipip
23.10.2012, 19:00
Voyager10

Das witzigste an der Sache scheinen mir hier die AMD Fans zu sein , die von dem hohen Verbrauch damit ablenken wollen das der FX ja die ganze Zeit nur im Idle ist
Solche Aussagen kommen oft zu stande, weil gewisse Personen meinen, sie bringen ihren Gamer PC ständig auf 100%. Interessanterweise kommen diese Aussagen oft von leuten die sogar noch einen Intel C2Q haben :D

Aber ich hab dazu eh schon meine Aussage gemacht. Wer bei AMD ein Vishera zum gamen und etwas Anwendungen sucht, wird beim FX 6300 wahrscheinlich effizienter wegkommen.
Kann mir gut vorstellen dass es dieses mal der i3 schwerer haben wird.

CHB68
23.10.2012, 19:11
Ich weiß nicht.....mag ja sein das der FX 8350 bei Anwendungen (http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/5/) mit dem i5 3570 auf Augenhöhe liegt, aber ist das ein Grund zum jubeln oder ein Argument den FX 8350 zu kaufen?

Stromverbrauch hin oder der; warum sollte ich den FX 8350 einem i5 3570 vorziehen? Selbst wenn ich ihn mit meinem bald 2 Jahre (!) alten i5 2500K vergleiche liegen da immer noch Welten zwischen. Ich spiele z.B. gerne Armed Assault 2 bzw. Operation Arrowhead (http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/40/), und da beträgt der Unterschied immer noch schlappe 17%!

Sorry, für mich persönlich wieder ein epic fail. Nicht das die CPU schlecht ist, aber es gibt besseres und ich muss für mein Geld hart arbeiten....;)

Kyroka
23.10.2012, 19:14
Der FX6300 scheint noch das attraktivste Modell zu sein wenn man noch ein entsprechendes Board hat. Verstehe nicht so recht wieso jemand den FX4300 nehmen sollte.

Wenn ich fast 200€ für das Topmodell in die Hand nehme, würde ich lieber gleich das Board mitwechseln. Wer sowieso ein neues Board braucht, wird eh fast immer Intel nehmen.

Matzegr
23.10.2012, 19:15
Nicht daramatisch ineffizienter?
Der AMD ist 1/10 schneller, verbraucht aber 8/10 mehr Energie als der Intel.

Ach kommt, übertreib es nicht. Bei deinem Beispiel ist der AMD 20% schneller und verbraucht 58% mehr Energie. Immer noch schlecht aber nicht so schlecht wie du es darstellst.

dowant120hz
23.10.2012, 19:19
Weiß jemand wie die Performance hinsichtlich Rendering/Lightmapping usw aussieht?
Scheint ja kein echter 8-Core zu sein und nehme auch an bei sowas ist eher Float-Leistung gefragt...

SaarL
23.10.2012, 19:28
.mag ja sein das der FX 8350 bei Anwendungen mit dem i5 3570 auf Augenhöhe liegt, aber ist das ein Grund zum jubeln oder ein Argument den FX 8350 zu kaufen?

Stromverbrauch hin oder der; warum sollte ich den FX 8350 einem i5 3570 vorziehen?
[...]
Sorry, für mich persönlich wieder ein epic fail. Nicht das die CPU schlecht ist, aber es gibt besseres und ich muss für mein Geld hart arbeiten....

Was nun, Epic Fail oder nicht schlecht?...

Vorziehen sollte man dann, wenn man eh schon ein AM3(+) Board besitzt und von einer kleinen AMD CPU aufrüsten will.

Das macht P/L extrem viel mehr Sinn, als dann das teure Paket "Intel+Mobo" zu kaufen.

Bei einer Neuanschaffung ist es jedoch klar, dass man zu einem Intel (Ivy) greifen sollte, wenn man pure Leistung will.

Julz2k
23.10.2012, 19:52
Ach kommt, übertreib es nicht. Bei deinem Beispiel ist der AMD 20% schneller und verbraucht 58% mehr Energie. Immer noch schlecht aber nicht so schlecht wie du es darstellst.

Reines Wunschdenken was du hier präsentierst.
Da brauche ich mit meinen niedrigen Rechenkünsten nicht einmal ankommen, das kann jeder blinde erkennen dank dem Diagramm.
100w Verbrauch zu 200w Verbrauch.
Der AMD ist 100 Sekunden schneller wenn man ein 1000 Sekunden video nimmt.

Wo sind jetzt deine Traum Werte?

Sagittaloky2
23.10.2012, 20:00
Gut gemacht AMD! ich warte aber noch auf Steamroller.

crackett
23.10.2012, 20:06
AMD hat die Energiewende schon hinbekommen... War ne Krücke, bleibt ne Krücke!

MouseClick68
23.10.2012, 20:17
gute arbeit AMD. kämpft weiter.

stone1978
23.10.2012, 20:24
http://www.tomshardware.de/fx-8350-vishera-review-Benchmarks-Test,testberichte-241128-8.html

So schaut euch mal diesen Test an und lest die letzten 2 Seite sehr sorgfältig.

Also so schlecht schaut die CPU dann nicht aus.

Beeindruckend ist die Messung für die Abarbeitung aller Benchmarks (Batchfile) wo sie auf Platz 2 kommt.

Wenn ich mir anschaue dass die CPU wahrscheinlich in 2 Wochen für 150 EUR zu haben sein wird dann hätte ich gesagt stimmt das P/L Verhältnis.

Vor allem da ich ein AM3+ Board habe und nur die CPU tauschen muss.

lg

Matzegr
23.10.2012, 20:37
Weiß jemand wie die Performance hinsichtlich Rendering/Lightmapping usw aussieht?


Bei 3ds max 2011 ist der FX-8350 22% schneller als der Vorgänger und somit schneller als ein i5-3570K und knapp hinter einem i7-3770K
Bei Pov-Ray ist man 16% schneller als der Vorgänger und liegt auch vor einem i7-3770K
Bei C-Ray (Linux) ist man 40% schneller als ein i7-3770K
Bei TTSIOD Renderer (Linux) ist man 12% langsamer als nen i7-3770K

Wenn einem der Stromverbrauch egal ist, kann man also auch zu nem FX greifen.


Reines Wunschdenken was du hier präsentierst.
Da brauche ich mit meinen niedrigen Rechenkünsten nicht einmal ankommen, das kann jeder blinde erkennen dank dem Diagramm.
100w Verbrauch zu 200w Verbrauch.
...
Wo sind jetzt deine Traum Werte?

Ok, schauen wir uns mal die Tabelle unter dem Diagramm an.
Durchschnittsverbrauch:
i5-3570K: 101,3W; Zeit: 1100 Sekunden
FX-8350: 195,2 W; Zeit: 900 Sekunden

Differenz sind 93,9W oder +92,7%

Jetzt die frage an dich, wenn du deine Stromrechnung bezahlst, zahlst du für was? Richtig, für jede kWh

Also lassen wir in die Werte oben noch die Zeit einfließen.
i5-3570K: 101,3W*1100s/3600 = 30,95 Wh
FX-8350: 195,2W*900s/3600 = 48,8 Wh
Macht eine Differenz von 17,85 Wh bzw. der AMD verbraucht für die gleiche Aufgabe 58% mehr. Sprich, deine Stromkosten sind "nur" um 58% höher als beim Intel obwohl der max. Verbrauch um 92,7% höher ist.

stone1978
23.10.2012, 20:43
Das sehe ich auch so .... schauts auch auch noch den Test von Tomshardware an den ich gepostet habe. Dort wird auf die einzelnen Tests besser eingegangen und es sind oft in einzelnen Programmen mehrere Tests was auch nicht unwichtig ist als nur einen Test / Programm zu machen wo oft Stärken in einem anderen Bereich liegen.

Die Anzahl der Multithreading unterstützen Programmen wird eher mehr als weniger.

http://geizhals.at/eu/852342
Den kleinen der beiden 8 KERN (mit 4 GHz Turbo) gibts jetzt schon für knapp 150 EUR. Wartet noch 2 Wochen dann sind wir wahrscheinlich bei 130 - 135 EUR schätze ich mal. Das ist immer so bis es sich einpendelt.

Will ich mehr FPS bei spielen dann nehme ich keine teurere CPU sondern zahle von mir aus 50 EUR Aufpreis für eine bessere GPU.

lg

VitaBinG
23.10.2012, 21:03
Ich finde es ist ein erster Schritt in die richtige Richtung. Zwar kommt der Prozessor nicht einmal an den 2500K ran aber dennoch ists besser als der Müll zuvor. Ich hoffe AMD steigert sich wieder, so dass ich in 1-2 Jahren wieder einen AMD Prozessor kaufen kann.

Simon
23.10.2012, 21:08
Ändert an der Situation wenig bis garnichts. Ein kleines Update, was angesichts des riesigen ursprünglichen Abstands nicht ausreicht, um ernsthaft wieder mitspielen zu können.

Der Intel Xeon E3-1230V2 bleibt noch am interessantesten. Bei praktisch gleichem Preis nur 100 MHz weniger, dafür aktiviertes SMT und keine (für viele unnötige GPU) im Vergleich zum i5-3570(K).

Caanon
23.10.2012, 21:28
Macht eine Differenz von 17,85 Wh bzw. der AMD verbraucht für die gleiche Aufgabe 58% mehr. Sprich, deine Stromkosten sind "nur" um 58% höher als beim Intel obwohl der max. Verbrauch um 92,7% höher ist.
Wobei man eines ganz klar sehen muss: Sowohl der FX-8350 als auch der i5-3570K schreien förmlich danach, übertaktet zu werden. Aber mit einer Standard-TDP von 125W ist der FX viel näher an der Grenze von dem, was sich noch gut mit Luft bzw. mit Wasser kühlen lässt, je nachdem wie weit man gehen will.
Wenn man also beide bis beispielsweise 140W Verbrauch übertaktet, sollte der i5 in so ziemlich jeder, wenn nicht tatsächlich jeder Anwendung deutlich mehr Leistung haben.
Der Straßenpreis muss (und wird sicherlich) Vishera einfach zum Pendant der non-K-Cores machen und dann ist er auch attraktiv. ;)

SaarL
23.10.2012, 21:43
und wenn du dein Allround Nutzungsverhalten ansetzt denn sind immer noch 70Watt im Differenz-Idle Vollast Unterschied!
Solch hohe Werte werden sich definitiv deutlich in der Stromrechnung bemerkbar machen!
Für Leute denen der hohe Stromverbrauch egal ist sicher nicht verkehrt aber was spart man denn da wenn die CPU hundert Euro billiger ist man aber nach 2-3 Jahren über den Stromverbrauch das wieder abdrückt an den Energiekonzern!
Mal ganz zu schweigen das die Leistung in 3 Jahren wieder unzureichend ist und man mit dem I-7leistungstechnisch dann noch wesentlich besser darsteht!

Also:
Wenn der AMD nichtmehr reicht, reicht auch der i7 nicht bzw. bringt nicht von 5fps auf 60fps Steigerungen.
Zu deinen Stromkosten: http://www.stromverbrauchinfo.de/stromverbrauchsrechner.php

Deine 2-3 Jahre sind auch sowas von niedrig gegriffen - es sei denn du zahlst 50Cent pro kWh und dein PC verbraucht 5Tage die Woche 5h lang 70W(immer!) mehr...

Beispiel:
Deine Intel CPU braucht im Mittel bei 7h täglicher Nutzung (im Mittel!) 30W weniger (was wohl einigermaßen passt, weil der Rechner eh fast immer im "idle" rumgurkt...). Das ist bei dir 5 Tage die Woche der Fall.

Was kostet dich der AMD mehr an Strom:

im Jahr: 13,10 €
in 5 Jahren: 65,52 €
in 10 Jahren: 131,04€

Der Bulli ist billiger als dein genannter i7. Also dauert es zwischen 5-10 Jahre (ich gehe von 200€ für den AMD aus und 290 für den i7 k Ivy), dass es sich rentiert.
Das ist nur in extremsten Fällen die "CPU-Behaltedauer" - sprich ist irrelevent.

Bitte nicht Aussagen tätigen, wenn ihr sie nur vermutet bzw. nicht belegt.

Und Edit:
JA ich bin auch der Meinung, der AMD braucht viel Strom - aber man muss das auch mal relativieren was im Endeffekt (bedeutet, nach der Nutzung der CPU-> wenn sie nichtmehr benutzt wird, da kaputt/neues/...) rauskommt.

blackiwid
23.10.2012, 21:51
http://www.phoronix.com/scan.php?page=article&item=amd_fx8350_visherabdver2&num=10


schaut euch auch mal den test an, wenn jemand am überlegen ist das zu kaufen... unter einer besseren softwareumgebung (Linux) ist der Vishera gleichauf (ungefähr) mit dem i7-3770K . Ja man muss das jetzt nicht überhöhen, aber man sieht das teilweise doch die Software Teil des Problems ist.

Wie gesagt wenn die meisten hier wohl auch primär windows benutzen ist das sicher nicht entscheidenend, aber vielleicht schwankt der eine oder andere Grade, und benutzt auch Linux für den könnte das Interessatn sein, und man kann vielleicht auch wenig spekulieren das auch Spiele / Programme noch besser mit der CPU in Zukunft laufen und die CPU noch mehr im Leistungsbereich auf holt. Ja ich hör schon das dann gesagt wird, ich kauf mir keine cpu weil vielleicht in 1-2 jahren sie schneller ist wenn ich bis dahin eh schon 5 neue cpus gekauft habe. Ja bitte... muss ja auch nicht sein, aber vielleicht interessierts manche trotzdem ^^


ICH selbst spiele btw ein wenig mit dem Gedanken mir VIELLEICHT sogar irgendwann ne Intel cpu zu kaufen nicht wegen der cpu sondern dem gpu teil. warum? weil unter linux leider gerade mit den freien treibern bei amd video-beschleunigung nicht funtzt, also meine jetzt sowas wie UVD. Das läuft mit machen Intel-cpus wunderbar. ist halt nervig wenn bei nem zacate cpu schon wegen nem video-stream schon 1 core ausgelastet wird...

Bis dann vielleicht hats jemand interessiert ;)

joel
23.10.2012, 21:52
Wer um Himmelswillen kauft sich ein Auto was 16l verbraucht wenn man das gleiche Auto kaufen kann was nur 10l verbraucht (und dabei noch schneller ist).
Sollen doch die AMD Fanboys AMD kaufen und Intel Fanboys Intel.
Ich werde mir beim nächsten Upgrade wieder das bessere P/L kaufen, egal was draufsteht.:D

Grove4L
23.10.2012, 21:54
Ich finde es gut das AMD in sachen Leistung wieder etwas gut macht aber der Verbraucht geht mal gar nicht genau so wie der Preis. Intel bietet die gleiche Leistung zum (fast) gleichen Preis dazu noch eine integrierte Grafikeinheit und besseres OC Potenzial. Ist in meinen Augen immer noch viel attraktiver.

SaarL
23.10.2012, 21:54
Wer um Himmelswillen kauft sich ein Auto was 16l verbraucht wenn man das gleiche Auto kaufen kann was nur 10l verbraucht (und dabei noch schneller ist).

So leicht ist es leider nicht...

Das Auto braucht bei 9k rpm 16l das andere bei 9krpm 10l

Nur fährst du wohl meistens bei 3-4k oder weniger und da sind sie näher beieinander ;)

Es ist nicht so einfach, wie manche es hier wohl sehen wollen.

Daedal
23.10.2012, 21:57
Wobei man eines ganz klar
sehen muss: Sowohl der FX-8350 als auch der i5-3570K schreien förmlich danach, übertaktet zu werden. Aber mit einer Standard-TDP von 125W ist der FX viel näher an der Grenze von dem, was sich noch gut mit Luft bzw. mit Wasser kühlen lässt, je nachdem wie weit man gehen will.
Wenn man also beide bis beispielsweise 140W Verbrauch übertaktet, sollte der i5 in so ziemlich jeder, wenn nicht tatsächlich jeder Anwendung deutlich mehr Leistung haben.
Der Straßenpreis muss (und wird sicherlich) Vishera einfach zum Pendant der non-K-Cores machen und dann ist er auch attraktiv. ;)

Geht leider nur nicht so gut beim i5:
http://www.au-ja.de/review-intel-core-i5-3570k-ivy-bridge-16.phtml

Der neue Fertigungsprozess fordert offensichtlich seinen Tribut und schränkt die Übertaktbarkeit spürbar ein. Ohne Spannungserhöhung kommt man beim Ivy Bridge nicht allzu weit. Mit 4,4 GHz liegen wir um 22,2 Prozent über dem maximalen Turbotakt für den Volllastbetrieb sowie um 29,4 Prozent über dem garantierten Lasttakt.

Trotz Spannungserhöhung steigt der Stromverbrauch beim Core i5-3570K nicht allzu extrem an. 32 Watt bedeuten einen Mehrverbrauch von 38,10 Prozent, den wir für einen Taktgewinn von 22,2 Prozent investieren müssen.

Anders der FX:
http://www.anandtech.com/show/6396/the-vishera-review-amd-fx8350-fx8320-fx6300-and-fx4300-tested/8

I didn't have enough time to go through every chip so I picked the FX-8350 and FX-4300 to show the range of overclocks that may be possible. In my case the FX-4300 hit 5GHz with minimal effort, while the FX-8350 topped out at 4.8GHz (I could hit 5GHz but it wasn't stable through all of our tests). Both of these overclocks were achieved with no more than 10% additional core voltage and by simple multiplier adjustments (hooray for unlocked everything).
Was aber auch Strom braucht:

The 5GHz FX-4300 is pushed into FX-8300 territory, while the 4.8GHz 8350 is in a league of its own at just under 300W of total system power consumption.

Aber die Ivys sind nicht sehr gut übertaktbar und knicken ein bevor sie 125W Verbrauch erreichen können. Es ist auch eine völlige Milchmädchen Rechnung, da jede Architektur und jeder Fertigungsprozess einen anderen Sweetspot hat beim Takt/Verbrauch Verhältnis.

bruteforce9860
23.10.2012, 22:09
Danke für den Test CB.

Also "Auferstanden aus den Ruinen" finde ich fast ein wenig übertrieben, natürlich hat AMD mit dieser CPU aufgeholt (mehr, als Intel hätte mit IB wegziehen können), aber wenn ich mir so die Leistungsaufnahme so ansehe, wird mir ganz anders - und in Sachen Spieleperformance ist da noch immer eine große Lücke.

Dennoch freut es mich, dass es auch mal wieder ein paar positivere Nachrichten für AMD gibt.

stone1978
23.10.2012, 22:23
Also:
Wenn der AMD nichtmehr reicht, reicht auch der i7 nicht bzw. bringt nicht von 5fps auf 60fps Steigerungen.
Zu deinen Stromkosten: http://www.stromverbrauchinfo.de/stromverbrauchsrechner.php

Deine 2-3 Jahre sind auch sowas von niedrig gegriffen - es sei denn du zahlst 50Cent pro kWh und dein PC verbraucht 5Tage die Woche 5h lang 70W(immer!) mehr...

Beispiel:
Deine Intel CPU braucht im Mittel bei 7h täglicher Nutzung (im Mittel!) 30W weniger (was wohl einigermaßen passt, weil der Rechner eh fast immer im "idle" rumgurkt...). Das ist bei dir 5 Tage die Woche der Fall.

Was kostet dich der AMD mehr an Strom:

im Jahr: 13,10 €
in 5 Jahren: 65,52 €
in 10 Jahren: 131,04€

Der Bulli ist billiger als dein genannter i7. Also dauert es zwischen 5-10 Jahre (ich gehe von 200€ für den AMD aus und 290 für den i7 k Ivy), dass es sich rentiert.
Das ist nur in extremsten Fällen die "CPU-Behaltedauer" - sprich ist irrelevent.

Bitte nicht Aussagen tätigen, wenn ihr sie nur vermutet bzw. nicht belegt.

Und Edit:
JA ich bin auch der Meinung, der AMD braucht viel Strom - aber man muss das auch mal relativieren was im Endeffekt (bedeutet, nach der Nutzung der CPU-> wenn sie nichtmehr benutzt wird, da kaputt/neues/...) rauskommt.

Ich finde auch das man dies mal berücksichtigen soll und nicht irgendwelche Diagrammdarstellungen die nichts über den Kostenfaktor aussagen.
Für große Firmen die X Server im Einsatz haben (Dauerbetrieb) schaut das anders aus als für einen Privatkunden.
Das OC Potential wird auch nicht schlecht sein vor allem da der Vishera viel MHz braucht ....

Ihr könnt dann meine Ergebnisse auf www.hwbot.org anschauen (user = stone1978).



Wer um Himmelswillen kauft sich ein Auto was 16l verbraucht wenn man das gleiche Auto kaufen kann was nur 10l verbraucht (und dabei noch schneller ist).
Sollen doch die AMD Fanboys AMD kaufen und Intel Fanboys Intel.
Ich werde mir beim nächsten Upgrade wieder das bessere P/L kaufen, egal was draufsteht.:D

Es tut mir leid aber was für ein dummer Vergleich ganz ehrlich.
Ich bin weder ein Fanboy von AMD noch INTEL ich kaufe genau nach dem Faktor P/L und hier sehe ich im oberen Segment zu dem ich den neuen Vishera ihn als P/L Sieger.
Dazu kommt das die Intel Plattformen teurer in der Anschaffung sind.

Auf den Spritverbrauch gehe ich überhaupt nicht ein wie man auf so einen Vergleich überhaupt kommt. Da hat man im ganzen Wald nur 1 Baum gesehen .... es gibt aber viel mehr Punkte zu berücksichtigen.

Aber jetzt lasst doch die CPU mal am Markt ankommen in 2 - 3 Wochen gibt es dann den realen Preis je nach Verfügbarkeit zu sehen.

lg

Ein_Freund
23.10.2012, 22:45
Amerikanische Power ...

Noch nicht mitbekommen was damit in der Autobranche passiert ist :freak


Ja, wird in dicken SUVs eingebaut die boomen gerade.;)

flode
23.10.2012, 22:48
Jahrelang hat alleine AMD mit mehr oder weniger konkurrenzfähigen Produkten die Intel Preise in Schach gehalten. Und jetzt muss ich hier von so ein paar Affenköpfen hören wie dolle doch Intel ist und wie ach so scheisse doch AMD ist.

Solltet lieber mal Dankbar sein das es noch ein Unternehmen gibt das es versucht mit Intel aufzunehmen. Die haben im übrigen jahrzehntelang mit illegalen Mitteln dafür gesorgt das es AMD heute so scheisse geht und der Marktanteil so gering.

Nein ich bin kein AMD Fanboy aber das INTEL Rulez so much gelabber geht mir ähnlich auf die Nüsse wie die ganzen Apple Fanboys.

Gruß flode

stone1978
23.10.2012, 22:53
Jahrelang hat alleine AMD mit mehr oder weniger konkurrenzfähigen Produkten die Intel Preise in Schach gehalten. Und jetzt muss ich hier von so ein paar Affenköpfen hören wie dolle doch Intel ist und wie ach so scheisse doch AMD ist.

Solltet lieber mal Dankbar sein das es noch ein Unternehmen gibt das es versucht mit Intel aufzunehmen. Die haben im übrigen jahrzehntelang mit illegalen Mitteln dafür gesorgt das es AMD heute so scheisse geht und der Marktanteil so gering.

Nein ich bin kein AMD Fanboy aber das INTEL Rulez so much gelabber geht mir ähnlich auf die Nüsse wie die ganzen Apple Fanboys.

Gruß flode

Ohne Konkurrenz von AMD zu Intel hätten wir Preise das es uns verstehen wird. Da kannst dann für einen Celeron 100 EUR hinlegen weil sie das Monopol haben.

Von dem her können wir als Konsumenten froh sein dass Konkurrenz gibt und ich hoffe das bleibt so.

lg

Caanon
23.10.2012, 23:21
Geht leider nur nicht so gut beim i5
http://www.au-ja.de/review-intel-cor...ridge-16.phtml
Dann geht's halt nicht ganz bis 140W für den i5, sondern nur bis zu welchem Verbrauch auch immer, den er mit ca. 4,4 GHz hat, also mit ca. 30% mehr Takt.
Damit es wieder vergleichbar ist, müsstest du den FX-8350 (mit der gleichen Kühlung versteht sich) auf ca. 5.2 GHz hochprügeln, was dir leider wohl kaum gelingen dürfte. Von wegen "anders der FX"! :(

stone1978
23.10.2012, 23:41
5,2 GHz = hast du das schon getestet oder ist das jetzt einfach mal eine Aussage auf Basis einer Vermutung?
So nach dem Motto einfach auf der Suche nach einem Gegenargument zum polarisieren erfinde ich jetzt die Aussage dass ein i5 mit 4,4 einem FX8350 mit 5,2 entspricht.

Ganz ehrlich findest das seriös?

Casi030
23.10.2012, 23:42
Der Test ist zwar noch ein wenig naja,aber die Schreibweise/Ausdrucksweise hat sich schonmal gebessert soweit ich das beim Überfliegen gelesen hab.

Wer natürlich mal wieder voll aus dem Rahmen fällt(was Ich auch nicht anders erwartet habe)ist der FX 6300.
Der Preis muss sich noch einpendeln,aber die Restliche Leistung,insbesondere der Stromverbrauch sind wie schon beim FX 6100 sehr gut.Damit hat der FX 6300 klar das bessere P/L Verhältnis gegenüber dem i5.

Zum Stromverbrauch......ja.......je nach Testseite ist mal der Alte und mal der Neue FX (vorne).
Deswegen hab ich auch mal ein wenig Gemessen,ist wie in der Schule,auch die Lehrer müssen ab und an mal einer Kontrolle unterzogen werden:evillol
Ich hab die Messung natürlich nur mit meinem FX 8120 @ 4,05GHz @ 1,344-1,360V und ner Übertakteten 7950 @ 1GHz/1500MHz gemacht.
Der min Idleverbrauch liegt bei mir bei rund 75Watt,ohne CPU großzügige 70Watt.
Für die Arbeit(Ram,SSD,Mobo...) nehme ich Pauschal mal 5Watt.
Der Verbrauch der Graka wird einfach von HT4u genommen mit 160Watt im Spieletest,wobei meine Graka sicherlich mehr verbraucht durchs OC,aber ich will Bulldozer ja nicht schön Schreiben.http://ht4u.net/reviews/2012/amd_radeon_hd_7970_ghz_edition_tahiti_xt2_test/index15.php
Netzteil ist ein E9 450Watt,wovon 8% Abgezogen werden.
Mobo mit 990FX Chip übervoltet leicht,deswegen wurd auf 1,35V im Bios gestellt.
Der Turbo ist dabei Aus.
CPU Test:
Das Non Plus Ultra,Prime mit 1,360V :
300Watt x 0,92NT = 276Watt - 70Watt =206Watt - 5 Watt Arbeit=201Watt
Handbraka mit 1,344V:
255Watt x 0,92NT = 235Watt - 70Watt =165 Watt -5Watt Arbeit=160Watt
CineBench mit 1,344V:
250Watt x 0,92NT =230Watt - 70Watt = 160 Watt - 5Watt Arbeit=155Watt

Prime ist schon recht heftig....

Meiner ist jetzt kein Übertaktungswunder,aber selbst bei 4GHz (950MHz mehr) bei realen Anwendungen nur rund 25-30Watt über der TDP und das @ +- Default Spannung 1,375V.

Spiele:
GPU Auslastung lag durchgehen bei 95-99% und mit MSI Afterburner im Spiel/Benchmark angezeigt.
Zwischen den Spielen und Benchmarks lagen rund 50Watt.
Von WOW mit max 280Watt,über den Alien vs Predator Bench mit rund 300Watt und Resident Evil 5 Bench (Test1)/Metro 2033 Bench mit max 315Watt bis hin zu BFBCII Single Teststelle mit max 330Watt.

Selbst wenn ich die max 330 Watt von BFBCII rechne,wo die Kerne am meisten ausgelastet wurden,komm ich auf nen CPU Verbrauch von:
330Watt x 0,92NT =304Watt -70Watt =234Watt - 160Watt Graka=74Watt- 5Watt Arbeit=69Watt die die CPU im Spiel verbraucht wo die Graka zu 99% Ausgelastet ist.

Und das ist wirklich nicht Schön gerechnet und ich bin mir sicher das Vishera da 100% noch weniger verbraucht als meiner.

Fazit:P/L wird klar wieder der FX 6300 sein,aber auch so hat Vishera einen guten Sprung nach vorne gemacht.
Ich denke mal bei gleichem Takt wie der FX 8150,würde wohl die TDP ohne Problem auf 95Watt rutschen bei ein wenig mehr Leistung.

phiber66
23.10.2012, 23:47
.

Ergänzung vom 23.10.2012 23:52 Uhr:
Jahrelang hat alleine AMD mit mehr oder weniger konkurrenzfähigen Produkten die Intel Preise in Schach gehalten. Und jetzt muss ich hier von so ein paar Affenköpfen hören wie dolle doch Intel ist und wie ach so scheisse doch AMD ist.

Solltet lieber mal Dankbar sein das es noch ein Unternehmen gibt das es versucht mit Intel aufzunehmen. Die haben im übrigen jahrzehntelang mit illegalen Mitteln dafür gesorgt das es AMD heute so scheisse geht und der Marktanteil so gering.

Nein ich bin kein AMD Fanboy aber das INTEL Rulez so much gelabber geht mir ähnlich auf die Nüsse wie die ganzen Apple Fanboys.

Gruß flode

So CB denn entfernt mal diesen post ist ja wohl beleidigend rumgeheule gespamme und geflame in Einem!:rolleyes
Wir leben im Kapitalismus du Heulsuse! und diese Beleidigungen traust du dir letztendlich nur hier im Forum! Versuchs mal gegenüber mir direkt ins Gesicht!;)
Tatsache ist das Intel momentan nun mal ganz dolle ist und das widerlegen auch zig Benches! Das "AMD Scheisse ist" hat "die Mehrheit" hier jedenfalls nicht gesagt oder behauptet!!!, sondern das entspricht allein nur deiner beschränkten & jämmerlichen Auffassungsgabe...!!!

Caanon
23.10.2012, 23:55
5,2 GHz = hast du das schon getestet oder ist das jetzt einfach mal eine Aussage auf Basis einer Vermutung?
So nach dem Motto einfach auf der Suche nach einem Gegenargument zum polarisieren erfinde ich jetzt die Aussage dass ein i5 mit 4,4 einem FX8350 mit 5,2 entspricht.

Ganz ehrlich findest das seriös?
Was soll ich dazu jetzt sagen? Setzen, Mathe 6? Passen würde es anscheinend.

Es ging ja um diese beiden Links:
http://www.au-ja.de/review-intel-core-i5-3570k-ivy-bridge-16.phtml
http://www.anandtech.com/show/6396/the-vishera-review-amd-fx8350-fx8320-fx6300-and-fx4300-tested/8
Schau sie dir (noch) mal an, lies sie gut durch, denk auch mal drüber nach und wenn du es dann immer noch nicht begriffen hast, erkläre ich es dir gerne ausführlich. ;)

Mourinho
24.10.2012, 00:46
Jahrelang hat alleine AMD mit mehr oder weniger konkurrenzfähigen Produkten die Intel Preise in Schach gehalten. Und jetzt muss ich hier von so ein paar Affenköpfen hören wie dolle doch Intel ist und wie ach so scheisse doch AMD ist.

Solltet lieber mal Dankbar sein das es noch ein Unternehmen gibt das es versucht mit Intel aufzunehmen. Die haben im übrigen jahrzehntelang mit illegalen Mitteln dafür gesorgt das es AMD heute so scheisse geht und der Marktanteil so gering.

Nein ich bin kein AMD Fanboy aber das INTEL Rulez so much gelabber geht mir ähnlich auf die Nüsse wie die ganzen Apple Fanboys.

-Viele kritisieren AMD, blenden Ihr verfügbares Budged völlig aus welches denen zur Verfügung steht, gegenüber von Intel. Intel hat gewonnen, genug Geld verdient, sehr wohl unter anderen wegen Marktmanipulationen, die im Gegensatz zu anderen Verbrechen sich mehr als gelohnt haben, da Intel bis heute daran sogar provitiert hat, normalerweise muß jeder von uns eine Strafe bezahlen, die weh tut (siehe Lance Armstrong aktuell, obwohl er am Ende die arme Wurst ist, die Sponsoren etc., die sind die wahren Gewinner), aber Geld regiert die Welt wohl. - (das möchte gleich hier mal wieder keiner hören, da alte Geschichte).

falkboett
24.10.2012, 02:23
Täusch ich mich oder ist die Leistungsaufnahme in diesem Test geringer bzw. nicht so signifikant höher (gegenüber Intel): http://www.techpowerup.com/reviews/AMD/FX-8350_Piledriver_Review/4.html.

stone1978
24.10.2012, 06:23
Was soll ich dazu jetzt sagen? Setzen, Mathe 6? Passen würde es anscheinend.

Es ging ja um diese beiden Links:
http://www.au-ja.de/review-intel-core-i5-3570k-ivy-bridge-16.phtml
http://www.anandtech.com/show/6396/the-vishera-review-amd-fx8350-fx8320-fx6300-and-fx4300-tested/8
Schau sie dir (noch) mal an, lies sie gut durch, denk auch mal drüber nach und wenn du es dann immer noch nicht begriffen hast, erkläre ich es dir gerne ausführlich. ;)

schreibst du immer so borniert?
liegt wohl am alter wahrscheinlich noch jeden tag einen gelben pikel im gesicht ausdrücken oder ;-)

du meinst das nicht ernst 2 komplett unterschiedliche tests vom ergebnis her vergleich zu wollen und damit einen seriösen leistungsvergleich dem leser zu suggerieren?!

i seh schon du beschäftigst dich noch nicht länger mit der materie .... kein problem nur bitte sei dann nicht so borniert gegenüber deinen mitmenschen.

Ergänzung vom 24.10.2012 06:25 Uhr:
Täusch ich mich oder ist die Leistungsaufnahme in diesem Test geringer bzw. nicht so signifikant höher (gegenüber Intel): http://www.techpowerup.com/reviews/AMD/FX-8350_Piledriver_Review/4.html.

also wenn man sich die tests auf unterschiedlichen seiten anschaut ok die testsysteme sind unterschiedlich da kann es schon mal zu abweichungen kommen. nur die unterschiede sind zeitweise schon ziemlich komisch da hast du recht.

Herdware
24.10.2012, 07:40
Was die Leistungsaufnahme angeht, sind die Werte von Computerbase auf jeden Fall am oberen Ende der Skala, wenn man sie mit anderen Reviews vergleicht. Einen sehr hohen Verbrauch (im Vergleich zu Intel) haben alle gemessen, aber wenigstens fast immer etwas weniger als die alten Zambezi.

Insgesamt zeigt sich also ein etwas positiveres Bild von Vishera, als der Test von CB, obwohl andere wie z.B. Overclock3D (http://www.overclock3d.net/reviews/cpu_mainboard/amd_vishera_fx8350_piledriver_review/1) ein sehr viel negativeres Fazit gezogen haben. Wieder andere (Overclockersclub (http://www.overclockersclub.com/reviews/amd_fx8350/)) überschütten Vishera geradezu mit Lob und verteilen Gold-Awards.

Es kommt wohl darauf an, ob man Vishera mit Zambezi vergleicht, oder mit Ivy Bridge. ;)


Mein persönliches Fazit sieht, nachdem ich jetzt einige Reviews gelesen habe, so aus:
Verglichen mit Zambezi ist Vishera ein deutlicher Fortschritt in jedem Bereich. Früher hätte ich das als selbstverständlich vorrausgesetzt, aber eben dieser Zambezi hat ja gezeigt, dass man das nicht unbedingt erwarten darf.
Den Schritt, den Intel von Sandy Bridge zu Ivy Bridge gemacht hat, gleicht AMD mit dem von Zambezi zu Vishera mindestens aus. Aber um den schon vorhandenen Rückstand nennenswert zu verkleinern, reicht es unterm Strich dann doch nicht aus. Dafür fehlt vor allem immer noch eine deutliche Verbesserung der Singlethread-Leistung.
Immerhin, genau das scheint sich AMD mit Steamroller vorgenommen zu haben und das ist auch das einzig richtige.
Darauf zu warten, dass die Softwareentwickler ihre Programme noch mehr auf Multithreading oder gar auf spezielle Eigenarten der Bulldozer-Architektur optimieren, wäre tödlich. AMD muss sich bewegen, nicht darauf hoffen, dass der Rest der Welt das tut. Nicht mal der Platzhirsch Intel kommt mit sowas durch. (Siehe das Pentium Pro-Debakel.)

Steamroller wird also wieder spannend, aber andererseits bin ich es auch irgendwie leid, bei AMD immer wieder auf die nächste Generation zu warten, die dann hoffentlich den Durchbruch bringt. Das geht jetzt schon über 6 Jahre so. :rolleyes

DinciVinci
24.10.2012, 07:57
Steamroller wird also wieder spannend, aber andererseits bin ich es auch irgendwie leid, bei AMD immer wieder auf die nächste Generation zu warten, die dann hoffentlich den Durchbruch bringt. Das geht jetzt schon über 6 Jahre so.

Also die Aussage ist ja nun wirklich Quatsch. Die Phenom II ab 2009 kann man guten Gewissens als erfolgreich bezeichnen. Ich glaube eher, dass da die Erwartung unrealistisch waren. Was ist ein Durchbruch? Aus dem Stand 100% Mehrleistung als Intel? Falls Du auf den Athlon anspielst: Das war ein Glücksfall, weil Intel gepennt hat. Das wird sich nie wieder wiederholen.

Held213
24.10.2012, 08:04
Täusch ich mich oder ist die Leistungsaufnahme in diesem Test geringer bzw. nicht so signifikant höher (gegenüber Intel): http://www.techpowerup.com/reviews/AMD/FX-8350_Piledriver_Review/4.html.

Das ist mir in diesem Review auch schon aufgefallen. Interessant finde ich auch die recht großen Unterschiede zw. dem 8150 und dem 8350. Das zeigt sich im CB-Test ja ganz anders.

Schade finde ich, dass die nicht schreiben, wie/wobei die Messungen zustande kommen. Aber man hat wieder ein Bsp. dafür, dass man den Verbrauch differenzierter betrachten sollte/muss und nicht einfach Prime95 drüberlaufen lassen kann um eine aufschlußreiche Antwort zu erhalten.

hrafnagaldr
24.10.2012, 08:22
Wer um Himmelswillen kauft sich ein Auto was 16l verbraucht wenn man das gleiche Auto kaufen kann was nur 10l verbraucht (und dabei noch schneller ist).
Sollen doch die AMD Fanboys AMD kaufen und Intel Fanboys Intel.
Ich werde mir beim nächsten Upgrade wieder das bessere P/L kaufen, egal was draufsteht.:D

Blöder Vergleich, wenn man Anschaffungs. und Unterhaltskosten nicht einrechnet. Ich fahre mit dem Auto max. 5000km im Jahr. Wenn ich eines kaufe, dann klar einen in Anschaffung und Unterhalt günstigeren Benziner. Fahre ich 50000km im Jahr, kaufe ich einen sparsamen Diesel.

Und wenn ich die Wahl zwischen einem i7-3770K und einem FX-8350 habe, kaufe ich den in der Anschaffung günstigeren FX8350, weil sich der Preisunterschied wenn überhaupt erst nach einigen Jahren über die Stromkosten amortisiert. Anders schauts vielleicht bei nem i5 aus klar. Aber gegenüber dem i7 würd ich den FX-8350 nehmen.

DinciVinci
24.10.2012, 08:26
@Held213:

Wenn ich mich richtig erinnere, hat die ct 168 Watt zwischen Board und Netzteil gemessen (Rechenlast unbekannt). Die einzige wirklich sinnvolle Messung des Energieverbrauchs wäre eine zeitliche Messung mit automatischer Abarbeitung eines zusammengestellen Arbeitspakets per Skript, so wie das auch andere Redaktionen schon machen. Diese Volllastmessungen mit Prime sind wenig bis überhaupt nicht aussagekräftig.

noay11
24.10.2012, 08:33
der stromverbraucht ist natürlich wieder viel zu hoch und bei steigenden strompreise bleibt AMD für mich leider ein No-Go

Herdware
24.10.2012, 08:34
@ DinciVinci
Als Durchbruch hätte ich bezeichnet, wenn AMD wieder auf Augenhöhe mit Intel wäre oder darüber hinaus, wie zu Athlon64-Zeiten.

Und nein, mit dem Phenom II war das nicht der Fall:
http://www.computerbase.de/artikel/prozessoren/2009/test-amd-phenom-ii-x4-920-und-940-black-edition/29/

Der Phenom II schaffte es gerade so, zu den Core2Quad oder gar nur (hoch getakteten) Core2Duo aufzuschließen, aber Intel hatte zu der Zeit schon fast ein halbes Jahr die Nehalems draußen.
Den Phenom II hätte AMD schon ein Jahr früher bringen müssen! Und selbst dann hätten sie Intel damit nicht wirklich überflügelt.

Und nein, dadurch, dass AMD seine High-End-CPUs letztlich zu Mittelklassepreisen verramscht hat und das bis heute tut, wird das nicht einfach wieder ausgeglichen. Wir sehen ja, wohin unter anderem diese Preispolitik AMD inzwischen gebracht hat.

Es ist in Ordnung, gar nicht erst zu versuchen im High-End mitzumischen und statt dessen billige kleine CPUs und APUs zu entwicklen und im Low-End- und besonders dem OEM-Markt durch Masse Profit zu machen. (Ein Beispiel dafür ist die Bobcat-Architektur.)
Aber eine teure, aufwändige High-End-CPU entwickeln und die dann aufgrund enttäuschender Leistung zu Spottpreisen verramschen, das ist kein dauerhaft tragbares Geschäftsmodell.
So kann man kurzfristig halbwegs verhindern, dass man zu viele Marktanteile verliert, aber das kann man nicht 6 Jahre lang durchhalten ohne auszubluten.

DinciVinci
24.10.2012, 08:40
Gegenbeispiel 1:

http://www.computerbase.de/artikel/prozessoren/2010/test-amd-phenom-ii-x6-1100t-black-edition/29/

Gegenbeispiel 2:

http://www.computerbase.de/artikel/prozessoren/2009/test-amd-phenom-ii-x4-965-black-edition/28/

Beide spielen sehr weit oben mit. Es kommt immer darauf an, was man rauspickt und wie die eigene Wahrnehmung dann ist.

Herdware
24.10.2012, 08:49
Wie angenehm, dass im Gegenbeispiel 1 die größeren Intel-CPUs erst gar nicht in der Tabelle auftauchen. ;)

Was das Beispiel 2 angeht, ja, mit dem Thuban war AMD so nah an Intel dran, wie seit dem Athlon 64 nicht mehr und auch bis heute nicht wieder.
Aber schauen wir uns mal an, wie das Bild nur ein paar Wochen später aussah:
http://www.computerbase.de/artikel/prozessoren/2011/test-intel-sandy-bridge/46/

Casi030
24.10.2012, 09:02
Hmm 20Watt zwischen Intel und AMD sind zuviel,aber nen Plasma mit 200Watt 24/7 am laufen haben ist OK?!Die Kaffemaschiene 12 Stunden am Tag an zu lassen damit der Kaffe nicht kalt wird.

Allein der Gedanke ist schon Absurd,aber für 1 Zigarette am Tag,kann ich mein Rechner locker 7-8 Stunden am Tag betreiben.Und bei dem Lachhaften Unterschied von Größzügigen 50Watt,sinds locker 20 Stunden.Wenn man dann noch sieht,wie viele ihre Kippe nur zur Hälfte oder 2/3 Rauchen......Da kann man sich nur am Kopp Packen.

Ich glaub da müssen sich einige erstmal Eine drauf Rauchen.

DinciVinci
24.10.2012, 09:03
Jo das ist genau die Pickerei, die ich meinte. Mir ging's aber vor allem um die genannten 6 Jahre.

Waelder
24.10.2012, 09:04
Liebe Leute

stellt euch einmal vor, AMD gibt den Kampf/Desktop CPU auf, wir alle müssen froh sein das AMD noch Desktop Prozessoren entwickelt und mal ehrlich die neuen Vishera sind zwar technisch 3 Jahre hintennach aber Preis/Leistung ist nicht schlecht.

Ohne AMD CPU's könnte ich es mir wahrscheinlich auch nicht mehr leisten, mein System alle Jahre wieder aufzurüsten und ich denke es würde denn meisten gleich gehen, da die ganze Preispolitik in Sachen CPU's dann von Intel abhängig wäre.

Um es gleich zu sagen ich nutze AMD wie Intel :)

Matzegr
24.10.2012, 09:07
@ DinciVinci
Als Durchbruch hätte ich bezeichnet, wenn AMD wieder auf Augenhöhe mit Intel wäre oder darüber hinaus, wie zu Athlon64-Zeiten.

Man sollte auch realistisch bleiben. Das wäre kein Durchbruch, das wäre ein riesen Wunder. Da ist es wahrscheinlicher, dass der Osterhase und der Weihnachtsmann in der zugefrorenen Hölle Curling spielen.

Man hat eine CPU abgeliefert, die sich teilweise den i3 geschlagen geben muss, in manchen Fällen den i7 schlägt und bei Anwendungen auf ähnlichem Niveau zum i5 liegt. Das ganze bei einem deutlich höheren Stromverbrauch zu Intel aber immerhin zu einem gesenkten Stromverbrauch im Vergleich zum Vorgänger.

Von Steamroller kann man +15%/W erwarten. Bei manchen Fällen wird man auch +30% sehen. Was durchaus realistisch ist, da ja Vishera auch teilweise 22% (z.B. bei 3ds max 2011) schneller als der Vorgänger ist. Die größte unbekannte bei Steamroller wird der 28nm-bulk-Prozess bei GF, hoffen wir alle, dass es nicht so ein Debakel wird wie der Start des 32nm-SOI-Prozess beim Llano.
Aber eines ist jetzt schon klar am Verbrauch wird sich bei Steamroller kaum etwas ändern und wenn wär es ein Durchbruch.

DinciVinci
24.10.2012, 09:11
Aber eines ist jetzt schon klar am Verbrauch wird sich bei Steamroller kaum etwas ändern und wenn wär es ein Durchbruch.

Das muss man abwarten. Vishera nutzt schließlich kein Resonant Clock Mesh. Sollte das in Steamroller kommen, kann (!) der Verbrauch stark sinken. Aber es ist natürlich auch möglich, dass das für weitere Taktupgrades genutzt wird.


Man sollte auch realistisch bleiben. Das wäre kein Durchbruch, das wäre ein riesen Wunder. Da ist es wahrscheinlicher, dass der Osterhase und der Weihnachtsmann in der zugefrorenen Hölle Curling spielen.

Schön gesagt! :D Das ist ja das, was ich meinte. Es existieren vollkommen überzogene Erwartungen, die dann natürlich immer wieder aufs neue enttäuscht werden, wenn man mit der Realität konfrontiert wird. Die Athlon-Geschichte war ein einmaliger Glücksfall, der durch Intels Tranigkeit in Verbindung mit Dirk Meyers Know-How bei AMD ausgelöst wurde.
Intel ist eine Riesenbude mit zigtausend Ingenieuren, die an mehreren Standorten der Welt parallel an Prozessorarchitekturen arbeiten und unendlich viel Geld zur Verfügung haben. Für mich persönlich grenzt es eher an ein Wunder, dass AMD da überhaupt noch einigermaßen konkurrenzfähige Produkte anbieten kann.

hrafnagaldr
24.10.2012, 09:13
Hmm 20Watt zwischen Intel und AMD sind zuviel,aber nen Plasma mit 200Watt 24/7 am laufen haben ist OK?!Die Kaffemaschiene 12 Stunden am Tag an zu lassen damit der Kaffe nicht kalt wird.

Allein der Gedanke ist schon Absurd,aber für 1 Zigarette am Tag,kann ich mein Rechner locker 7-8 Stunden am Tag betreiben.Und bei dem Lachhaften Unterschied von Größzügigen 50Watt,sinds locker 20 Stunden.Wenn man dann noch sieht,wie viele ihre Kippe nur zur Hälfte oder 2/3 Rauchen......Da kann man sich nur am Kopp Packen.


Mit sowas darfst den leuten nicht kommen, das überfordert die. Für den Preis eines BigMäc zB bekommt man auch bei Bäcker und Metzger (nicht Discounter) gesundes Essen ausreichend für einen Tag und hat auch noch ein paar Cent für Strom über. Aber sich über 50-100W Unterschied in einem überhaupt nicht realistischen Anwendungsszenario einer CPU aufregen.

Der größte Unterschied ist leider nunmal dem größeren Fertigungsprozess geschuldet, aber deswegen bekommt keiner eine unbezahlbare Stromrechnung.

Und wenn ich einen Abend am Wochenende ordentliche weggehe, dann brauch ich da mehr Geld, als ich monatlich für den Strom der kompletten Wohnung zahle. Von daher außer im Serverbereich eigentlich absolut vernachlässigbares Problem.

Herdware
24.10.2012, 09:40
Dass um den Verbrauch immer so ein Theater gemacht wird, verstehe ich auch nicht.

Für mich ist der hauptsächlich aus zwei Gründen relevant.

1. Er darf keine Probleme bei der Kühlung machen. In einem Gaming-PC oder einer Workstation mit großen Gehäuse und leistungsfähigem Tower-CPU-Kühler oder gar einer Wasserkühlung, sind 125W, oder übertaktet auch 200W und mehr, kein wirkliches Problem. Für andere Einsatzgebiete fällt so eine CPU aber komplett flach.
Intels i5 oder sogar i7 kann man auch problemlos in einen kleinen HTPC stecken. Mit einem FX würde ich das eher nicht versuchen. (Aber zum Glück hat AMD für diese Zwecke ja die APUs.)

2. Der Verbrauch verrät etwas über das Potential einer CPU/Architektur.

Der hohe Verbrauch von Vishera und davor Zambezi und auch schon der Phenom II zeigt, dass AMD am Rand des für sie technisch möglichen agiert. Der extrem niedrige Verbrauch von Ivy Brigde, der von Haswell wahrscheinlich nochmal deutlich unterboten werden wird, zeigt hingegen, dass Intel es sich inzwischen leisten kann, der CPU-Leistung nur noch eine untergeordnete Priorität zu geben.

Das bedeutet, dass selbst wenn AMD es schaffen würde, die heute existierende Lücke zu Intel zu schließen, Intel einfach einen Gang (bzw. ein GHz ;) ) zulegen und wieder davon ziehen könnte.

Das gilt auch für die Preispolitik. Intel könnte z.B. höchstwahrscheinlich die SB-E auch für die Hälfte des derzeitigen Preises immer noch mit Gewinn verkaufen und so AMD auskontern, wenn die plötzlich eine CPU aus dem Hut zaubern würden, die die Sockel-1155-i7 überflügelt.

Man kann sogar darüber spekulieren, on Intel nicht vielleicht sogar schon marktreife IB-E parat haben könnte, die sie nur aus wirtschaftlichen Gründen (bzw. einfach weil sie es nicht nötig haben) noch nicht ausliefern.

Casi030
24.10.2012, 09:51
@neo-bahamuth
Ja,das ist das Traurige an der Sache.
Ein geringer Verbrauch ist was feines,nur wenn ich erstmal für 2 KWh Testen muss damit ich 10Watt einspare.......Ich 4Km weiter zur anderen Take fahre um 2Cent zu Sparen bei meinen 30L die ich Tanke...........
Da denken viele garnicht drüber nach,was sie am Tag an Kosten einsparen könnten,ab hauptsache die intel CPU fressen ein bischen weniger Strom.
Die Fertigung und der Jahresrückstand durch die Machenschaften von Intel sind das Hauptproblem und da wird klein AMD leider auch nicht viel machen können die nächste Zeit,bis der Fertigungsprozess fast zum stillstand kommt.

MrTengu
24.10.2012, 09:56
Und wir reden hier von dem größten FX. Der 6300er, der locker für alles reicht, hat eine maximale TDP von 95W. Und schon ist der Unterschied zu 77W noch kleiner geworden.

Vom Preisunterschied (125€ für den FX, 170€ für einen 3450) ganz zu schweigen.

Casi030
24.10.2012, 10:14
Die Leute Produzieren am Tag nen Haufen Sch......e,regen sich aber über nen Fliegensch...s auf.
@Herdware
Zu1:
Vieles liegt auch an der Umsetzung,wie ich was verpacke.Klar mit intel hast was Kühlung angeht ein paar Vorteile,die aber auf die Temperatur gesehen,schon wieder leicht hinterher hinken,durch den höheren Temperaturbereich.

Zu2:
Naja,die Intel gehen beim OC auch nicht viel höher als die AMD jetzt.Zwischen 4,5-5,5GHz ist doch Ende mit normalen Mitteln.

Herdware
24.10.2012, 10:32
@ MrTengu
Genau wie bei AMD, nutzen auch bei Intel die CPUs nicht allesamt die TDP aus, mit der sie eingestuft sind. Man müsste das also von Fall zu Fall anhand realer Messungen vergleichen. Ich bin angesichts des sehr großen Unterschieds beim FX-8300er, ziemlich sicher, dass auch zwischen einem FX-6300er mit 95W und einem Ivy Bridge mit 77W TDP, meist mehr als nur 20W Differenz liegen.

@ Casi030
Ich würde ausgelesene Temperaturen von Intel und AMD nicht direkt miteinander zu vergleichen.

Die realen Temperaturverhältnisse spiegel sehr wahrscheinlich beide Sensorenwerte nicht wieder, aber bei AMD ist es besonders offensichtlich, dass da etwas nicht stimmt, wenn die mal eben Idle-Temperaturen deutlich unterhalb der Raumtemperatur anzeigen. Da muss offensichtlich noch ein gewisser Offsetwert draufgerechnet werden.
Niemand kann sagen wie groß dieser Wert ist und er ist wahrscheinlich nicht über den gesamten Temperaturbereich linear. Man kann also nicht z.B. auf die in Idle angezeigten z.B. 9° einfach 20° draufrechnen (was dann einen halbwegs plausiblen Wert ergibt) und ebenso bei den unter Last angezeigten 50°.

Solange man nicht die CPU im laufenden Betrieb aufsägt und da irgendwie eine "vertrauenswürdige" kalibrierte Temperatursonde reinquetscht, kann man nur wild spekulieren.
Wie gesagt, für Intel gilt das grundsätzlich ebenso. Aber ich bin ziemlich sicher, dass die bei Intel ausgelesenen Temperaturen weniger weit von der realen Temperatur weg liegen, als bei AMD. Einfach, weil sie gewöhnlich plausibler sind.

Ergänzung zur Übertaktungsspieraum:
Es geht ja nicht nur um GHz-Zahlen, sondenr auch, wie effizient die CPU dabei noch arbeitet. irgendwann wird der exponential steigende Verbrauch doch zu einem realen Problem:
So sieht es beim Zambezi aus:
http://www.tomshardware.com/reviews/bulldozer-efficiency-overclock-undervolt,3083-18.html
So bei Sandy Bridge:
http://www.tomshardware.com/reviews/sandy-bridge-overclocking-efficiency,2850-13.html
Und so bei Ivy Bridge:
http://www.tomshardware.com/reviews/ivy-bridge-overclocking-core-i7-3770k,3198-13.html

Es ist klar zu erkennen, dass die Bulldozer im Standardtakt schon über den "Sweetspot" hinaus getaktet sind, während Sandy Bridge sogar bei maßvollem Overclocking sogar noch effizienter läuft. Intel hat da also deutlich mehr Spielraum nach oben.

Ich denke, mit Vishera wird sich dieses Bild nicht wesentlich ändern.

Quad-core
24.10.2012, 10:36
Vom Preisunterschied (125€ für den FX, 170€ für einen 3450) ganz zu schweigen.

wobei der FX6300 schon fast genau so schnell bei spielen ist wie ein FX8350 :D , hoffe mal das bald noch weitere tests kommen .

MrTengu
24.10.2012, 10:43
@ MrTengu
Genau wie bei AMD, nutzen auch bei Intel die CPUs nicht allesamt die TDP aus, mit der sie eingestuft sind. Man müsste das also von Fall zu Fall anhand realer Messungen vergleichen. Ich bin angesichts dies sehr großen Unterschieds beim FX-8300er, ziemlich sicher, dass auch zwischen einem FX-6300er mit 95W und einem Ivy Bridge mit 77W TDP, meist mehr als nur 20W Differenz liegen.


Das kann durchaus sein. Ich habe da leider keine Messwerte.

Ich mache mir aber echt keinerlei Gedanken um Wattzahlen in diesem Bereich. Das ist ja kein Kühlschrank der laufend läuft.

Eine maximale TDP von 95W ist für mich absolut überzeugend für ein Arbeitstier. Derzeit habe ich 125W (Athlon 64 X2) und selbst das war für mich bisher völlig unrelevant gewesen. Selbst wenn das auf meiner Stromrechnung 1 Euro mehr im Monat ausmachen würde, wäre es mir egal. Denn wenn ich bei CPU Leistungen aufs Geld beim Strom achten muss, habe ich ganz andere Probleme und sollte vielleicht eher zusehen, wie ich zu mehr Geld komme anstatt eine neue CPU zu kaufen, die weniger braucht.

hrafnagaldr
24.10.2012, 11:06
2. Der Verbrauch verrät etwas über das Potential einer CPU/Architektur.



Richtig, aber für jmd. wie mich, der aktuell ein AM3+ Board und evtl. die CPU aufrüsten will zunächst mal uninteressant, auch wenn der Steamroller evtl. noch auf AM3+ kommen wird.

Aktuell würde der FX-8350 in bei mir aktuellen Spielen gegenüber dem 1090T durchaus 20% mehr FPS ermöglichen (Batman Arkham City, Skyrim), auch in FHD. Zusammen mit Windows 8 (siehe Planet 3dnow Test) sogar eine ordentliche Steigerung multithreaded (diese gilt übrigens auch für Intel und HT, da hat Microsoft wohl gute Arbeit geleistet).

Gegen Weihnachten hab ich so 550€ Budget eingeplant, da wären ein FX-8350, eine HD 7950 Boost und Windows 8 Pro Systembuilder wohl drin, von daher ist die CPU sehr interessant für mich.

Quad-core
24.10.2012, 11:31
Hab mal Cinebench bei 4,5GHz getestet , den i7 3770K hab ich damit geschlagen .

SuddenDeathStgt
24.10.2012, 11:59
@ Quad-core

@ stock hast "ihn" kassiert ... @ 4,5GHz muß sich Vishera noch ein wenig strecken. ^^
dennoch mMn ein beachtliches update & im bereich gaming, kann man nicht mehr sooo klagen.

Flatan
24.10.2012, 13:09
Weil es gestern wohl niemand beantwortet hat frag ich nochmal. :)

Weiß jemand wo der FX 8300 geblieben ist?

GIbts den nur in Komplettrechnern oder ist der ganz aus dem Sortiment geflogen?

MikelMolto
24.10.2012, 13:13
Seit wann hat denn der I7 3770K 3,2Ghz Standardtakt?
Mit meinem 3770K mache ich die Punkte in Cinebench mit 4,2Ghz und brauche dabei noch die Hälfte an Strom dafür. Mir ist schon bewusst, das der teurer ist. Zahle für den I7 3770K eine Abendessen mit meiner Frau mehr als für den AMD.

Lübke
24.10.2012, 13:14
wo hast du denn von dem fx-8300 gelesen? es gab ja auch keinen fx-8100. damit ist vermutlich eher die ganze fx-83X0-reihe gemeint gewesen...

hrafnagaldr
24.10.2012, 13:16
Seit wann hat denn der I7 3770K 3,2Ghz Standardtakt?
Mit meinem 3770K mache ich die Punkte in Cinebench mit 4,2Ghz und brauche dabei noch die Hälfte an Strom dafür. Mir ist schon bewusst, das der teurer ist. Zahle für den I7 3770K eine Abendessen mit meiner Frau mehr als für den AMD.

Wenn man zum Abendessen pro Person desöfteren 50-60€ ausgeben kann ist der Preis das Prozessors natürlich nebensächlich.

Held213
24.10.2012, 13:19
@Flatan:
Fudzilla schreibt "Four CPUs as expected": http://www.fudzilla.com/home/item/29200-amd-officially-launched-new-vishera-fx-series-cpus

Ein 8300 würde m.E. auch nicht passen, da es bisher auch nur 8x50 und 8x20 gab.

Flatan
24.10.2012, 13:24
wo hast du denn von dem fx-8300 gelesen? es gab ja auch keinen fx-8100. damit ist vermutlich eher die ganze fx-83X0-reihe gemeint gewesen...

http://www.3dcenter.org/news/erneut-details-zu-weiteren-piledriver-basierten-vishera-prozessoren

Naja ok dannw ar das wohl nur ein Fake. Schade. :(

DinciVinci
24.10.2012, 13:25
Im Gespräch war der 8300 mal mit 3,3 GHz, glaube ich. Bisher hieß es aber immer, das sei nur ein OEM-Prozessor. Vielleicht taucht er ja irgendwann irgendwo auf...

hardwarekäufer
24.10.2012, 13:25
Wenn man den Verbrauch mal nur aus finanzieller Sicht betrachtet:

Für ein System was 24h läuft ergibt 1 W Verbrauch bei derzeitigen Strompreisen von 0,25 € einen Jahresbetrag von etwa 2,20 € pro Jahr.
Nutzt man das System nur 8 Stunden pro Tag teilt man den Betrag einfach durch drei und kommt auf rund 0,74 € pro Jahr.

Wo liegen die Verbräuche über den Daumen gepeilt ? Sagen wir mal großzügig 50W über einem vergleichbaren Intel ?
Dann verbraucht die CPU im Jahr rund 37€ mehr Energie. Wie lange man so eine CPU nutzt darf man dann selbst mal entscheiden und gucken was die Ersparnis beim Kauf so beträgt.

MrTengu
24.10.2012, 13:36
Wenn man den Verbrauch mal nur aus finanzieller Sicht betrachtet:

Für ein System was 24h läuft ergibt 1 W Verbrauch bei derzeitigen Strompreisen von 0,25 € einen Jahresbetrag von etwa 2,20 € pro Jahr.
Nutzt man das System nur 8 Stunden pro Tag teilt man den Betrag einfach durch drei und kommt auf rund 0,74 € pro Jahr.

Wo liegen die Verbräuche über den Daumen gepeilt ? Sagen wir mal großzügig 50W über einem vergleichbaren Intel ?
Dann verbraucht die CPU im Jahr rund 37€ mehr Energie. Wie lange man so eine CPU nutzt darf man dann selbst mal entscheiden und gucken was die Ersparnis beim Kauf so beträgt.

Man muss das noch in Relation setzen zur CPU, die ersetzt wird, sofern es sich um keinen Neukauf handelt. In dem Fall ist der Unterschied vermutlich noch geringer.

Ich sag doch, dieses Herumdiskutiere wegen Stromverbrauch ist einfach nur müßig. Man darf wirklich nicht die blanke TDP Zahl sehen sondern muss realistisch denken. Selbst einem Nerd steht sowas mal ganz gut ;)

DinciVinci
24.10.2012, 13:56
...und die Rechnung geht pro Tag von einem 8-stündigen Mehrverbrauch von 50 W aus. Da sich ein typischer Computer die meiste Zeit im Leerlauf befindet, wird es in der Realität noch viel, viel weniger sein.

Jakal
24.10.2012, 14:00
*zustimmt*

Casi030
24.10.2012, 14:09
@ Casi030
Ich würde ausgelesene Temperaturen von Intel und AMD nicht direkt miteinander zu vergleichen.

Die realen Temperaturverhältnisse spiegel sehr wahrscheinlich beide Sensorenwerte nicht wieder, aber bei AMD ist es besonders offensichtlich, dass da etwas nicht stimmt, wenn die mal eben Idle-Temperaturen deutlich unterhalb der Raumtemperatur anzeigen. Da muss offensichtlich noch ein gewisser Offsetwert draufgerechnet werden.

Das Problem liegt aber nicht bei AMD,sondern ehr bei den Mainboardherstellern,weil sonst hätte ich nicht mit Einer CPU,Einem Mainbordhersteller GB und 2 Mainbordas + Bios Updates unterschiedliche Temperaturen gehabt.
Wie gut oder Schlecht die bei Intel ausgelesen werden kann ich nicht wirklich sagen.
Aber solange Eine der 2 ausgelesenen Temperaturen beim AMD nach nem Kaltstart min um Raumtemperatur liegt,passt es auch recht gut.
Beim Llano hab ich die CPU unter Windows ohne Kühler gemessen,und die angezeigte CPU Temp stimmte bis auf 1-2°C mehr,mit der gemessen überein.
Aber die Temps sind schon ne Sache für sich,besonders wenn nix an Software/Programmen damit zurecht kommt,oder die Mobo/CPU Hersteller nur Mist machen.....
Bulli wollt ich auch mal Messen,aber noch nicht zu gekommen.

Für deine Links muss ich erst noch Studieren.:D
Das ist mir gerad ein wenig zu durcheinander und zuviel Englisch fürs verwackelte Lesen.;)

Quad-core
24.10.2012, 14:15
Seit wann hat denn der I7 3770K 3,2Ghz Standardtakt?
.

Nö da ist der alte i7 920 mit drinn , hab mit den werten von CB verglichen .

Casi030
24.10.2012, 14:17
Man muss das noch in Relation setzen zur CPU, die ersetzt wird, sofern es sich um keinen Neukauf handelt. In dem Fall ist der Unterschied vermutlich noch geringer.

Ich sag doch, dieses Herumdiskutiere wegen Stromverbrauch ist einfach nur müßig. Man darf wirklich nicht die blanke TDP Zahl sehen sondern muss realistisch denken. Selbst einem Nerd steht sowas mal ganz gut ;)

Und wenn ich überlege das ich mit nem FX 8120 @4GHz OC im Spiel wo alle Kerne min zu 50% -75% Ausgelastet waren und bei Großzügiger Rechnung max 70Watt brauchte......da sind die 50Watt Unterschied schon hoch gerechnet.
Die Intel laufen wie viele meinen,nicht nur mit Luft und Liebe

Matzegr
24.10.2012, 14:28
Ich würde ausgelesene Temperaturen von Intel und AMD nicht direkt miteinander zu vergleichen.

Die realen Temperaturverhältnisse spiegel sehr wahrscheinlich beide Sensorenwerte nicht wieder, aber bei AMD ist es besonders offensichtlich, dass da etwas nicht stimmt, wenn die mal eben Idle-Temperaturen deutlich unterhalb der Raumtemperatur anzeigen.

Bei AMD wird anhand von Leistungsparametern und Spannungen ein Temperaturwert errechnet, der jedoch keiner physikalischen Temperatur entspricht.

Casi030
24.10.2012, 15:22
Wundert mich,wiso steigen dann die Ausgelesenen Temperaturen(bis 55°C) an wenn ich keine Last und Spannungsänderung habe?!

GrinderFX
24.10.2012, 15:25
Mir ist schleierhaft wie Computerbase da irgendwas positives drin sehen kann. Das Teil ist nicht schnell und verbraucht dabei noch weit mehr Leistung als die schnellsten Intel CPUs. Wo ist da also was auferstanden aus Ruinen?

Dan Kirpan
24.10.2012, 16:47
Ich werde den FX 8350 auf jedenfall in einem PC eines Freundes verbauen.

Vieleicht hole ich ihn mir auch bald, der Stromverbrauch interssiert mich wirklich überhaupt nicht. Ich weiß gar nicht warum da auf einmal alle so hinterher sind. Bei Graffikarten interssiert es doch auch niemanden wirklich.

MrTengu
24.10.2012, 16:57
Ich werde den FX 8350 auf jedenfall in einem PC eines Freundes verbauen.

Vieleicht hole ich ihn mir auch bald, der Stromverbrauch interssiert mich wirklich überhaupt nicht. Ich weiß gar nicht warum da auf einmal alle so hinterher sind. Bei Graffikarten interssiert es doch auch niemanden wirklich.

Weil es halt eine Kennzahl ist, nach der verglichen wird. Dabei vergessen die meisten allerdings, dass dieser Wert ein theoretischer Wert ist, der in der Realität nicht 1:1 übernommen werden kann. Das ist wie beim Spritverbrauch. 9l klingen nun mal besser als 11l. Da wird aber nicht die Fahrweise eines einzelnen Fahrers betrachtet, der durchaus mit dem 9l Auto im Endeffekt mehr verbrauchen kann.

Und dann kommt noch dazu, dass viele gar nicht das Endergebnis im Geldbeutel sehen. Da wird davon ausgegangen, dass der "falsche" Prozessor ein riesiges Loch reißt. Ist ebenfalls Unsinn, wurde im Thread schon mehrfach vorgerechnet.

Was bleibt, ist die reine Rechenleistung. Und da gehen viele wieder nach den theoretischen Benchmarks, die im Alltag überhaupt keine Rolle spielen. Selbst die immer zitierten Games sind nicht so CPU abhängig, wie man glauben mag. Ich möchte gern mal wissen, wie viele Käufer von AMD CPUs auf Intel gewechselt sind, weil ihnen der Prozessor zu langsam war. Ich wette, dass die Zahl gegen 0 tendiert.

sebi100
24.10.2012, 17:03
Vieleicht hole ich ihn mir auch bald, der Stromverbrauch interssiert mich wirklich überhaupt nicht. Ich weiß gar nicht warum da auf einmal alle so hinterher sind. Bei Graffikarten interssiert es doch auch niemanden wirklich.

Ich kann dir sagen warum... siehst du was vor dem FX steht? Genau AMD... :eek: das reicht für viele direkt um ein Produkt schlecht zu machen.

Betonen möchte ich aber auch das mir Stromverbrauch wichtig ist (auch bei Grafikkarten) aber der Stromverbrauch im Idle ist mir 100 mal wichtiger als unter last... und im idle schenken sich beide ja kaum was... 13 watt... und Last.. nun gut aber das wurde ich schon die letzten 1000 seiten diskutiert das es ja nur nen Wert angibt wenn der Rechner non stopp auf 100% läuft :D

Ich freu mich schon auf meinen FX (zum zocken)

Thomson1981
24.10.2012, 17:31
Bin mir jetzt nicht sicher,ob es nicht schon Jemand angesprochen hat,weil ich mir nicht alle Kommentare des Treads durchgelesen habe,aber diese Frage sollte trotzdem nochmal gestellt werden,bezüglich auf den Test.

Windows 8 Pro X-64 soll ja in der Vollversion die neuen CPU Befehle der AMD Bulldozer und Vishera Prozessoren unterstützen und noch dazu besser mit den 8 CPU Kernen in allen Anwendungen skalieren können,wodurch die Gesamtperformance der Bulldozer- und Vishera Prozessoren nochmals um bis zu 12-15% steigen soll laut hartnäckigen Gerüchten,im Vergleich mit Windows 7 oder noch älteren Betriebssystemen

Damit mit dem 12-15% Windows 8 Performance Bonus wäre ja der FX 8350 sogar konkurenzfähig zum Corei7 3770k,wenn man über die 100 Watt mehr Verbrauch unter Last und der etwas geringeren Leistung bei gleichen Takt drüber hinwegsehen kann und bei über 80 Euro Preisunterschied eine echte Alternative zu diesem.

Ich würde bei einer Neuanschaffung aber heute nun generell lieber den AMD FX8350 Octacore kaufen,als jetzt noch für das selbe Geld einen Intel 3570k Quadcore zu nehmen,welcher schon in 1-2 Jahren bei neuen Spielen an seine Grenzen kommen könnte,die mehr als 4 Kerne fordern.

Die neuen Konsolen werden sicherlich mit mehr als 4 CPU Kernen ausgestattet sein und wieder die Leadplattform für neue Spiele sein,wodurch dann auch die PC High End Spiele der nächsten 2-5 Jahre automatisch mehr als 4 Kerne brauchen werden,wenn man alles voll aufdrehen will an den Qualitätsreglern.

Wer also heute neu kauft und seine CPU + Unterbau über lange Zeit nutzen will mit etwa 5 Jahren,sollte heute schon lieber zum 6 oder 8 Kerner greifen und ist damit auf der sicheren Seite.
Heute mag man vielleicht mit einem 6 oder 8 Kerner noch leicht im Nachteil sein gegenüber einem schnellen 4 Kerner,aber in etwa 2 Jahren wird man mit einem Quadcore wohl in neuen Spielen überhaupt nicht mehr flüssig spielen können,während ein heutiger 6 oder 8 Kerner selbst dann immer noch potente Leistung bringen wird und jedes Spiel auf maximum wiedergeben kann.

Das war vor 5 Jahren schon mal so bei dem Kampf Dualcore gegen Quadcore:
Im Jahr 2007 hatten die Quadcores noch das Nachsehen gegen die schnellen Dualcore Modelle und waren leicht langsamer.
Als dann aber GTA 4 2008 rauskam und den Quadcore salonfähig gemacht hat als das 1.große Spiel,was einen Quadcore benötigt hat,kamen immer mehr neue Spiele raus,die durch einen Quadcore schneller liefen oder überhaupt erst flüssig liefen,wie z.B. Far Cry 2,ArmA II + Add'ons,Star Craft II,alle restlichen Echtzeit Strategie Spiele und modernen Shooter.

Ab 2010 hatte man dann praktisch bei jedem neuen Spiel Vorteile mit einem Quadcore,weil diese massiv die 4 Kerne voll nutzen konnten.

Das Gleiche wird nun jetzt mit den neuen Konsolen sicherlich wieder passieren zwischen Quadcore und Hexacore/Octacore.

Ich werde mir aber demnächst trotzdem lieber einen neuen Intel Rechner mit der Sandy Bridge E und der Sockel 2011 Plattform kaufen,weil ich als SLI Nutzer die vollen PCI-E 3.0 16x Lanes für alle meine Grafikkarten nutzen will und auch auf natives USB 3.0,SATA 6GB und Quad Channel RAM Interface nicht verzichten will.
Außer AMD bringt nächstes Jahr neue Mainboards mit neuen Chipsätzen raus,die alle diese Features auch haben,dann wäre ich auch gegenüber AMD nicht abgeneigt,weil die 8 Kerner echt verlockend sind bei der hohen Leistung und dem Kampfpreisen.

Und allen normalen PC Nutzern in meinem Bekanntenkreis,die aufrüsten wollen und kein SLI/Crossfire brauchen,werde ich jetzt auf alle Fälle wieder mit gutem Gewissen AMD empfehlen können,weil Sie einfach mehr bieten fürs Geld und man mit einem 8 Kerner auf alle Fälle zukunftssicherer fährt die nächsten 4-5 Jahre,als mit einem heutigen Intel Quadcore.

Und Leute,die die 8 Kerne und die neuen CPU Befehle auch wirklich dringend brauchen für spezielle Anwendungen und Software,kommen nun an AMD sowieso nicht mehr vorbei:Hier kostet ein nativer Intel 6 Kerner gleich mal das Dreifache und bietet immer noch 2 Kerne weniger.

Der Test an sich von Computerbase hat mir sehr gut gefallen und wusste zu überzeugen.

Aber bitte bitte die AMD Bulldozer und Vishera Prozessoren nochmal komplett auch mit der Vollversion von Windows 8 Pro X-64 testen,damit Sie ihre vollen Stärken ausspielen können gegenüber der Intel Konkurenz !

White_Eagle
24.10.2012, 17:43
Ich suche immer noch den eklatanten Rückstand...

Aber die Mehrheit spielt sicher in 640x480 und hat keine limitierende Grafikkarte.
Tests sollten sich auf aktuelle Gegebenheiten beziehen und keine Kaffeesatzleserei sein.
Wäre dieser faux pâs nicht, man könnte den Test als das bezeichnen, was er sonst eigentlich ist, als gut.

Es geht ja nicht darum, die Limitierung/Leistungsminderung durch den Einfluß von verschiedenen Grakas zu testen,
sondern die Stärken und Schwächen eine Prozessors zu beurteilen.
Genau deshalb soll ja der Einfluß von verschiedenen Graka's bei dem Test, soweit als möglich, ausgeschlossen werden.

Lübke
24.10.2012, 17:46
wodurch die Gesamtperformance der Bulldozer- und Vishera Prozessoren nochmals um bis zu 12-15% steigen soll laut hartnäckigen Gerüchten,

da würde ich das gerüchte betonen. ich denke dass wir eher um die 5% sehen werden. aber dass es besser geht, zeigt ja die leistung unter linux, wo i7 3770k und fx-8350 mit ihren jeweils 8 threads dicht zusammenliegen.

ExcaliburCasi
24.10.2012, 17:47
Ja, wird in dicken SUVs eingebaut die boomen gerade.;)

Welche SUV´s mit Amerikanischer Power boomen?
SUV´s mit deutscher hochleistungstechnik und Asiatischer kopie boomen, aber amis???

Sontin
24.10.2012, 17:52
Wenn man den Verbrauch mal nur aus finanzieller Sicht betrachtet:

Für ein System was 24h läuft ergibt 1 W Verbrauch bei derzeitigen Strompreisen von 0,25 € einen Jahresbetrag von etwa 2,20 € pro Jahr.
Nutzt man das System nur 8 Stunden pro Tag teilt man den Betrag einfach durch drei und kommt auf rund 0,74 € pro Jahr.

Wo liegen die Verbräuche über den Daumen gepeilt ? Sagen wir mal großzügig 50W über einem vergleichbaren Intel ?
Dann verbraucht die CPU im Jahr rund 37€ mehr Energie. Wie lange man so eine CPU nutzt darf man dann selbst mal entscheiden und gucken was die Ersparnis beim Kauf so beträgt.

Der Verbrauch liegt bei 80-100 Watt über einem vergleichbaren Intel-Prozessor.
Das macht einem Mehrpreis von 59,2€ bis zu 74€ pro Jahr bei 8h.

Und 8h ist ziemlich gut. Denn wer sich solch einem 8 Thread Prozessor kauft, wird ihn wohl die meiste Zeit auch unter Last betreiben. Ansonsten kann man nämlich zu einem langsameren Prozessor greifen. Und da hat AMD dann überhaupt keine Chance mehr.

Marius
24.10.2012, 17:56
4.0Ghz... das sind ~25% mehr Takt als ein i5 3470.
Wie siehts denn aus, wenn beide CPUs auf 4,0 laufen?

Tammy
24.10.2012, 18:43
Es geht ja nicht darum, die Limitierung/Leistungsminderung durch den Einfluß von verschiedenen Grakas zu testen,
sondern die Stärken und Schwächen eine Prozessors zu beurteilen.
Genau deshalb soll ja der Einfluß von verschiedenen Graka's bei dem Test, soweit als möglich, ausgeschlossen werden.

Den Einfluss der Grafikkarten eliminiert man durch die Wahl einer Spitzenkarte, die hypothetischen Werte in unrealistischen Szenarios versehen mit einem Kommentar wie dem des Redakteurs sind Kaffeesatzleserei, was die zukünftigen Anforderungen in Spielen angeht.

Gerade die Ankündigungen zur nächsten ATI Generation, welche auf verminderte Leistungsaufnahme setzt und nicht auf grosse Performancegewinne zeigt, dass derlei Tests sinnfrei sind und wertende Kommentare als unsachlich erscheinen lassen.

Wie gesagt, sonst gefällt mir der Test, sieht man davon ab und von den "einzigartigen" Ergebnissen bezüglich Leistungsaufnahme.

y33H@
24.10.2012, 19:05
Windows 8 Pro X-64 soll ja in der Vollversion die neuen CPU Befehle der AMD Bulldozer und Vishera Prozessoren unterstützen und noch dazu besser mit den 8 CPU Kernen in allen Anwendungen skalieren können,wodurch die Gesamtperformance der Bulldozer- und Vishera Prozessoren nochmals um bis zu 12-15% steigen soll laut hartnäckigen Gerüchten,im Vergleich mit Windows 7 oder noch älteren Betriebssystemen.12 bis 15 Prozent und neuen CPU-Befehle? Letztere sind in erster Linie von der Software abhängig und bisher zeigte Win8 leichte Vorteile für die FX, d.h. die Leistung bei aktivem Turbo stieg im einstelligen Prozentbereich.

Morphy2k
24.10.2012, 19:10
Irgendwie machen mich die CB Ergebnisse etwas stutzig, man siehe sich mal diese Werte an.

http://rog.asus.com/forum/showthread.php?24402-AMD-FX-quot-Vishera-quot-rreviews-info&country=&status=

Achtung, nicht unbedingt für Laien :D ^^

Matzegr
24.10.2012, 19:11
...
Windows 8 Pro X-64 ... 12-15% steigen soll laut hartnäckigen Gerüchten,im Vergleich mit Windows 7 oder noch älteren Betriebssystemen

Es gibt Sachen (z.B. XMPEG+XViD), da legt der Vishera unter Windows 8 um 17% zu, allerdings legt auch nen i7 um 10% zu, wohingegen nen Phenom II minimal langsamer wird.
Das sind aber Ausnahmen. Man sollte von Windows 8 keine Wunder erwarten.

Was wirklich Positiv auffällt ist, dass der Idle Verbrauch beim Vishera unter Windows 8 um 5% fällt, beim Zambezi und i7 passiert mit -1% bzw. +1% nicht viel (Messtolleranz).



Der Verbrauch liegt bei 80-100 Watt über einem vergleichbaren Intel-Prozessor.
Das macht einem Mehrpreis von 59,2€ bis zu 74€ pro Jahr bei 8h.

Die Rechnung hat einen Fehler, sie geht davon aus, dass beide Prozessoren die gleiche Rechenzeit benötigen, das ist ja wohl kaum gegeben.


Und 8h ist ziemlich gut. Denn wer sich solch einem 8 Thread Prozessor kauft, wird ihn wohl die meiste Zeit auch unter Last betreiben. Ansonsten kann man nämlich zu einem langsameren Prozessor greifen.

Warum?
Auch wenn ich nur ab und an was rendern/etc. möchte, kann ich auch ruhigen Gewissens zu einem schnellen Prozessor greifen auch wenn er dann die meiste Zeit im Idle ist.
Schließlich gibt es beim Idle keine Ersparnis für den langsameren Prozessor und unter Last, ist die Stromrechnung auch nciht teurer, da ich kürzere zeit unter Last bin als bei einem langsameren Prozessor.

Caanon
24.10.2012, 19:45
schreibst du immer so borniert?
Da kann ich sehr viel eher dich fragen, ob du immer erst schreibst, bevor du auch nur halbwegs nachgedacht hast.
Aber das hätte wohl eher etwas von einer rhetorischen Frage, nicht?



liegt wohl am alter wahrscheinlich noch jeden tag einen gelben pikel im gesicht ausdrücken oder ;-)
Wenn Leuten die Argumente ausgegangen sind, dann macht manch einer auch sowas wie du hier. Auch sehr erwachsenes Verhalten übrigens. Ob da wohl doch noch einer von uns beiden am Pickel ausquetschen ist? ;)
Zu deinem Gunsten müsste ich nun eigentlich davon ausgehen, dass du noch in diesem Alter bist. Kann ich aber schlecht, weil sich auch genügend "Erwachsene" noch so verhalten.
Aber dein Alter interessert mich sowieso nicht, du kannst es schön für dich behalten. Es ist dein Problem, wenn du noch reifen musst und ebenso dein Problem, wenn das eigentlich schon längst hätte geschehen sollen.



du meinst das nicht ernst 2 komplett unterschiedliche tests vom ergebnis her vergleich zu wollen und damit einen seriösen leistungsvergleich dem leser zu suggerieren?!
Tja, dann versuchen wir es doch mal mit der ausführlichen Erklärung. :freak
Erstmal ist sicherlich davon auszugehen, das sowohl au-ja.de als auch AnandTech ihre Übertaktungsergebnisse ehrlich wiedergegeben haben. Sprich, au-ja.de hat mit ihrem Testexemplar eines Core i5-3570K tatsächlich 4.4 GHz erreicht und AndandTech mit ihrem ihrem Testexemplar eines FX-8350 tatsächlich nur 4.8 GHz (mit mehr Takt lief er ja leider schon nicht mehr stabil).
Natürlich ist kein Chip wie der andere. Andere Exemplare des i5-3570K schaffen in derselben Testumgebung von au-ja.de vielleicht 4.5 GHz. Dafür wird es vielleicht auch ein paar Exemplare geben, die nicht ganz die 4.4 GHz schaffen, zumindest nicht mit der Kühlung, die au-ja.de eingesetzt hat.
4,4 GHz für den i5-3570K sollten in Umgebungen wie bei au-ja.de also ein relativ guter Mittelwert sein. Genau deshalb schrieb ich ca. 4.4 GHz.
Beim FX-8350 wird es jedenfalls nicht anders sein. Andere FX-8350er schaffen in AnandTechs Testumgebung vielleicht die 5.0 GHz, wieder andere vielleicht nur 4.6 GHz. Ca. 4.8 GHz eben.
Klar, vielleicht war der i5-3570K von au-ja.de "cherry-picked" und i5-3570Ks schaffen bei gleicher Kühlung im Durchschnitt dann doch nicht ca. 4.4 GHz, aber AnandTechs FX-8350 könnte logischerweise auch cherry-picked sein. Ohne dutzende, besser hunderte Exemplare zu testen, können wir den jeweiligen Durchschnitt nicht wesentlich besser einschätzen. Aber weder au-ja.des noch AnandTechs Ergebnisse finde ich irgendwie so ungewöhnlich, dass sie mich stutzig machen würden.
Oder hättest du bei dem einen oder dem anderen der beiden Tests mehr oder weniger Übertaktungspotenzial erwartet?

Die Testumgebungen von au-ja.de und AnandTech sind selbstverständlich nicht exakt identisch. Es wird aber ohnehin nur einen überhaupt wirklich wesentlichen Unterschied geben: Den CPU-Kühler!
Da setzt au-ja.de auf den Xigmatek Aegir SD128264 (http://www.au-ja.de/review-xigmatek-aegir-sd128264-1.phtml), der sich in au-ja.des Review schon ziemlich gut schlägt, aber ich würde ihn noch nicht wirklich High-End-Luftkühler nennen.
Will man noch weiter kommen, muss man natürlich zu anderen (http://www.computerbase.de/artikel/gehaeuse-und-kuehlung/2011/test-prolimatech-genesis-cpu-kuehler/11/), eher exotischen Kalibern (http://hardwareoverclock.com/Thermaltake_FRIO_OCK_Kuehler.htm) von Luftkühlern greifen, die sich auch mit guten Wasserkühlern messen können.
AnandTech setzt jedenfalls auf "AMD's branded closed loop liquid cooler" (http://www.anandtech.com/show/4955/the-bulldozer-review-amd-fx8150-tested), den sie schon mit einem FX-8150-Testexemplar erhalten haben und der von Asetek hergestellt wurde.
Blöd nur für den FX-8350, dass AnandTech mit einem recht ähnlichen, vom Aufbau her aber nicht wirklich so kühlleistungsstark wirkenden Intel-Wasserkühler (der auch von Asetek hergestellt wird), einen i7-3770K auch bis auf 4.8 GHz hochprügeln konnte: http://www.anandtech.com/show/5763/undervolting-and-overclocking-on-ivy-bridge
(Und ein i7-3770K hat selbstverständlich in etwa das gleiche Übertaktungspotenzial wie ein i5-3570K.) Wenn man sich hier nun AnandTechs erreichte Temperatur bei den 4.8 GHz mal anschaut, sollte man es mit dem Intel-Wasserkühler wohl lieber bei ca. 4.6 GHz belassen. Die sollten aber auch mit so ziemlich jedem i5-3570K locker drin sein mit dem Intel-Wasserkühler und sicherlich auch mit dem "von" AMD, oder mit wieder anderen, etwa gleich kühlleistungsstarken Wasserkühlern.

Wo kommen wir also an?
- Ein i5-3570K schafft mit gutem Luftkühler ca. 4.4 GHz und hat einen Basistakt von 3.4 GHz.
4.4 / 3.4 = 1.29411765 also ca. 30% mehr als 3.4 GHz

- Ein FX-8350 schafft es mit gutem Wasserkühler nur auf ca. 4.8 GHz. Das "nur" deshalb, weil er bereits einen Basistakt von 4.0 GHz hat.
4.8 / 4.0 = 1.2

1.2 ist kleiner als 1.29411765, nicht? Er müsste auf 4.0 GHz * 1.29411765 = 5.1764706 GHz also ca. 5.2 GHz kommen, was er aber auch nicht mit dem Wasserkühler tut, geschweige denn nur mit gutem Luftkühler.
Mit dem verflucht kühlleistungsstarken Wasserkühler Corsair Hydro Series H100 (http://www.overclockersclub.com/reviews/corsair_hydro_series_h100/) hat es Overclockersclub.com (http://www.overclockersclub.com/reviews/amd_fx8350/3.htm) zwar tatsächlich auf 5,2 GHz geschafft, aber pack denselben Kühler mal auf einen i5-3570K und schau wie du mit dem Riesending mit Sicherheit problemlos über 4.6 GHz kommst.

So, jetzt begriffen?



i seh schon du beschäftigst dich noch nicht länger mit der materie .... kein problem nur bitte sei dann nicht so borniert gegenüber deinen mitmenschen.
Dein Schuss ging jetzt verdammt übel nach hinten los, was? :evillol

CHAOSMAYHEMSOAP
24.10.2012, 19:48
Und Leute,die die 8 Kerne und die neuen CPU Befehle auch wirklich dringend brauchen für spezielle Anwendungen und Software,kommen nun an AMD sowieso nicht mehr vorbei:Hier kostet ein nativer Intel 6 Kerner gleich mal das Dreifache und bietet immer noch 2 Kerne weniger.

Dafür ist sind die 6 Kern Sandys dann auch noch mal ein Stückchen schneller. :rolleyes

Chuck Finlay
24.10.2012, 20:00
Wie y33h@ bereits erwahente, Win8 bringt nicht wirklich soviel.
z.B. P3Dnow hat Win7 und Win8 gebencht, z.B. interessiert mich da der x264 Pass 1 wenn ich streamen moechte. Da ging es fuer den 3770K von 57.7 auf 58.8, fuer den 8350 von 48.9 auf 49.7.
Sicher gibt es Games, bei denen der Gewinn dann auch etwas groesser ausfaellt, aber 12-15% sind, denke ich, zu sehr optimistisch.

Darzerrot
24.10.2012, 20:06
Also wenn ich mir jetzt einen neuen CPU kaufen würde, würde ich deutlich eher den 3570K holen. Leistung besser und weniger Strom verbraucht, mehr muss man eigentlich nicht sagen.

PS: Hab einen 1090T, bin absolut ein Fan-Boy usw., kann ebend Test lesen, verstehen und dann entscheiden. :)

sebi100
24.10.2012, 20:42
PS: Hab einen 1090T, bin absolut ein Fan-Boy usw., kann ebend Test lesen, verstehen und dann entscheiden. :)

Da... da outet sich endlich mal jemand :D :evillol

Mal so ne frage am rande... wieso muss eigentlich bei CB immer so eine schlacht losgehen? In anderen Foren geht es meistens auch viel friedlich zu o.O

Poke
24.10.2012, 20:47
Ich habe mir den FX 8350 bestellt,da meine Freundin scharf auf mein 1100T ist,mit dem ich das letzte Jahr sehr gut gefahren bin,konnte alles zocken mit einer 6970 auf Full Hd,der kleine mehrverbrauch an Strom ist mir egal,zumal ich ein klasse Board im Rechner habe.

Bin ein sehr zufriedener AMD Kunde

Matzegr
24.10.2012, 20:51
Wo kommen wir also an?
- Ein i5-3570K schafft mit gutem Luftkühler ca. 4.4 GHz und hat einen Basistakt von 3.4 GHz.
4.4 / 3.4 = 1.29411765 also ca. 30% mehr als 3.4 GHz

- Ein FX-8350 schafft es mit gutem Wasserkühler nur auf ca. 4.8 GHz. Das "nur" deshalb, weil er bereits einen Basistakt von 4.0 GHz hat.
4.8 / 4.0 = 1.2

1.2 ist kleiner als 1.29411765, nicht? Er müsste auf 4.0 GHz * 1.29411765 = 5.1764706 GHz also ca. 5.2 GHz kommen, was er aber auch nicht mit dem Wasserkühler tut, geschweige denn nur mit gutem Luftkühler.


Kurze Frage, warum für AMD nen Wasserkühler, wenn ein Luftkühler auch reicht?


5 GHz waren stabil möglich....0,15 Volt und damit schon die Grenze des Belastbaren für eine normale Luftkühlung waren nötig.

Warum der Vergleich mit dem Basis-Takt?

Nehmen wir den Turbo-Takt als Grundlage hätten wir:

i5-3570K: 4,4/3,8 = 1,158
FX-8350: 4,8/4,2 = 1,43
Somit wäre man bei 4,86GHz vs. 4,4 GHz wieder auf dem Leistungsniveau @stock

Vitec
24.10.2012, 20:53
Für Games nen pile,bully in bezug auf die zukunft zu kaufen ist wie lottospielen gg.
Bei dirt 3 hat der x6 schon ein wenig zugelegt aber nicht soviel das intel das grosse flattern bekommen muss.
Auch hat der Fx eben auch bei fp keine volle 8 kern lösung sondern durch optimierungen eher eine 4x 1,5 lösung.

Ich schau mal in meine Glaskugel und behaupte das vor erscheinen der neuen Konsolen keine wirklich breite 4quad+ Unterstüzung in Games kommen wird.
Man bedenke einfach wie lange es quadcore cpus gibt und wie sich die Unterstützung dafür entwickelt hat.
Errinnert mich ein wenig an HD-TV :D .

Aber spätestens wenn die Konsolen kommen hat amd den vorteil das ihre cpus dort werkeln(wenn es denn dann noch aktuell ist) und die spielehersteller alles tun werden um auch alles aus den cpus zu holen sprich auch die ganzen Instruktionen optimal zu nutzen und dann wird zumindest in Games denke ich mal AMD wieder ein Stück aufholen können.
Und fakt is nunmal auch das es eben auch Leute gibt denen die Leistung von AMD auch im Privatberreich nicht reicht und die eben Intel kaufen müssen auch wenn sie nichts gegen AMD einzuwenden hätten wenn er konkkurenzfähig wäre.


Die derzeitigen Preise der Bulldozzer fände ich für Vishera ganz ok.
Aber so sind vorallem die 2 Moduler trotz des niedrig angesetzen Preises zu teuer.

Thomson1981
24.10.2012, 21:48
@ Chaosmayhemsoap
Dafür ist sind die 6 Kern Sandys dann auch noch mal ein Stückchen schneller.

Ja,aber dafür auch mehr als das vierfache teurer !

190,00 Euro und weniger für einen AMD FX 8350 + vielleicht 50,00 Euro für das billigste Mainboard macht gerade mal 240,00 Euro Anschaffungs-/Aufrüstkosten und das System ist nur 27% langsamer im Gesamtrating unter Windows 7,als das stärkste Sockel 2011 Sandybridge E Intel System für 850,00 Euro CPU Preis und min. 199,00 Euro Mainboardpreis,also 1050,00 Euro (710,00-750,00 Euro beim 3930k).

Und wenn man den Windows 8 Bonus mitrechnet und vor allen Dingen speziele Programe,die die 8 Kerne voll nutzen,lohnt sich bei dem geringen Vorsprung, der dann noch bleibt erst recht kein 3-4 fach teurer Intel 6 Kerner.Selbst professionelle Anwender werden da lieber zum AMD FX 8350 greifen,wegen der Kostenersparnis

Nur beim professionellen GPGPU Bereich in Workstations,bei Nutzern von Anwendungen mit sehr hohen RAM Durchsatz und für Hardcore Multi GPU Gamer macht dann das Sockel 2011 System mehr Sinn,wegen dem Quad Channel RAM Interface und wegen dem nativen PCI-E 3.0 16x bei allen drei gleichzeitig genutzen PCI-E 16x Slots oder vier mal PCI-E 3.0 8x. Hier ist Intel einfach konkurenzlos.

Aber im Consumer Bereich führt derzeit meiner Meinung nach kein Weg mehr an AMD's FX 8350 und dem kleineren FX Modellen vorbei,solange man Modelle mit mindestens 6 Kernen kauft.
Seit dem Phenom II X4 940 Black Edition gab es nicht mehr eine solch moderne,über Jahre zukunftssichere und ungemein schnelle Mehrkern High End CPU für so wenig Geld.

Sehe schon jetzt die Mediamarkt Prospekte:8x 4.0 Ghz,also insgesamt 32 Ghz. Rechenleistung in unserem neuen Supadupahyper PC zum Killerpreis :evillol

In 1-2 Jahren,wenn sehr viele neue Anwendungen von den 8 Kernen eines AMD FX 8350 profitieren werden,dürfte er die heutigen Intel Quadcores in die Schranken weisen und bei einer durchschnittlichen Systemnutzung von 4-5 Jahren,die die meisten Leute mit ihren Systemen fahren,lohnt es sich hier in die Zukunft zu investieren.

Ein Mainboard und eine CPU kaufen schließlich die meisten für lange Zeit,im Gegensatz zu Grafikkarten,welche alle 18-24 Monate aufgerüstet werden.

Und das sich die Leute über die 100 Watt Mehrverbrauch des AMD 8350 unter Volllast aufregen,im Vergleich zu den Ivy Bridge 4 Kern CPU's finde ich auch etwas sinnbefreit.
Ist doch klar das ein 8 Kerner etwas mehr Saft unter Last zieht,als ein 4 Kerner.Erst recht wenn man Ihn unter Prime 95 auf allen 8 Kernen voll auslastet,wo beim 4 Kerner eben auch nur 4 Kerne voll belastet werden.

In Sachen Verbrauch müßte man dann schon wirklich einen Sandy Bridge E 6 Kerner mit den aktuellen AMD 8 Kernern vergleichen bei den Verbrauchswerten,am besten noch beim selben Takt,um wirklich authentische Ergebnisse bei dieser Disziplin zu erarbeiten.

Doch im Altag wird man alle 8 Kerne wohl eher seltener belasten und fährt sowieso selten unter Volllast,da egalisiert sich der Mehrverbrauch nahezu mit nur wenigen Watt Mehrverbrauch.

skayritarai
24.10.2012, 22:40
Hi,

Auch ich plane den FX-8350 zu kaufen, aber leider hat der Online-Shop meines Vertrauens den noch nicht in Sortiment. :(

HINWEIS An die diejenigen, die das selbe Motherboard besitzen wie ich:
Wer auch ein CPU aus der Vishera-Reihe kaufen möchte, muss (möglicherweise) vorher das BIOS aktualisieren. Das gilt auch möglicherweise die von andere Hersteller.

Den ASUS hat heute (am 24.10.2012) noch mal eine neue BIOS-Version Herausgebracht.

Hier eine kurze Beschreibung von ASUS:

Crosshair V Formula BIOS 1703
1.Improve system stability.
2.Support new CPUs. Please refer to our website at: http://support.asus.com/cpusupport/cpusupport.aspx?SLanguage=en-us

Denn aktuellen BIOS findet ihr hier:
http://www.asus.de/Motherboards/AMD_AM3Plus/Crosshair_V_Formula/#download

Wenn ihr ein Motherboard von einem anderen Hersteller habt, müsst ihr jeweils die Webseite von dem Hersteller eures Motherboards nach schauen oder informieren.
Das gilt aber nur für die, die ein Motherboard mit AM3+ Sockel haben.

Laut Recherche im Internet sollten die Vishera-CPUs angeblich mur mit dem Chipsatz 9xx-Serie funktionieren, ich empfehle euch daher vorher vor dem Kauf bei eurem Hersteller eures Board zu erkundigen.

gn8 an alle.

MrChiLLouT
24.10.2012, 23:01
Hmm..

Fassen wir zusammen:
Der FX-8350 hat 29% mehr Takt, als ein i5 3450, verbraucht 62% mehr als ein i5 3450, hat doppelt so viele Threads wie ein i5, aber hat im Gaming eine 8% geringere Leistung und ist in anderen Anwendungen und Benchmarks gerade mal 5% schneller. Trotz diesen nicht gerade beeindruckenden Ergebnissen, kostet die AMD CPU 15-20€ mehr.

Fazit:
Der FX-8350 verbraucht mehr Strom, wird heißer, brauch erheblich mehr Takt, um mit der Leistung eines einfachen i5 mithalten zu können und kostet oben drauf noch mehr geld als ein i5.

Schinzie
24.10.2012, 23:14
ich hab mor jetzt auch nen vishera geholt. die intels sind mir zu langweilig, die können alles schon gut, ich brauch mal wieder ne richtige, schlechte cpu... ;-)

gruss

Caanon
24.10.2012, 23:38
Kurze Frage, warum für AMD nen Wasserkühler, wenn ein Luftkühler auch reicht?
Naja, du kannst statt einem guten Wasserkühler auch einen schön schweren, doppelt 130- bis 140mm-Lüfterbestückten Tower-Kühlklotz nehmen und es schenkt sich bestimmt wieder wenig oder gar nichts.
Nicht umsonst meinte ich: "Da setzt au-ja.de auf den Xigmatek Aegir SD128264, der sich in au-ja.des Review schon ziemlich gut schlägt, aber ich würde ihn noch nicht wirklich High-End-Luftkühler nennen.
Will man noch weiter kommen, muss man natürlich zu anderen, eher exotischen Kalibern von Luftkühlern greifen, die sich auch mit guten Wasserkühlern messen können."

Aber das Ergebnis von computerbase ist einfach sehr ungewöhnlich, wenn man sich mal andere FX-8350-Reviews mit Overclocking ansieht:
- TechPowerUp (http://www.techpowerup.com/reviews/AMD/FX-8350_Piledriver_Review/7.html) kommt auch auf 5.0 GHz, allerdings wie AnandTech mit AMDs bzw. Aseteks Wasserkühler.
Also eher durchschnittlich.

- The Tech Report (http://techreport.com/review/23750/amd-fx-8350-processor-reviewed/13) kam mit dem sehr starken Thermaltake Frio OCK (http://hardwareoverclock.com/Thermaltake_FRIO_OCK_Kuehler.htm) erst nur auf unterirdische 4.5 GHz, mit einem Turbo Core Profil dann aber auf 4.8 GHz, wobei sie nicht schreiben wie oft der Turbo überhaupt auf 4.8 GHz kommt.
Ich denke mal Tech Report hätte bei dem nun wirklich fetten Kühler auch ohne irgendein Turbo Profile noch 200-300 MHz mehr hinbekommen als nur 4.5 GHz, wenn sie mehr Zeit investiert hätten. Der Autor schreibt ja selbst: "Notice that I took a very simple approach, only raising the voltage for the CPU itself, not for the VRMs or anything else."
Also wahrscheinlich durchschnittlich statt eher schlecht.

- Xbit Labs (http://www.xbitlabs.com/articles/cpu/display/amd-fx-8350_9.html#sect0) kommt auf 4.7 GHz mit dem NZXT Havik 140 (http://www.hardwareluxx.de/index.php/artikel/hardware/kuehlung/19080-test-nzxt-havik-140-black-and-white-fuer-die-cpu.html), der Prolimatechs Genesis nicht weit hinterherhinkt. Mit dem Wasserkühler wie bei Anandtech gingen bei dem Exemplar vielleicht noch 4.9 GHz.
Also auch ziemlich durchschnittlich.

- Hardware.frs (http://translate.google.de/translate?sl=fr&tl=de&js=n&prev=_t&hl=de&ie=UTF-8&layout=2&eotf=1&u=http%3A%2F%2Fwww.hardware.fr%2Farticles%2F880-5%2Foverclocking-undervolting.html) FX-8350 schafft es nur auf 4.5 GHz. Auf dem sitzt aber auch "nur" ein Noctua NH-U12P SE2 (http://www.hardwaresecrets.com/article/Noctua-NH-U12P-SE2-CPU-Cooler-Review/1570/8). Da gehen mit besserer Kühlung sicher wieder 200-300 MHz mehr.
Also wahrscheinlich wieder durchschnittlich statt eher schlecht.

- Last but not least kommt Hexus (http://hexus.net/tech/reviews/cpu/46985-amd-fx-8350-piledriver-cpu/?page=7) auf 4.6 GHz mit dem Boxed-Kühler. Erstmal nicht schlecht, aber Lüfter und Silizium laufen bei ihnen anscheinend am Limit, da ihr System mit 4.7-4.8 GHz schon nicht mehr stabil läuft. "An all-core speed of closer to 5GHz will require better cooling and, perhaps, a different FX-8350 sample, we believe" schreibt Hexus dazu.
Mit einem einigermaßen guten Luftkühler gingen bei Hexus' Exemplar vielleicht ja doch 5.0 GHz, meine ich.
Also möglicherweise das zweite richtig gute Exemplar neben dem von ComputerBase, aber eben nur möglicherweise und dann auch nur das zweite besonders gute von insgesamt sieben Exemplaren (inklusive denen von ComputerBase und AnandTech).



Warum der Vergleich mit dem Basis-Takt?

Nehmen wir den Turbo-Takt als Grundlage hätten wir:

i5-3570K: 4,4/3,8 = 1,158
FX-8350: 4,8/4,2 = 1,43
Somit wäre man bei 4,86GHz vs. 4,4 GHz wieder auf dem Leistungsniveau @stock
Ergibt nicht wirklich Sinn, weil der Turbo alles andere als immer anliegt. Erst Recht nicht der maximale Turbo. :D

MrTengu
24.10.2012, 23:53
Da... da outet sich endlich mal jemand :D :evillol

Mal so ne frage am rande... wieso muss eigentlich bei CB immer so eine schlacht losgehen? In anderen Foren geht es meistens auch viel friedlich zu o.O

Nein, in anderen Foren ist das noch viel schlimmer. Hier geht es, von einigen Ausnahmen abgesehen, sehr zivilisiert zu.

MikelMolto
24.10.2012, 23:54
Der @MrChiLLouT hat das hier doch (http://www.computerbase.de/forum/showthread.php?p=12893469) sehr schön zusammen gefasst. Verstehe nicht, was daran so schwer zu verstehen ist.
Noch weniger verstehe ich dann jemanden, der das alles ignoriert und sich so ein Teil kauft anstatt etwas mehr egoistisch zu sein und das bessere Produkt nimmt, was dann ja auch noch billiger ist.

Nur mal so als Info:
Ich fahre meinen 3770K auf 4,2Ghz und mit -0,095V VCore. Also untervoltet mit 1,080V VCore unter Last. Der ist dann um einiges schneller als ein auf 4,5Ghz getakteter Vishera. Ich kann mit meiner Wakü locker 4,8Ghz bei 1,35V VCore fahren.
Macht das erst einmal mit dem Vishera nach.

MrTengu
24.10.2012, 23:58
Fazit:
Der FX-8350 verbraucht mehr Strom, wird heißer, brauch erheblich mehr Takt, um mit der Leistung eines einfachen i5 mithalten zu können und kostet oben drauf noch mehr geld als ein i5.

Ja genau. Kauf bitte deinen i5. Mach es einfach :)


Macht das erst einmal mit dem Vishera nach.

Warum denn? Ich will mit meinem Computer nicht experimentieren sondern arbeiten. Geht das denn nicht mit dem Vishera? Geht bei dir ein Window jetzt 0.2ns schneller auf weil du einen Intel drin hast? Na herzlichen Glückwunsch.

Das meinte ich mit realistisch denken.

Thomson1981
25.10.2012, 00:15
Ich würd das ganze einfach nüchtern und konkret zusammenfassen.

Braucht man auch in Zukunft nicht mehr als 4 Kerne und will denoch eine schnelle und aktuelle CPU = Intel Corei5 3570k kaufen oder einen anderen Intel i7 Ivy Bridge Quadcore und glücklich sein.

Braucht man mehr als 4 Kerne bei seiner CPU zum zocken neuer Spiele in den nächsten 3-5 Jahren,zum rendern,packen,Videos decodieren und speziele Anwendungen,wo die 8 Kerne stark genutzt werden oder ist man einfach nur deutscher Patriot,Fan von deutschen Erzeugnissen oder AMD Fan und will was aktuelles und schnelles haben,aber nicht zuviel Geld ausgeben,dann ist man beim AMD FX 8350 und den kleineren Octa- und Hexacores genau goldrichtig.

Und will man einfach nur das neueste und beste haben,man Multi GPU Nutzer ist oder Programme und Anwendungen nutzt,wo man ein sehr schnelles und breites Speicherinterface braucht,dann greift man zur Intel Sandy Bridge E 2011 Plattform und den sauschnellen,aber teuren Intel Quad- und Hexacores mit Quad Channel RAM Interface.

Ameisenmann
25.10.2012, 01:16
Hmm..

Fassen wir zusammen:
Der FX-8350 hat 29% mehr Takt, als ein i5 3450, verbraucht 62% mehr als ein i5 3450, hat doppelt so viele Threads wie ein i5, aber hat im Gaming eine 8% geringere Leistung und ist in anderen Anwendungen und Benchmarks gerade mal 5% schneller. Trotz diesen nicht gerade beeindruckenden Ergebnissen, kostet die AMD CPU 15-20€ mehr.

Fazit:
Der FX-8350 verbraucht mehr Strom, wird heißer, brauch erheblich mehr Takt, um mit der Leistung eines einfachen i5 mithalten zu können und kostet oben drauf noch mehr geld als ein i5.

Das Fazit muss lauten, dass der FX-8350 überflüssig ist. Wer schon ein AMD System mit z.B. 1090T oder X4 955 hat wäre dumm "aufzurüsten" und wer neu kauft, der greift vernünftigerweise zu Intel.

marecar
25.10.2012, 01:55
Die Tests von Computerbase waren früher aber um einiges besser.

Heute wird auf Bild-Niveau zusammengefasst um ein Bild zu malen, das zu nichts anderem als der Meinungsmache dient. Zur reellen Kaufentscheidung welche CPU besser für einen geeignet ist? Nichtmal annähernd.

Erstmal ist da die Zusammenfassende CPU Bewertung, die ja an und für sich keine schlechte Idee ist, zu einer solchen aber wird wenn man erstens nur selektive Tests verwendet ohne die CPU wirklich auf ihre Fähigkeiten in verschiedenen Anwendungsszenarios zu Testen und der wirklichen Performance auf den Grund zu gehen (zB nur WinRAR, ohne 7Zip und WinZip anzugehen, als ob das repräsentativ für die Leistung der CPU im Enpacken und Komprimieren Szenario wäre), dann kommen auch so schöne Gesamtergebnisse und Ranglisten zusammen wie ihr sie hier habt, wo die CPU sehr weit hinter anderen landet, die sie in realen Anwendungsszenarios oftmals weit hinter sich lässt. Ja, dann hat man sich schön gezeichnet was man gerne sehen will. Ist ja nicht schwer. Und die Kommentare der CB Leute hier in dem Thread unterschreiben meinen Eindruck nur noch.

Dann ist da zum zweiten noch das beharren auf der absolut sinnlosen (im Buchstäblichen Sinne des Wortes) Grafik (und zwar auch noch an erster Stelle) über die Differenz zwischen Idle und maximal möglichem Verbrauch. Allgemein ist euer Energie Test komplett für die Katz, da niemand hier einen Atomaren Teilchenbeschleuniger antreiben will, und auch niemand seine CPU kauft um das Ende von Pi zu finden. Also ist das komplette Aufdrehen der CPU bis sie glüht absoluter Schwachsinn, und das ganze dann noch in ein Chart zu packen das den Eindruck erwecken soll jemand würde seine Stromrechnung verdoppeln wenn er die CPU benutzt ist mehr als lächerlich.

Ich habe mir mal die Mühe gemacht ein paar Testergebnisse aus realen Verwendungsszenarien herauszusuchen, Dingen die Leute so mit ihrem PC machen. Niemand kauft sich einen PC um SiSoft Sandra zu benutzen, oder um sonst irgendwelche komischen Benchmark "Suiten" zu laufen, welche auf arbiträre Art die Leistung einer CPU in einem Verwendungsszenario bewerten sollen. Davon das manche von denen, auch wenn eine CPU in allen individuellen Tests vor einer anderen liegt, sie auf dem Gesamtergebnis als schlechter ausgeben, brauche ich gar nicht anfangen.

Und immer im Kopf behalten wie viel diese CPU kostet, und wie viel die kostet, welche oft knapp davor liegt, bevor ihr da etwas verwechselt.
Diese CPU liegt preislich auf einem Niveau (und konkurriert preislich daher) mit der, welche in diesen realen Anwendungsszenarien meist/immer dahinter liegt.
Die Leistung konkurriert aber anscheinend in den meisten realen Anwedungsszenarien meist mit einer deutlich teureren CPU, und selbst wenn sie sie nicht übertrifft, kratzt sie an ihr und liegt deutlich vor der gleichteuren Intel CPU.

Irgendwelche 10 FPS Unterschied bei über 150 FPS in Spielen sind keines Wortes würdig, da absoluter Unsinn, und entsprechen Religionsstreitereien, da sie absolut keine Bedeutung in der Realität haben. Nicht nur weil das um einiges höher ist als was wir wahrnehmen können, sondern auch weil es mehrmals über dem Level liegt, wo die Grenze von Spielbarkeit und Spielspaß liegt. Die Leute die sich daran aufhängen sollten mal ihre Lebensprioritäten überprüfen.
Dazu passend:
http://www.techradar.com/news/computing/pc/can-a-300-gaming-pc-compare-to-a-3000-one-1071338


Also...was macht man so mit seinem PC? Videos kodieren und rendern? Archive packen und Entpacken? 3D Rendern? Photoshop? Excel? Gescannte Dokumente einlesen lassen?

Und um den bekannten Diskussionen "Ja in Multithreaded ist sie schneller, aber dafür sind Singlethreaded die Intel Chips deutlich Leistungsstärker!" vorzugreifen, mal zwei Fragen:

1. Würde einer von euch, die das jedes mal schreiben, lieber 270-300 Pixel pro Sekunde rendern, anstatt 1500 Pixel pro Sekunde, nur um sich selber darin besser zu fühlen, das er gerade schneller rendert als wenn er das selbe mit einem AMD Chip machen würde? Mich würde es ja nicht überraschen, wenn ich sehe was für eine allegiance hier manche einem Unternehmen gegenüber haben, das sie sich jedes mal wenn eine AMD CPU getestet wird Stunden aus ihrem Leben rausnehmen um hier im Forum eine Intel Dominanz zu beteuern und AMD Produkte schlecht zu reden...
Wobei hier auch noch interessant zu erkennen ist, dass der Unterschied in Single-threaded bei 20-40 Pixeln pro Sekunde Rückstand für AMD (gegenüber gleichteuren CPUs), in Multithreaded aber in 400-500 Pixeln pro Sekunde Vorsprung liegt.

http://i.imgur.com/2uL67.png

http://i.imgur.com/qlC8o.png

2. Geht es hier darum, ob eine CPU in ihrem Preissegment für den Endanwender für seine Anwendungsbedürfnisse und -szenarien eine gute Lösung und einen guten Kauf darstellt, weil sie seine Aufgaben gut und schnell erledigt, oder darum mit halb- und unwissen irgendwelche theoriephilosophen zu spielen, wie die Bundestrainer und Formel-1 Fans am Stammtisch? Eigentlich ja um ersteres, leider aber immer wieder um letzteres.

Fakt ist, wenn man die Dinge macht welche auf den folgenden Grafiken aufgeführt sind, also zum Beispiel x264 Videos kodiert, oder in Photoshop CS6 arbeitet, oder mit 7Zip und WinZip packt und entpackt, wird man diese schneller mit dem AMD Chip erledigen als mit dem preislich äquivalenten Intel. Wenn man mit seiner "Freundin" (der einzigen die man in dem Fall wohl je hatte und haben wird) Sandra nasse und trockene Steine zählt, dann mag es durchaus sein das man mit einem Intel Chip mehr von ihnen findet. Ich kenne nur leider niemanden der virtuelle Steine sammelt, jeder Mensch von dem ich je gehört habe aber kodiert Videos, benutzt Photoshop und entpackt Archive. Und wenn er das nicht tut, betrifft ihn dieses Gespräch gar nicht, da für seine Bedürfnisse auch eine CPU um 100€ ausreicht.

Die "mein 2500K ist besser" jungs die sich selber bei jedem AMD Test versichern müssen das ihnen ihr PC gut genug ist (was im großen und ganzen darauf hindeutet das Ihnen auch ein Atom netbook gut genug wäre, da sie nicht wirklich etwas ernsthaftes damit machen ausser Spielchen zu spielen) damit sie keine Minderwertigkeitskomplexe bekommen, haben wahrscheinlich Mühe so weit zu scrollen, also hier mal die Grafiken, Quellen stehen meist im Bild und werden am Ende nochmal aufgeführt, da kann man sich nochmal den ganzen Test ansehen, geht ja nicht darum jemandem seine harte Arbeit klauen.

http://i.imgur.com/eWbkY.png

http://i.imgur.com/pvwVW.png

http://i.imgur.com/EOkgG.png

http://i.imgur.com/GsAtN.png

http://i.imgur.com/Fy8EM.png

http://i.imgur.com/dt1xK.png



http://i.imgur.com/DNVt5.png

http://i.imgur.com/4v97o.png

http://i.imgur.com/oLwLz.png

http://i.imgur.com/KfHFQ.png

http://i.imgur.com/2xFMD.png

http://i.imgur.com/iBP6P.png

http://i.imgur.com/lAXuc.png

http://i.imgur.com/JmXCk.png

http://i.imgur.com/4KrYN.png

http://i.imgur.com/aJJhh.png

http://i.imgur.com/hKy6G.png


http://i.imgur.com/ejCw4.png

http://i.imgur.com/pbqBf.png

http://i.imgur.com/PcP16.png

http://i.imgur.com/lTALC.png

http://i.imgur.com/ToSJi.png

http://i.imgur.com/JxbRv.png

http://i.imgur.com/BbIZk.png

Geschlagen von einer 900€ CPU, alles andere liegt dahinter.
http://i.imgur.com/slOjq.png

http://i.imgur.com/VW38x.gif

http://i.imgur.com/Fa53a.gif

http://i.imgur.com/KzDD2.gif

http://i.imgur.com/cAftI.gif

http://i.imgur.com/d0Hbm.gif

http://i.imgur.com/8Q4NF.gif

http://i.imgur.com/zuC4C.gif

http://i.imgur.com/ZqEEY.gif

http://i.imgur.com/JQSdY.gif

http://i.imgur.com/AMSl7.gif

http://i.imgur.com/usgKl.gif

http://i.imgur.com/heb2H.gif

Aber ihr habt schon recht, die AMD CPU taugt nichts, die gleichteuren Intel CPU's sind besser, sagen ja die theorethischen ganz klar Tests aus, auch wenn sie in allen realen und Zeitintensiven Szenarien langsamer sind und länger brauchen...

http://i.imgur.com/eZURA.gif

Hier der Vergleich der benötigten Energie um eine Aufgabe auszuführen. Um einiges realistischer als Erklärung und Illustration als das was CB uns da anbietet. Um das für euch deutlich zu machen was ihr da überhaupt seht: Der Unterschied zwischen eurer superstromsparendeneswächsteinbaumausmeinemgehäuse i5-3irgendwas und der ohmeingottmeinestromrechnungverdoppeltsichheizkraftwerk 8350 beträgt genau 3,7 kilojoule, was fast exakt einer Wattstunde entspricht (3,6kJ).
Da Strom jedoch in kW (Kilowattstunden) abgerechnet wird, müsstest du exakt diese Aufgabe mit dieser Differenz 1000 mal ausführen, um deine 20-25 Cent zu sparen. Selbst wenn ihr das 1000 mal im Jahr macht (also durchschnittlich ca fast 3 mal am Tag), will euch ja nichts absprechen, ich glaube es ist leichter ein mal im Jahr eine Pfandflasche oder Dose zurückzubringen anstatt sie wegzuwerfen, als sich da so psychotisch reinzusteigern wie manche es hier getan haben, und mehrmals im Jahr bei jedem Test einige Minuten (oder Stunden) damit zu verbringen einen (oder mehrere) Beiträge darüber zu schreiben wie viel Strom das doch ist und wie ihr eure 50+€ Aufpreis für die Intel CPU in zwei Wochen wieder drinnen habt....
Davon, das die CPU bei dem verwendeten Anwendungsszenario (x264 kodierung) schneller fertig ist als die anderen zwei, und damit bei 1000-mal doch mehr eingesparte Zeit zusammenkommt als 25 Cent Wert sind, bewerte ich diesen "Mehrverbrauch" als absolute non-issue, ja sogar im Gegenteil, die gesparte Zeit ist bei jemandem der wirklich tausende Videos im Jahr kodiert wahrscheinlich sehr viel Wertvoller (in absolut eingespartem Geld durch eingesparte Arbeitszeit) als die paar Cent im Wert einer Dose Cola/Scheibe Käse auf dem Burger/Restgeld das man im Laufe des Jahres an der Kasse dalässt/aufrundung der Rechnung für eine Tasse Kaffee usw usf..

Aber ist schon recht, steigert ihr euch ruhig rein bei den zahlen die euch CB gibt, als ob es sich um einen Verbrauch von 250kWh handeln würde...

Achja, und was das "AMD erkauft sich die Geschwindigkeit mit Mhz takt!!!" Fraktion angeht...erstens sieht man in einigen Tests das sogar der neue FX-4xxx vor dem alten FX-8150 liegt, und damit das da wohl einiges mehr verbessert worden sein muss. Zweitens kosten Mhz nichts, ihr tut hier immer, aber wirklich jedes mal, so als ob die Mhz etwas kosten, als ob das irgendwie etwas falsches/cheathaftes zu tun wäre oder sie dadurch irgendwas aufgeben müssen, so wie es früher war, wo Mhz teuer mit einer erhöhten volt-spannung bezahlt werden mussten und sehr schnell eine Wand getroffen haben was Temperatur und Stromverbrauch angeht. Wieso, wenn man schon vor über einem Jahr gesehen hat das die neue Architektur ab Bulldozer sehr hohe Taktraten verträgt ohne eine 1.6V Spannung oder eine Wasser oder Stickstoffkühlung zu brauchen. Der boxed Kühler kühlt das Ding, sonst würde er nicht beiliegen, und wer es leiser will kann sich gute und leise aftermarket Kühler holen welche große und leise Lüfter haben und langsam drehen, diese Kühlen sicher nicht schlechter als der boxed, welcher ja genug ist um die Wärme abzuleiten, und sind einfach nur leiser. Und wer 15 Sekunden aufwenden will, kann beim Hochfahren kurz ins BIOS springen und die Spannung absenken (Undervolten), und hat dadurch ein noch kühleres und stromsparenderes System, daraus muss man keine obsession machen und schauen wie tief man kommt wo man ständig irgendwelche Stabilitätstests laufen lassen muss und Stunden beschäftigt ist, eine simple reduzierung um eine oder zwei stufen im Bios reicht vollkommen, und der Prozessor verträgts, da AMD diese sowieso immer zu hoch ansetzt. Dauert keine 10 Sekunden und man hat es erledigt.

Hier die Quellen für die Grafiken:

http://www.tomshardware.com/reviews/fx-8350-vishera-review,3328.html
http://hothardware.com/Reviews/AMD-FX-8350-Vishera-8Core-CPU-Review/?page=1
http://www.anandtech.com/show/6396/the-vishera-review-amd-fx8350-fx8320-fx6300-and-fx4300-tested
http://hexus.net/tech/reviews/cpu/46985-amd-fx-8350-piledriver-cpu/
http://techreport.com/review/23750/amd-fx-8350-processor-reviewed


PS
Ich hoffe mal keiner der CB Leute fühlt sich beleidigt und löscht meinen Beitrag...

Julz2k
25.10.2012, 05:16
Das Fazit muss lauten, dass der FX-8350 überflüssig ist. Wer schon ein AMD System mit z.B. 1090T oder X4 955 hat wäre dumm "aufzurüsten" und wer neu kauft, der greift vernünftigerweise zu Intel.

Der AMD ist einfach zu teuer. Maximal 150 Euro UVP für das Topmodel wären in meinen Augen OK.

CHAOSMAYHEMSOAP
25.10.2012, 07:15
Ja,aber dafür auch mehr als das vierfache teurer !
Sobald damit Geld verdient wird, relativiert sich der Preisvorteil des AMD, denn der wesentlich teurere Intel ist mit der Aufgabe schneller fertig und die Zeitersparnis bringt demjenigen viel mehr als der Kostenvorteil der AMD CPU.


Selbst professionelle Anwender werden da lieber zum AMD FX 8350 greifen,wegen der Kostenersparnis
Nein, professionelle Anwender greifen gleich zu einer Xeon Workstation mit 2 CPUs, weil sie sich nicht mit so einem Kindergartenkram abgeben wollen und ihren Rechner auch von der Steuer absetzen können. :rolleyes


In 1-2 Jahren,
... gibt es neue CPUs von Intel, die die aktuelle AMD Generation noch schneller und noch tiefer in die Tonne treten. Bei geringerem Verbrauch versteht sich. ;)

Und auch AMD wird - falls sie bis dahin nicht pleite gegangen sind - mit neuen CPUs aufwarten, die die Piledriver Generation obsolet machen.


Ich würd das ganze einfach nüchtern und konkret zusammenfassen.
Lieber nicht, denn deine Ahnungslosigkeit (http://www.computerbase.de/forum/showthread.php?p=12845473#post12845473) hast du bereits (http://www.computerbase.de/forum/showthread.php?p=12850630) zum Besten gegeben.

Fazit von HardlineAMD:


Zum Glück hast du ... nix zu melden.:lol

MrTengu
25.10.2012, 09:02
Und täglich grüßt das Murmeltier. Wieder die selben "Argumente", die die Intel Fanboys bringen und die in der Realität 0 Auswirkung haben. Ich wundere ich echt nicht darüber, das AMD so schlecht da steht, wenn Leute wie ihr theoretische Benchmarks 1:1 in die Realität übertragen. Nein, keine Sorge, AMDs Marketing ist schuld an der Misere, ihr paar Leutchen seid es nicht wirklich ;)

Glaubt ihr ernsthaft, das man mit einem Intel schneller surfen kann? Das man beim Shooter mit Intel mehr Headshots absolviert als mit AMD? Euch kann man vermutlich alles verkaufen.

Die Leistung jeder modernen CPU von AMD oder Intel ist heutzutage völlig ausreichend und dient nur in Tabellen als "Qualitätsmerkmal". Auch eure CPUs idlen nur herum, selbst beim Videoencoding laufen die Kerne nicht auf Volllast (ich weiß es, wir stellen unter anderem Videoschnittsoftware her).

Und weil hier irgendwelche Annahmen kommen, was doch die Leute daheim mit ihrem PC anstellen und sie ganz sicher direkt nach dem Einschalten den 3770 unter Volllast haben bis zum Ausschalten...ich weiß auch, was für Software bei Kunden installiert ist und das ist kein Prime95 oder Cinebench oder 3dMax. Die meisten Kunden haben auch gar keine Ahnung von ihrem PC, das Ding soll einfach laufen. Wenn da ein AMD drin steckt, würden die das gar nicht merken. Deswegen sagte ich ja auch, dass AMDs Marketing schuld an ihrer Misere ist und nicht die CPU.

Ich habe das Glück im Büro Intel zu haben und daheim AMD, ich kann also sehr gut vergleichen. Der Bürorechner (2500K) ist zwar schneller als mein alter AMD daheim, aber ich denke, da spielt das Gesamtsystem eine Rolle (Athlon X2 64, 4.6GHz, DDR2 RAM etc, also wirklich alt). Dennoch habe ich kein "WOW" Gefühl und sage "mann die Kiste rennt ja wie der Teufel".

Ihr empfehlt aus Vernunft einen Intel? Vernünftig ist eine CPU, die den persönlichen Ansprüchen am besten genügt. Die vom P/L Verhältnis am besten ist. Das ist so gut wie nie Intel, die sind einfach zu teuer. Die Intel CPUs haben eine Leistung die ihr beim Arbeiten oder Gamen niemals benötigt. Da könnt ihr 100 Fenster aufmachen und die Kiste wird immer noch nicht ausgelastet.

Das meine ich mit realistisch denken!

Noch mal meine Frage: wer von euch hat jemals von AMD auf Intel gewechselt weil ihm die CPU zu langsam war? Ich meine kein Upgrade sondern wirklich weil er gemerkt hat, dass die CPU nicht ausreichend ist. Ich bin sehr sicher, dass es nicht eine Person gibt, die das gemacht hat. Jeder kauft gleich Intel und meint, damit besser zu fahren. Aber wie kann man dann beide Prozessoren vergleichen, wenn man den anderen niemals verwendet hat?

Stimmt, man hat ja noch die theoretischen Benchmarks, und den exorbitanten und AKW verschlingenden Stromverbrauch. Na dann sind wir ja wieder beim Anfang der Diskussion. Viel Spaß noch und einen schönen Tag, ich werde jetzt ins Büro fahren, meinen PC anschalten und während er hochfährt, mir einen Kaffee machen können, während mein alter AMD daheim weiter an den Videos encodiert.

Unyu
25.10.2012, 09:12
http://i.imgur.com/Fy8EM.png

CB kommt auf 6,93 Punkte für den FX 8350. Interessant finde ich, wie ich mit einem 4Ghz i7 860 auf 6,53 Punkte komme.

Sollte Cinebench nicht die Paradedisziplin des FX sein? Immerhin ist es ein extrem parallelisiertes Problem und er setzt sich von einem uralten Design bei gleichem Takt praktisch nicht ab. (Mal unabhängig vom OC vs non OC Vergleich, beide kann man noch weiter übertakten, darum geht es mir nicht)



Noch mal meine Frage: wer von euch hat jemals von AMD auf Intel gewechselt weil ihm die CPU zu langsam war?Soll ich auf AMD wechseln und ja warum? Der vorgestellte FX macht nicht den Eindruck eindeutig schneller zu sein, von einem gewalten Boost ganz zu schweigen.



Die Intel CPUs haben eine Leistung die ihr beim Arbeiten oder Gamen niemals benötigt. Da könnt ihr 100 Fenster aufmachen und die Kiste wird immer noch nicht ausgelastet.Schön, das du weisst, was Andere brauchen.



Die vom P/L Verhältnis am besten ist.In deinem Fall ein Celeron oder Llano.

Casi030
25.10.2012, 09:16
@horn 29:
Kommt drauf an was du damit machst....
Es kann dir von nix bis verdammt viel bringen.
Das was Ich z.b. spiele spiel ich mit meinem Fx 8120 @ x4 mit 4GHz und ner 7950.Da Juckt es mich nicht wenn ich mal in CPU limmit bei 40-60FPS komme.Wenn ein Spiel wirklich mal mehr brauchen würde,dann werden die anderen Kerne hinzugeschaltet.
Zum Videobearbeiten verwend ich in als x8,für Video und Spiele @ x8.....
Musst selber wissen ob es sich für Dich und das was du macht lohnt oder nicht.

Wenns anderswo hapert,nicht klappt,zu klein ist....dann MUSST zu Intel greifen.:p

MrTengu
25.10.2012, 09:33
Soll ich auf AMD wechseln und ja warum? Der vorgestellte FX macht nicht den Eindruck eindeutig schneller zu sein, von einem gewalten Boost ganz zu schweigen.

Du sollst nicht auf AMD wechseln. Lies bitte nochmal meine Frage.


Schön, das du weisst, was Andere brauchen.

Lies meinen Beitrag und was ich zu der installierten Software von Kunden geschrieben habe.


In deinem Fall ein Celeron oder Llano.

Für Videoencoding....schon klar :)

Matzegr
25.10.2012, 09:49
Sollte Cinebench nicht die Paradedisziplin des FX sein? Immerhin ist es ein extrem parallelisiertes Problem und er setzt sich von einem uralten Design bei gleichem Takt praktisch nicht ab.

Cinebench R11.5 ist total veraltet (2009). Das basiert ja auf Cinema 4D R11.5, aktuell ist R14.

Vergleichen wir mal einen FX-8120 @4,5GHz vs. Phenom II X6 @3,8GHz.
Da ist der alte FX in Cinebench R11.5 14% schneller als der X6. Im realen Einsatz mit Cinema 4D R13 ist der alte FX 40% schneller als der X6.

Es wird mal Zeit, dass eine neue Version von Cinebench erscheint.

Julz2k
25.10.2012, 09:54
Und täglich grüßt das Murmeltier. Wieder die selben "Argumente", die die Intel Fanboys bringen und die in der Realität 0 Auswirkung haben. Ich wundere ich echt nicht darüber, das AMD so schlecht da steht, wenn Leute wie ihr theoretische Benchmarks 1:1 in die Realität übertragen.

Das man beim Shooter mit Intel mehr Headshots absolviert als mit AMD? Euch kann man vermutlich alles verkaufen.

Die Leistung jeder modernen CPU von AMD oder Intel ist heutzutage völlig ausreichend und dient nur in Tabellen als "Qualitätsmerkmal". Auch eure CPUs idlen nur herum,

Ihr empfehlt aus Vernunft einen Intel? Vernünftig ist eine CPU, die den persönlichen Ansprüchen am besten genügt. Die vom P/L Verhältnis am besten ist. Das ist so gut wie nie Intel, die sind einfach zu teuer. Die Intel CPUs haben eine Leistung die ihr beim Arbeiten oder Gamen niemals benötigt. Da könnt ihr 100 Fenster aufmachen und die Kiste wird immer noch nicht ausgelastet.

Noch mal meine Frage: wer von euch hat jemals von AMD auf Intel gewechselt weil ihm die CPU zu langsam war? Ich meine kein Upgrade sondern wirklich weil er gemerkt hat, dass die CPU nicht ausreichend ist. Ich bin sehr sicher, dass es nicht eine Person gibt, die das gemacht hat. Jeder kauft gleich Intel und meint, damit besser zu fahren. Aber wie kann man dann beide Prozessoren vergleichen, wenn man den anderen niemals verwendet hat?


Diese "theoretischen" benchmarks kann man sehr gut in die Realität abwandeln. Man nehme die 250 average Intel fps und die 180 AMD average fps.
Ich spiele ein CPU intensives Spiel wie All Points Bulletin, kann nur 2 Kerne auslasten. Das Spiel rennt engine bedingt nur ab 60fps ohne ruckler. Die beste performance bekommt man ab 100fps, da dort das Bild flüssiger und der Maus lag eliminiert wird (Nein der kommt nicht von vorgerenderten Bildern)
Mit dem AMD schaffe ich es aber nicht einmal konstant 60 fps zu halten, die größte Zeit über hat man die zwar, in kritischen Situationen dropt man jedoch auf 50fps. Mit einem Intel habe ich average Werte von 100fps. Dropen tut er in kritischen Situationen nur auf 80fps. Wenn man nur 2 Gegnern gegenüber steht hat man sogar konstante 120fps. Mit einem AMD nur 80.

Dadurch, daß dass Spiel nicht Vernünftig programmiert ist, wird der Benutzer zu einem Intel gezwungen, wenn er der beste in dem Spiel werden möchte und hardware bedingt nicht schon gegen mein Team verlieren will.

Zu der höheren headshot rate komme ich am ende noch einmal.

Du schreibst also Intel ist so gut wie immer teurer und wir empfehlen aus Vernunft einen Intel?

Das Intel teurer ist, da liegst du schon einmal falsch.
Wenn man nur gaming betrachtet dann bekommt man mit Intel, den günstigeren Modellen mehr Performance.
Ein 3 Jahre alter I7 Lynnfield besitzt die gleiche gaming performance wie der neuste AMD vishera.

Die bench Tabellen dienen also nur als Qualitätsmerkmal und meine CPU idelt sowieso nur herum?

Dann bist du ganz klar der falsche, für eine high end CPU. Dir würde auch ein celeron ausreichen.
Ich brauche on Spielen die maximale performance und deswegen wurde ich schon sehr früh gezwungen auf Intel umzusteigen. Dazu komme ich jetzt.

Counterstrike Source, das damals nebst 1.6 meist gespielte online fps.

Die Engine rennt ähnlich wie 1.6 erst ab 100fps flüssig.

Ein AMD 64 hat damals in der Praxis sogar mehr fps gebracht, da man mehr minimum fps hatte als mit einem Intel Extreme.
In den vielen falsch dargestellten benchmarks lagen Intel vor, warum?
Weil Intel mehr fps darstellen konnte wenn man in den Himmel schaut, sprich garnichts passiert.
Ich brauche aber keine 200fps wenn ich zu meinem spot laufe oder kein Gegner Kontakt vorhanden ist. Da helfen mir die 60fps mit einem AMD mehr als die 52 des Intels, wobei es bei so wenigen frames damals schon keinen unterschied mehr gemacht hat, das Spiel hat geruckelt bis zum geht nicht mehr, aimen war nur noch mit low sens möglich.

Dann kam der core2duo, AMD kam mit seinem X2. Das fatale war jedoch CSS hatte keine multi core Unterstützung und hat sie auch erst Jahre danach erhalten, als das Spiel esport technisch sich langsam auflöste.

Mit einem cire2duo hatte man konstante 100fps. Wenn man übertaktet hatte, konnte man sich in ein Gefecht gegen 5 Gegner gleichzeitig werfen und mit einem ace herauskommen. Mit einem AMD gegen professionell Spieler unmöglich.
Soviel zur höheren headshot rate...
Ich selbst professionell gespielt, habe live in Köln um einen relegation Platz gekämpft.

Heute braucht man für CSS keine Intel CPU mehr, es sind jedoch neue Spiele erschienen auf die das Beispiel 1:1 zutrifft. Z. B. All Points Bulletin, Firefall, allgemein Unreal Engine Spiele.

MrTengu
25.10.2012, 10:03
Sicher bin ich der Falsche für eine High End CPU. Aber wer ist der Richtige für eine High End CPU? Wie viele Computernutzer sind e-Sportler?

Nein, ein Celeron ist zu langsam für mich. Habe ich oft genug verbaut, wie auch AMD Prozessoren (und die kleine A4 APU ist dem Celeron weg gerannt). Wenn, dann Trinity, aber aufgrund veränderter Anforderungen wird es nun doch ein FX.

DU brauchst sicherlich eine CPU bei der jedes Quentchen Leistung stimmt. Nur kannst du das nicht auf alle anderen Nutzer ummünzen. Die Masse braucht nun mal keinen i7, nicht mal einen i5. Und nur der Massenmarkt zählt, Ausnahmen gibt es immer.

Weißt du was das wirkliche Problem für AMD ist? Nicht die Qualität der Prozessoren. Überall ist mittlerweile ein "intel inside" Sticker drauf, die Kunden kennen nur "blau". Das ist das eigentliche Problem. AMD müsste die Marke wieder mehr präsent machen und halten und ich bezweifle, das sie das noch schaffen.

AMD hat für mich übrigens noch einen anderen Bonus, der Prozzi wird in meiner Heimatstadt gefertigt, ich kann theoretisch zugucken. Und das kann Intel nicht toppen ;)

matthias3000
25.10.2012, 10:40
Die große Frage die sich MIR stellt, was spricht FÜR AMD?

Ich bestelle für die Firma demnächst wieder ca. 100 Clients und etwa 30 Server und wollte eigentlich mal abwarten was AMD bietet. Tja, leider NICHTS!

Die Clients werden von unserer Anwendung teilweise über längere Zeit sehr intensiv ausgelastet, was bei AMD´s Verlustleistung zu deutlich mehr Abwärme führt --> lautere Systeme.
Ich werde auf i5 oder i7 setzen...
Bei den Servern spielt die Verlustleistung BEI UNS nicht die große Rolle, allerdings bieten mir die 8-Core Xeons deutlich mehr Leistung.
Der Preis spielt kaum eine Rolle, da die Systeme ja eh "abgeschrieben" werden.

Ebenso haben meine Kollegen noch leichte Abneigung gegen AMD, da wir in Zeiten der A64 mehrere Server mit den entsprechenden Opterons hatten und hier gab es massive Stabilitätsprobleme mit den Chipsätzen... (Server waren NICHT aus einer Baureihe und von 2 großen Herstellern)

MrTengu
25.10.2012, 11:00
@matthias3000: bleib bei Intel. Wenn ihr sowieso schon Intel einsetzt wäre es fatal, das System zu wechseln. Es sei denn, dein Chef meint "die Server kosten uns zuviel, schau mal was du da machen kannst". Dann würde ich einige Tests mit AMD machen um das als einen (!) Kostenfaktor anzusehen.

Das sind ganz andere Anforderungen in einem Serverumfeld in Unternehmen, da müssen ganz andere Punkte beachtet werden.

PR3D4TOR
25.10.2012, 11:07
Richtige Richtung für AMD.

Stromverbrauch ist natürlich verbesserungswürdig, aber wenn man sich den Preis ansieht, dann ist das schon ein ziemlich gutes P/L-V.

Danke für den guten Test, CB.
Danke @AMD/Intel-Fanboys für die köstliche Unterhaltung :D

Casi030
25.10.2012, 11:08
@matthias3000 :
Ja ne ist klar:
http://geizhals.at/de/699575
http://geizhals.at/de/733969
Wiso soll ich beim Server zu Intel greifen?

matthias3000
25.10.2012, 11:09
@matthias3000: bleib bei Intel. Wenn ihr sowieso schon Intel einsetzt wäre es fatal, das System zu wechseln. Es sei denn, dein Chef meint "die Server kosten uns zuviel, schau mal was du da machen kannst". Dann würde ich einige Tests mit AMD machen um das als einen (!) Kostenfaktor anzusehen.

Das sind ganz andere Anforderungen in einem Serverumfeld in Unternehmen, da müssen ganz andere Punkte beachtet werden.


Prinzipiell ist es unseren Anwendungen ja egal auf welcher Plattform die laufen, daher hatte ich auch auf den Test gewartet (obwohl das Ergebnis leider voraussehbar war)....


@Casi030
Weil es MIR egal ist ob die Server 3000 € oder 8000 € kosten (oder vollbestückt halt hohe 5-stellige Summen)!
Die Kisten müssen schnell, stabil und am besten "kalt" sein.

MrTengu
25.10.2012, 11:34
@matthias3000: never change a running system, gerade als Serveradmin sollte man das wissen ;)

Was übrigens viele nicht wissen (und durch deine Aussage "Prinzipiell ist es unseren Anwendungen ja egal auf welcher Plattform die laufen" kam ich drauf): manche Software ist Inteloptimiert. Intel selbst bringt ja einen eigenen Compiler der natürlich optimal auf Intel Befehlssätze zugeschnitten ist (http://software.intel.com/en-us/intel-parallel-studio-xe/). Es ist klar, dass solche Software dann auf AMD CPUs nicht so performant läuft wie auf Intel CPUs.

Ich wäre also vorsichtig mit "das läuft überall gleich gut", wenn es keine Standardsoftware ist.

PS: erst Visual Studio 2012 unterstützt die neuen AMD Befehlssätze, daher vermutlich auch der "Leistungsschub" auf Windows 8 für AMD CPUs.

grenn
25.10.2012, 11:44
@matthias3000 :
Ja ne ist klar:
http://geizhals.at/de/699575
http://geizhals.at/de/733969
Wiso soll ich beim Server zu Intel greifen?

Die kann man besser vergleichen

http://geizhals.de/699575
http://geizhals.de/733976
Der Intel ist ein bisschen langsamer als der AMD, aber ist sparsamer als der AMD, wobei es normalerweise bei Servern ankommt. Und der Intel ist 50€ günstiger.

duke1976
25.10.2012, 11:49
Bei Servern kommt es auf Sparsamkeit an? Das kommt irgendwann aber bestimmt nicht am Anfang. Die meisten Server müssen viele Zugriffe ertragen und das klappt mit 16 Kernen klar besser. Bei Virtualisierung hast Du mit mehreren Kernen auch einen klaren Vorteil!

Cr4y
25.10.2012, 11:54
Bei Servern kommt es auf Sparsamkeit an? Das kommt irgendwann aber bestimmt nicht am Anfang. Die meisten Server müssen viele Zugriffe ertragen und das klappt mit 16 Kernen klar besser.
Ich behaupte mal, bei Servern kommt es meistens weder auf Verbrauch noch auf Leistung an, sondern auf das beste Verhältnis von Verbrauch (bzw. total cost of ownership) zu Leistung.

matthias3000
25.10.2012, 12:05
@matthias3000: never change a running system, gerade als Serveradmin sollte man das wissen ;)


Auch wenn es langsam Off-Topic wird:
Wir stellen die komplette Infrastruktur um (zumindest erstmal die ersten 30-40 Server).
D.H. von derzeit Win XP / Server 2003 auf Win 7 / Server 2008R2, inkl. kompletter Neuinstallation der Anwendungen usw... daher ist es eh ein riesiger Schritt und die "andere" Plattform wäre schon fast zu vernachlässigen.
Mittlerweile tendiere ich für die Stärkeren Server zu 4x 10 Core Xeons (E7-8867L), die sollten genug Power für alle Lebenslagen haben...

Die Anwendung ist nicht auf einen Hersteller optimiert (außer wohl der Intel Compiler), dafür lege ich die Hand ins Feuer...
Die Software wird hauptsächlich für uns entwickelt, daher haben wir guten Einblick / Einfluss in die Entwicklung

Lübke
25.10.2012, 12:08
@grenn: hast du gesehen, dass der opteron nicht 6 sondern 16 kerne hat? du vergleichst grad äpfel mit birnen... je nach anwendungsgebiet ist die threadzahl entscheidend.
und der intel kommt zwar durch ht auf 12 threads, aber von einem firmenkunden, die damit arbeiten weiß ich, dass ht oft nicht genutzt werden kann, weil die software dafür extra angepasst werden muss. bei der firma wäre das ein fünfstelliger betrag gewesen. mit ht waren die cpus nichtmal halb so schnell als ohne!

das thema server könnt ihr aber knicken, denn das ist ganz indivituell. man kann nicht pauschal sagen, worauf es ankommt oder was besser ist. für jedes anwendungsgebiet und jede firma werden ganz individuell anwendungen entwickelt. da kann man teilweise nichtmal einfach so von intel zu amd oder umgekehrt wechseln...

also vergesst lieber opteron vs xeon und kommt zurück zu fx X300 vs core i 3000

hrafnagaldr
25.10.2012, 12:11
Ich bestelle für die Firma demnächst wieder ca. 100 Clients und etwa 30 Server und wollte eigentlich mal abwarten was AMD bietet. Tja, leider NICHTS!



Zeig mir doch bitte den Hersteller, der im großen Stil noch auf AMD setzt. Dankt Intels Marktmacht gibt es da kaum mehr etwas. Dell hat glaub nochn paar Opteron-Kisten, Fujitsu bis zuletzt zumindest nochn paar Desktoprechner mit AMD.

Wobei sich Trinity für Clients eigentlich gut eignen würde.

Wenn man aktuell eine Firma mit AMD-Kisten ausstatten wollte, muss man die fast selber bauen.

matthias3000
25.10.2012, 12:15
@neo-bahamuth
das stimmt wohl...

Aber wird nicht immer so groß gesagt, das der Bulldozer für Server entwickelt wurde und so erfolgreich dort ist?

Matzegr
25.10.2012, 12:23
Die Anwendung ist nicht auf einen Hersteller optimiert (außer wohl der Intel Compiler), dafür lege ich die Hand ins Feuer...
Die Software wird hauptsächlich für uns entwickelt, daher haben wir guten Einblick / Einfluss in die Entwicklung

Könnt ihr da nicht vorher mal einen Vergleichstest machen? Eure Anwendung kann man ja schlecht mit den hier getesteten Anwendungen vergleichen, oder? Möglicherweise würde nen FX doch wesentlich besser abschneiden, als gedacht. Wenn ihr Single-Thread Leistung braucht, dann klar Intel, falls es bei euch auf Multi-Thread-Leistung ankommt könnte nen FX durchaus interessant werden.

Lübke
25.10.2012, 12:25
@matthias3000: wird gerne gesagt, ist ja auch schwer nachprüfbar ;)

was aber tatsächlich für opteron auf bulldozer und vishera-basis spricht, ist die hohe kernzahl und die geringen anschaffungskosten.

Julz2k
25.10.2012, 12:27
Könnt ihr da nicht vorher mal einen Vergleichstest machen? Eure Anwendung kann man ja schlecht mit den hier getesteten Anwendungen vergleichen, oder? Möglicherweise würde nen FX doch wesentlich besser abschneiden, als gedacht. Wenn ihr Single-Thread Leistung braucht, dann klar Intel, falls es bei euch auf Multi-Thread-Leistung ankommt könnte nen FX durchaus interessant werden.

Hier geht es um Server, da kannst du garnichts pauschalisieren. Es kommt auf die Anwendung und die Software an.

Ulukay
25.10.2012, 12:28
Zeig mir doch bitte den Hersteller, der im großen Stil noch auf AMD setzt. Dankt Intels Marktmacht gibt es da kaum mehr etwas.

*HUST*

Paar KM vor Muenchen gibts das wahrscheinlich groesste AMD Rechenzentrum in Deutschland, der Eigentuemer ist jetzt Intel.
Allerdings sind die grad fest am Ersetzen der HW. :) ;)

Bartonius
25.10.2012, 12:42
Ich würde mir wirklich wünschen, dass sich CB bei Verfügbarkeit der neuen Prozessoren auch noch mal einen FX-6300 und einen FX-4300 beschafft und durch den Parcours jagen. Ich weiß, AMD stellt euch nur das Flaggschiff zur Verfügung, aber es muss doch für eine Seite wie CB irgendwie möglich sein, durch Sponsoring an diese zwei CPUs zu kommen.

Ein FX-6300 oder FX-4300 dürften für die Enduser hier im Forum nämlich deutlich interessanter sein, vor allem was Preis/Leistung angeht.

Tammy
25.10.2012, 13:10
Korrekt, die 6xxx Reihe erscheint mir sowieso als die attraktivste für den normalen Heimanwender mit Spieleambitionen.
Ich würde wetten, dass die Spieleperformance eines FX-6300 nicht hinter der eines FX-8350 zurücksteht und das für einen Preis, der nochmals deutlich macht, dass P/L weiterhin eine AMD Domäne bleibt.

MrTengu
25.10.2012, 13:10
*HUST*

Paar KM vor Muenchen gibts das wahrscheinlich groesste AMD Rechenzentrum in Deutschland, der Eigentuemer ist jetzt Intel.
Allerdings sind die grad fest am Ersetzen der HW. :) ;)

Naja, wenn der Besitzer Intel ist, würde ich auch deren Stelle auch keine AMD Prozessoren drin haben wollen ;) Das sagt nicht viel aus.

Persönlich würde mich schon mal interessieren, ob und in welchen Anteilen AMD Serverprozessoren "draußen" eingesetzt werden.


Ich würde mir wirklich wünschen, dass sich CB bei Verfügbarkeit der neuen Prozessoren auch noch mal einen FX-6300 und einen FX-4300 beschafft und durch den Parcours jagen. Ich weiß, AMD stellt euch nur das Flaggschiff zur Verfügung, aber es muss doch für eine Seite wie CB irgendwie möglich sein, durch Sponsoring an diese zwei CPUs zu kommen.

Ein FX-6300 oder FX-4300 dürften für die Enduser hier im Forum nämlich deutlich interessanter sein, vor allem was Preis/Leistung angeht.

Da bin ich dafür.

Die Preise sind übrigens schon am Fallen. Vor zwei Tagen war der 6300er noch mit 125 Euro bei Mindfactory gelistet, gestern waren es schon 122 Euro, heute 120,79 :)

CHAOSMAYHEMSOAP
25.10.2012, 13:27
Persönlich würde mich schon mal interessieren, ob und in welchen Anteilen AMD Serverprozessoren "draußen" eingesetzt werden.


Mit unter 10% ist AMDs Anteil im Servergeschäft verschwindend gering.

Matzegr
25.10.2012, 13:27
Hier geht es um Server, da kannst du garnichts pauschalisieren. Es kommt auf die Anwendung und die Software an.

Es geht nicht nur um Server:

Ich bestelle für die Firma demnächst wieder ca. 100 Clients und etwa 30 Server ...
Die Clients werden von unserer Anwendung teilweise über längere Zeit sehr intensiv ausgelastet, was bei AMD´s Verlustleistung zu deutlich mehr Abwärme führt --> lautere Systeme.

Ich bezog mich auch die 100 Clients und die Anwendung die darauf laufen. Lautstärke verursacht Stress. Wenn jetzt aber die Dauer der Auslastung signifikant kürzer mit AMD ist als mit Intel wäre, dann könnte ein AMD System zwar über einen kurzen Zeitraum lauter sein, könnte aber auch schneller wieder im Idle sein -> geringere Lautstärke -> weniger Stress.

ex()n
25.10.2012, 13:29
@marecar

Ein wirklich klasse geschriebener Beitrag von dir, der auch mal andere und realistischere Anwendungsaspekte im Alltagsbetrieb kritisch beleuchtet.

Leider würdigt dein Posting hier kaum jemand, weil er ehh nur die bunten Grafiken durchgescrollt hat.

THX!

MrTengu
25.10.2012, 13:35
Mit unter 10% ist AMDs Anteil im Servergeschäft verschwindend gering.

Hm, wird seine Gründe haben.

Hab grad mal bei unserer IT nachgefragt. Da laufen noch alte Server mit AMD, neue werden aber immer Xeons sein. Grund: Performance.

grenn
25.10.2012, 13:48
*HUST*

Paar KM vor Muenchen gibts das wahrscheinlich groesste AMD Rechenzentrum in Deutschland, der Eigentuemer ist jetzt Intel.
Allerdings sind die grad fest am Ersetzen der HW. :) ;)

Woher weißt du dass? Ich habe bei Google gesucht und nichts gefunden.

Ulukay
25.10.2012, 13:53
http://www.n-tv.de/wirtschaft/Infineon-verkauft-Wireless-article1374981.html

Ich arbeite da.

Kyroka
25.10.2012, 14:20
Ein wirklich klasse geschriebener Beitrag von dir, der auch mal andere und realistischere Anwendungsaspekte im Alltagsbetrieb kritisch beleuchtet.


Zustimmung. Allerdings ist es auch wenig überraschend, dass hier im Forum die beste CPU für Gamer am meisten abgefeiert wird.

Wäre gerade bei CPU-Tests IMO ein deutlicher Fortschritt, wenn man die Eignung für 3-4 unterschiedliche Anforderungsprofile darlegen würde, anstatt einen sinnlosen Durchschnittswert abzusondern. Mir persönlich ist es vollkommen gleichgültig, ob es in irgendeinem Shooter irgendeine Map gibt, die mein Prozessor unter irgendwelchen Bedingungen nicht so gerne mag :lol

Aber mal eine Frage: Man liest immer, dass viele Anwendungen nach wie vor kaum von mehreren Kernen profitieren. Aber handelt es sich dabei (von Spielen mal abgesehen) nicht fast immer um Anwendungen, die ohnehin kaum CPU-Leistung brauchen?

hrafnagaldr
25.10.2012, 14:31
*HUST*

Paar KM vor Muenchen gibts das wahrscheinlich groesste AMD Rechenzentrum in Deutschland, der Eigentuemer ist jetzt Intel.
Allerdings sind die grad fest am Ersetzen der HW. :) ;)

Schön, bei 100 PCs redet man aber von mittelständischen Kunden. Da hat quasi kein Hersteller mit seinen Produkten mehr AMD im Portfolio.

grenn
25.10.2012, 14:32
http://www.n-tv.de/wirtschaft/Infineon-verkauft-Wireless-article1374981.html

Ich arbeite da.

Ach so, deswegen weißt du dass.


*HUST*

Paar KM vor Muenchen gibts das wahrscheinlich groesste AMD Rechenzentrum in Deutschland, der Eigentuemer ist jetzt Intel.
Allerdings sind die grad fest am Ersetzen der HW. :) ;)

Wenn Intel der Eigentümer ist, dann ist es 100% klar das jetzt dafür Xeons kommen werden.

Bartonius
25.10.2012, 14:35
Ich würde wetten, dass die Spieleperformance eines FX-6300 nicht hinter der eines FX-8350 zurücksteht und das für einen Preis, der nochmals deutlich macht, dass P/L weiterhin eine AMD Domäne bleibt.

Naja, die Spiele Performance wird beim FX-6300 sicherlich geringer sein als beim FX-8350, aber wohl hauptsächlich wegen dem um 500 MHz niedrigeren Baseclocks, aber zum Glück kommen alle FX Prozessoren ja mit offenem Multiplikator und nicht wie bei Intel ;)

So gesehen stimme dich dir zu, ein FX-6300 auf 4 GHz wird wohl in den meisten Spielen nicht langsamer sein als der FX-8350.

Casi030
25.10.2012, 14:51
Naja, die Spiele Performance wird beim FX-6300 sicherlich geringer sein als beim FX-8350, aber wohl hauptsächlich wegen dem um 500 MHz niedrigeren Baseclocks, aber zum Glück kommen alle FX Prozessoren ja mit offenem Multiplikator und nicht wie bei Intel ;)

So gesehen stimme dich dir zu, ein FX-6300 auf 4 GHz wird wohl in den meisten Spielen nicht langsamer sein als der FX-8350.

Genau so ist es und somit liegen der FX 6300 und der FX 8320 gleichauf und für einen normalen Mixrechner aus Anwendungen und Spielen wird der FX 6300 klar das beste P/L Verhältis bieten.

Julz2k
25.10.2012, 15:01
Es geht nicht nur um Server:


Ich bezog mich auch die 100 Clients und die Anwendung die darauf laufen. Lautstärke verursacht Stress. Wenn jetzt aber die Dauer der Auslastung signifikant kürzer mit AMD ist als mit Intel wäre, dann könnte ein AMD System zwar über einen kurzen Zeitraum lauter sein, könnte aber auch schneller wieder im Idle sein -> geringere Lautstärke -> weniger Stress.

Er hatte doch schon abgehakt, dass die Client PCs definitiv Intels werden, da die Belegschaft AMD nicht mag.

Tammy
25.10.2012, 15:04
Naja, die Spiele Performance wird beim FX-6300 sicherlich geringer sein als beim FX-8350, aber wohl hauptsächlich wegen dem um 500 MHz niedrigeren Baseclocks, aber zum Glück kommen alle FX Prozessoren ja mit offenem Multiplikator und nicht wie bei Intel ;)

So gesehen stimme dich dir zu, ein FX-6300 auf 4 GHz wird wohl in den meisten Spielen nicht langsamer sein als der FX-8350.

Bei der 6xxx Reihe setze ich OC einfach vorraus, schliesslich lässt sich aus denen am meisten rausholen :)

Vitec
25.10.2012, 16:48
@ Mr.Tengu

Ja hatte hier vor 2 Wochen von einer Freundin nen wirklcih sehr alten pentium MMX 200MHZ mit 128gb udn entsprechneder festplatte.
Hab dort win xp draufgehaun und 1. ist es schonmal gestartet was ich selsbt nicht erwartet hätte und 2tens im wondows explorer öffnen und co ist mein pc wohl "flüssiger" aber wirklich schlimm sodass ich sage OMG ich muss 2 min warten bis der explorerer offen ist war es absolut nicht.
Ich behaupte hier mal das nen aktueller celeron +2gb ram für jeden media,saturn pc reichen würde für die klientel dort im office,internetpc mit ner alten 7k hdd.

Das einzige das die AMD`s für mich interessant macht ist das sie übertaktet werden können.
Damit spreche ich aber eher von den 2 und 3 modulern die dem i3 gegenüberstehen.
Wenn da der Preis noch ein wenig fällt bekommt man mit einem fx 6300 eine gute alternative zum i3 finde ich.

Na-Krul
25.10.2012, 16:51
Wäre es eigentlich möglich einen festen Testparcours für die Cpus zusammen zu stellen und dann die Zeit und den Verbrauch zu messen, der für den Parcours benötigt wird? Ist mir bei anderen Seiten schon öfter mal unter gekommen und macht, finde ich, deutlich mehr Sinn als Höchstwerte zu vergleichen. Ich meine mich zu erinnern, dass sogar ein paar Minuten Leerlauf nach dem Test mit eingezogen werden, um auch diesem Wert Bedeutung zu verleihen. Zum Beispiel kann eine Cpu, die mehr Strom verbraucht aber auch schneller Rechner, eine Aufgabe doch sparsamer erledigen, wenn der Leerlaufverbrauch ähnlich ist.

sebi100
25.10.2012, 16:57
Ist ne ganz tolle Idee wurde aber x seiten vorher schon angesprochen :). Hast aber recht :freak2

esox66
25.10.2012, 17:41
@marecar

Ein wirklich klasse geschriebener Beitrag von dir, der auch mal andere und realistischere Anwendungsaspekte im Alltagsbetrieb kritisch beleuchtet.

Leider würdigt dein Posting hier kaum jemand, weil er ehh nur die bunten Grafiken durchgescrollt hat.

THX!

hab den Beitrag gelesen und für mich mit :daumen bewertet,

was mir in den ganzen Diskussionen immer auffällt ist das die CPU's fragwürdig miteinander
verglichen werden.
Ganz nüchtern betrachten haben wir eine CPU [I] die ihre "Leistung" aus IPC bezieht und eine CPU [A] die ihre "Leistung" aus Takt bezieht.
Um [I] schlagen zu können muss [A] nur hoch genug takten.

Im Anwendungsbereich steht Vishera in nichts nach, einziger Minuspunkt ist ein leicht erhöhter Energieverbrauch wobei man die niedrigeren Anschaffungskosten gegenrechnen kann.

Bei Spielen sieht man dann wo es Vishera fehlt, die auf Takt ausgelegte Architektur fehlt es eben an max Takt hier müsste der Turbo bis 5 Ghz reichen was aber anscheinend fertigungstechnisch noch nicht machbar ist.

Warum AMD die Spieler ignoriert ist mir bis heute nicht ganz klar, wobei hier das schwache Marketing von einem Hype (einer "Spiele"-CPU), der durch Mundpropagande entstehen würde, profitieren könnte. Man sollte die Wirkung nicht unteschätzen.

f1nal
25.10.2012, 19:16
@marecar:

Danke für den interessanten Beitrag. Beachtung hat er aber leider (fast) keine bekommen. Und das wundert mich nicht.

Thomson1981
25.10.2012, 19:23
@ CHAOSMAYHEMSOAP

Lern erstmal vernünftig zu zitieren und die Meinungen der Anderen in Deinen Zitaten unverfäscht wiederzugeben,dann können wir gerne weiterreden. ;)

Denn alles Andere macht überhaupt keinen Sinn und ist Zeitverschwendung,was Dir nicht nur von mir gesagt wurde im Forum,sondern auch von dutzenden anderen CB Lesern.

Ich schrieb eindeutig,ohne das man daran etwas missverstehen könnte,für welche Anwendungszwecke man grob gesehen welches System kaufen sollte (Privat/beruflich) und wie sich die jeweiligen Vorteile der Systeme ergeben über mehrere Jahre hinweg.

Noch dazu wenn interessiert es,ob in 2 Jahren die übernächste Generation egal welchen Herstellers deutlich schneller sein wird,als die heutige. Das ist Fakt und das wird immer so sein,das spätestens die übernächste Generation einen deutlichen Sprung nach vorne macht.

Viel wichtiger ist es doch,welche Vorteile das System das man heute kauft, einem über die Gesamtnutzungszeit (min 3-4 Jahre,meistens 5) persönlich bringen wird für das investierte Geld, verglichen zur selben Investitionssumme für ein Konkurentprodukt.

Und hier wird bei der jetzt abzusehenden technischen Entwicklung von Anwendersoftware,Programmen und Spielen eine heute gekaufte AMD FX 8350 8 Kern CPU mehr Vorteile für das investierte Geld bringen, in dem selben Nutzungszeitraum von 3-4 Jahren,als ein gleichteurer Intel 3570k,wenn man das mit dem Nutzungsverhalten eines normalen Konsumenten vergleicht und bedenkt,dass alle möglichen Anwendungen immer mehr auf Multicore optimiert werden.

Für alle anderen Anwender mit einem Nutzungsverhalten,welches vom normalen gehobenen Anwender/Kleinunternehmer abweicht,schrieb ich genügend Alternativen,für welches System man sich dann entscheiden sollte,wenn man bestimmte Prioritäten setzen muß.

Für mich selber reicht mir ein AMD 8350 auch nicht aus,weil ich andere Prioritäten setze und mir in naher Zukunft beim Aufrüsten daher eben einen Sandybridge E 3930k + guten Sockel 2011 Mainboard kaufen werde, oder den Nachfolger.

Das heißt noch lange nicht,dass ich das selbe System dann jedem empfehlen würde in meinem Bekanntenkreis,wenn ich für die Leute einen neuen Rechner zusammenstellen soll.
Man sollte immer das kaufen,was einem den größten Nutzen für den kompletten Nutzungszeitraum einer Sache bringt und preis/leistungstechnisch vereinbar ist.

Und bezüglich Deines lächerlichen Zitats wegen der AMD/IBM Sache kann ich einfach nur lachen.

Da konnte halt ein kindischer AMD Fanboy einfach nicht die Wahrheit ertragen,das eine Übernahme von AMD von einem geeigneten und finanzstarken Inverstor besser wäre,als der heldenhafte Märtyrertod von AMD bei einer eventuell drohenden Insolvenz in der Zukunft und hat ohne eigene Argumente zu bringen einfach mal ein bisshen drauf losgebasht.

micha2
25.10.2012, 20:06
Die Tests von Computerbase waren früher aber um einiges besser. ...............................
PS
Ich hoffe mal keiner der CB Leute fühlt sich beleidigt und löscht meinen Beitrag...

das hoffe ich auch ;)

sehr gut geschrieben. zeigt den ganzen irrsinn, der mittlerweile hier und überall um die "schnellsten" proz. von intel abgeht.

nebenbei benutze ich noch nen C50 im netbook. da geht was. ich würde auch mal behaupten, das für 50% aller i5 3570K nen atomproz. ausreichend wäre:D
aber das kommt halt nicht so gut.

trotzdem danke für deine ausführung.

Casi030
25.10.2012, 20:23
........nen atomproz. ausreichend wäre:D

Für Inteljünger als RehabilitationsmaßnahmeTop,danach greifen die zu jedem AMD.:king

y33H@
25.10.2012, 20:32
Wieder die selben "Argumente", die die Intel Fanboys bringen und die in der Realität 0 Auswirkung haben [...] Das ist so gut wie nie Intel, die sind einfach zu teuer.Alleine diese beiden Sätze ruinieren deinen langen gut gemeinten Post. Gleich am Anfang andere User in die Fanboy-Ecke schieben und dann später pauschalen Blödsinn von sich geben. Es gibt Intel-CPUs wie die SNB-Celerons für 35 Euro bis zu zum SNB-EP als XE für 900 Euro - also ist einfach zu teuer einfach nur Bullshit. Gerade wer spielt oder gemischte workloads hat, fährt mit Intel in vielen Preis-Klassen besser bei geringerem Stromverbrauch (und somit einer günstigeren oder leiseren Kühlung).

micha2
25.10.2012, 20:38
Noch mal meine Frage: wer von euch hat jemals von AMD auf Intel gewechselt weil ihm die CPU zu langsam war? .

um mal ehrlich zu sein.:D

intel 486SX25->Pentium75->Cyrix 166+->Pentium II 266->Athlon 1333->AthlonXP 2600+->AthlonXP 3200+->Athlon64 3400+->Athlon64 3800+->Athlon X2 5000+->Athlon X2 6000+->Phenom X4 9950->Phenom II X4 955->Phenom II X6 1090T->????(8320/50??);)

rüste gerne über verkauf/kauf auf. ist mein hobby. brauchen tu ich es wohl weniger.

ab dem Athlon X2 5000+ laufen alle prozessoren noch in rechnern von bekannten und verwanden.

den WOW-effect hatte ich bei keiner dieser CPUs bzw. deren wechsel zur nächsten.
aber bei meiner ersten SSD ging mir einer ab. :D
vor einer woche habe ich nen günstigen rechner für meinen schwager zusammengebaut.
der läuft mit nem Athlon X2 4200+ und ner SSD in kombination mit windows 7 für seinen anwendungsbereich genauso flott wie ein i7 3770k. man staune.

Ergänzung vom 25.10.2012 20:40 Uhr:
Für Inteljünger als RehabilitationsmaßnahmeTop,danach greifen die zu jedem AMD.:king

:D jupp:D

SuddenDeathStgt
25.10.2012, 20:49
@ MrTengu

es gibt hier auf dem board diverse threads ( Kaufberatung, Problem...) die ein wechsel von einem
X3/4/6 auf i5/7 vollzogen haben ... speziell für soft/games, die cpu-limitierend sind.
lt. den post's hat das "new-toy-syndrom" auch voll durchgeschlagen, allerdings auch in nackten zahlen. ;-)

@ y33H@

interessante benches @ PCGH!

wiesel201
25.10.2012, 20:50
Noch mal meine Frage: wer von euch hat jemals von AMD auf Intel gewechselt weil ihm die CPU zu langsam war?

Einen Wechsel hab ich aus genau diesem Grund einmal zwischen den beiden vorgenommen, allerdings in die andere Richtung. Anno 2000 wechselte ich von einem Intel Pentium 120MHz auf einen AMD K6II 333MHz. Aber das kann man schlecht vergleichen, seinerzeit liefen die CPUs beider Hersteller noch auf den gleichen Boards. Erst seit Pentium II und Athlon sind die CPUs nicht mehr untereinander kompatibel, und seitdem ist ein herstellerübergreifender CPU-Wechsel ohne Tausch des Mainboards nicht mehr möglich.

Fantasio
25.10.2012, 21:57
CB kommt auf 6,93 Punkte für den FX 8350. Interessant finde ich, wie ich mit einem 4Ghz i7 860 auf 6,53 Punkte komme.

Sollte Cinebench nicht die Paradedisziplin des FX sein? Immerhin ist es ein extrem parallelisiertes Problem und er setzt sich von einem uralten Design bei gleichem Takt praktisch nicht ab.

Wurde Dir gegenüber schon einmal erwähnt, dass Cinema 4D R11.5, somit auch Cinebench R11.5, ausschließlich für Intelprozessoren optimiert worden ist? Zusätzlich muss auch noch die Verwendung des Intel C++ Compilers in Betracht gezogen werden - auch hier gilt: Optimierungen nur für Intelprozessoren. Also muss man sich nicht über solche Ergebnisse eines obsoleten "Benchmarks" wundern.

Tammy
25.10.2012, 22:00
Und ich bin von einem i5-760 auf einen FX-6200 gewechselt und merke einen deutlichen Performancegewinn in meinen relevanten Anwedungsbereichen.

Also nicht immer alles hier pauschalisieren.

y33H@
25.10.2012, 22:39
Bei Integer-lastigem Multihreading liegt der FX-6200 rund ein Drittel für dem i5-760, das ist anständig.

MikelMolto
26.10.2012, 01:04
@marecar
Da hast Du Dir die ganze Arbeit gemacht und die ganzen Tabellen verlinkt.
Ich würde einfach einmal einen 3770K mit 4,0Ghz mit einem FX-8350 mit 4,0Ghz bei gleichem RAM Takt und ohne Turbo vergleichen. Dann kann man ganz genau sagen, wie groß der Unterschied zwischen den beiden CPU´s ist.
Das AMD über den Takt versucht gegen Intel aufzuholen dürfte ja mittlerweile jeder verstanden haben. Das mehr Takt nichts extra kostet stimmt zwar nicht ganz, aber lassen wir das einfach einmal so stehen.
Fakt ist aber, dass ein 3770K sich mit 4Ghz wunderbar und ebenso wie ein FX-8350 enorm untervolten lässt und auch keine Probleme damit hat so zu laufen. Somit hat Intel da enorme Reserven. Intel kann jederzeit einen 377XK raus bringen der gleich taktet und den selben Turbo hat wie der FX-8350 oder zweifelst Du daran_

Fakt ist aber auch, das der FX-8350 sicher genauso wunderbar die alltäglichen Aufgaben abarbeitet wie eine Intel CPU und der vor dem Monitor sitzende nicht wirklich einen großen Unterschied merken wird. Von daher könnte man so eine CPU schon kaufen.
Wenn man schon das passende Board hat mit einem AMD 6 Kerner drin, dann muss man sich überlegen, ob es sich lohnt den gegen einen FX-8350 zu tauschen. Lohnt sich das oder hat man dann mit der neuen CPU den erwünschten aha Effekt?
Welchen Intel Sandy oder Ivy Nutzer lockt der FX-8350 hinter dem Ofen hervor? Richtig, niemanden.
Schade ist die schlechte Single Thread Leistung und verbunden damit die Zocker Performance. Hier geht es auch nicht um 120FPS gegen 140FPS sonder hier geht es um FPS Einbrüche bei Situationen wo viel Aktion auf dem Monitor ist und es dann halt ruckelt, weil die CPU nicht mehr hinter her kommt.
Beispiele gibt es genug, wo Leute in der Kaufberatung von AMD auf Intel umgestiegen sind und die Ruckler waren weg. Ließt man diese Threads einmal aufmerksam, dann findet man dort das Unverständnis vieler Leute, die mit aller Gewalt diese Ruckler woanders vermuten, als bei der CPU.
Ich kenne sehr viele, die hier und in anderen Foren von einem AMD auf einen Intel umgestiegen sind und diesen Whow Effekt hatten. Aus AMD Nutzer Sicht ist das aber alles Phantasie und die haben doch alle keine Ahnung. Das finde ich einfach so traurig.

Ja der Abstand hat sich verkürzt aber aus meiner bescheidenen Sicht ist der Whow Effekt ausgeblieben. Wer sich hier die Benchmarks raus sucht, die einem am besten gefallen und andere Benchmarks einfach ignoriert, weil sie ja eh nichts aussagen, der ist dem AMD Marketing (falls so etwas überhaupt existiert) genauso verfallen, wie er anderen vorwirft dem Intel Marketing verfallen zu sein.

Ein objektives beurteilen einer Leistung mit allen Faktoren wie Verbrauch und Preis fällt einfach schwer, wenn man nicht objektiv ist.
Ich könnte ja einfach einmal ein paar Fazit von deutschen, englischen und portugiesischen Seiten als Antwort auf die zusammen gesuchten Kurven posten. Ne schon klar, die sind alle von Intel gekauft und haben doch eh keine Ahnung und sind auch zu doof zum testen.

Zumindest bin ich aber so tolerant, das ich es total akzeptiere wenn sich jemand die neue AMD CPU kauft, weil er da einfach Lust drauf hat und damit zufrieden und glücklich wird. Ich erwarte aber auch die selbe Toleranz von anderen.

Tuetensuppe
26.10.2012, 01:17
Persönlich würde mich schon mal interessieren, ob und in welchen Anteilen AMD Serverprozessoren "draußen" eingesetzt werden.


z.B. Dell, HP, Acer, Cray XE6, Cray XK6 etc. ... Einige der schnellsten Computer der Welt sind mit AMD bestückt ;-)

SaarL
26.10.2012, 02:01
Ich denke mal der 6core wird am Interessantesten sein:
Auszug von der ASRock HP CPU Spezifikation des 970 Extreme 3:


AM3+ FX FD6350FRW6KHK 125W Vishera 3900MHz 2200MHz 2MBx3 8MB C0 P1.50

Also wirds wohl der 6350 - oder vielleicht der 8320, der Preis fällt ja momentan schon gut.

marecar
26.10.2012, 09:13
@marecar
Da hast Du Dir die ganze Arbeit gemacht und die ganzen Tabellen verlinkt.
Ich würde einfach einmal einen 3770K mit 4,0Ghz mit einem FX-8350 mit 4,0Ghz bei gleichem RAM Takt und ohne Turbo vergleichen.

Ach, würdest du das einfach mal? Gibt es den denn so zu kaufen, und vor allem, wie viel kostet er? Achja, genau, den gibt es ja gar nicht.
Erstmal kostet der schon mind. 100€ mehr als der FX-8350 (oder anders: nochmal die Hälfte des Preises oben drauf), und läuft dazu auch nur mit 3,5Ghz. Und wie das dann in der Realität ausgeht, können wir auf den Ergebnissen welche ich verlinkt habe sehen.

Konkurriert er denn preislich mit dem AMD? Nein, der AMD konkurriert preislich mit dem i5-3xxx, welchen er in den verlinkten Tests aus der realen Welt oftmals weit hinter sich lässt. Auch wenn in diesem Forum alle Intel-Fans anscheinend andere Tests gesehen zu haben scheinen, da sie nicht müde werden zu behaupten ihr i5-2500 oder der i5-3xxx wäre schneller. Sorry, sehe ich nicht. Vielleicht bezieht ihr euch aber auch nur auf's zählen von feuchten und trockenen Steinen mit eurer Freundin Sandra, aber dann kann ich euch auch nicht mehr helfen.

Also ist er erstens eine ganze Preisdimension drüber, und es gibt ihn so wie du ihn vergleichen willst überhaupt nicht mal...
Ach, du würdest gerne rumclocken und irgendwelche pi tests 24 Stunden lang laufen lassen um zu sehen ob dein Overclock stabil ist usw? Tja, ich aber nicht. Und sonst auch niemand. Und für die 100€ die er mehr kostet ohne irgendwas in dem Wert mehr zu bringen, hol ich mir lieber andere schöne Dinge im Leben. Und der Intel der genauso viel kostet wie der AMD, bringt leider viel weniger.

Also, warum genau sollte ich mir jetzt für 100€ mehr eine Intel CPU kaufen, welche nicht mal für 10€ schneller ist, und dann noch mind. einen Tag meines Lebens auf das einlesen in Foren und rumdoktorn an dessen Taktfrequenz und Spannungsrate und nachfolgende Stabilitätstests, Benchmarks und weißgottnochwas verschwenden, anstatt mir einfach die ca. gleich schnelle und 100€ günstigere AMD CPU zu holen?

Und was machen denn mehrere Stunden des pi brütens und Benchmark-laufens, um dir deinen overclock zu bestätigen und deine Seele zu befriedigen, mit deiner Energiebilanz? Dann musst du ja deine ganze jährliche Energiebilanz zerstören um den Intel stabil auf den gleichen Takt zu bringen, damit du dich befriedigen kannst das Intel doch die bessere CPU hat, indem du dir einen Benchmarkisch-messbar größeren Vorteil gegenüber der deutlich günstigeren CPU erarbeitest? Ist er denn dann immernoch Stromsparender, wenn du seinen vcore anheben musst um ihn zu übertakten und dann noch Stundenlang tests laufen lassen musst um dir das zu bestätigen, während gleichzeitig die Besitzer eines FX-8350 einfach nur im Bios zwei-drei 0,05er vcore Stufen runtergehen? :D


Was verglichen wird ist das Produkt, was verkauft wird. Und in dem Markt- und Preissegment in welchem es verkauft wird.

Ich finde es schön wie die Intel Fanboys jetzt, da deutlich gemacht wurde, dass die Leistung des FX-8350 in realen Anwendungen an der des deutlich teureren Ivy-Bridge Top Modells i7-3770K kratzt, und diesen manchmal sogar überholt, und deutlich vor seinem preislichen konkurrent, dem i5-3xxx liegt, anfangen nun den FX-8350 mit dem 100€ teureren i7-3770K vergleichen zu müssen um ein Bild der inferiorität zu schaffen, anstatt mit seinem echten Konkurrenten im Markt, dem i5-3xxx :D

Aber ich verstehe euch ja, schliesslich müsst ihr euch euren langsameren Prozessor/zu teuren und gleichschnellen Prozessor ja irgendwie schön reden, um euch innerlich nicht schlechter zu fühlen.

Was mich wieder zu meiner Frage zurückbringt: Worum geht es denn, darum ob ein bestimmter Prozessor in einem bestimmten Preissegment für einen Interessenten einen guten Kauf darstellt, und seine Aufgaben schnell erledigt und schneller als ein anderer, gleichteurer Prozessor, und ob sich eventuell das ausgeben von deutlich mehr Geld für deutlich mehr Leistung, lohnt, oder nicht - oder darum wer von den beiden der King of Waterbeds im County ist, wenn..ja...wenn man noch 100€ mehr ausgibt, und sich die Mühe macht zu übertakten (weil 50% mehr zu bezahlen nur um einige undeutliche Prozent schneller zu sein befriedigt ja nicht wirklich, also muss man selber noch Hand anlegen wo die Intel Ingenieure aufgehört haben um sich selber zu einem ein paar mehr Prozent messenden Vorsprung zu verschaffen, man will ja das sich die 100€ extra, mit denen man auf ein gutes Date (who am I kidding? :evillol ) gehen könnte, auszahlen...nicht wahr...also warum nicht gleich den FX-8350 kaufen, wenn er deutlich schneller ist als der gleich teure i5-3xxx?

Ja, da sind wir wieder...gleich kommen die Vorwände und Ausreden welche als Gründe vorgehalten werden...zu hoher Stromverbrauch (immer wieder lustig, bauen sich 4-600 Watt Netzteile ein und heulen dann wegen ein paar Watt Mehrverbrauch rum...bring einfach eine deiner Monster Dosen zurück, und du hast deinen Mehrverbrauch wieder drin...)...also geht es wohl den meisten Herren hier nicht darum den schnellsten Prozessor für ihr Geld zu bekommen, sondern doch darum eine bestimmte Marke zu favorisieren und ihre, rein durch die Augen des Homo oeconomicus betrachtet, Fehlkäufe sich schön zu reden.

Was der 280€ i7-3770K könnte, wenn er noch höher übertaktet wird als das die Intel Ingenieure im stärksten Xeon E3 gemacht haben, ist für einen Käufer der um 180€ eine CPU sucht genauso wenig von Belang, wie es für die Kaufentscheidung eines Giulietta/Golf Käufers ist, wie schnell du einen Audi A3 Sportback mit dem Einbau eines V8 Motors machen kannst.



Dann kann man ganz genau sagen, wie groß der Unterschied zwischen den beiden CPU´s ist.

Nö, weil das niemanden interessiert. Was hab ich denn davon? Was interessiert ist, ob die FX-8350 (oder ihre kleinere Schwester, die FX-8230) für ihren Preis von ca. 178€ (bzw. 154€) für denjenigen, der sich eine CPU kaufen möchte, schneller in allerlei real-world Anwendungen ist, als die derzeit 10€ (bzw. 35€) teurere i5-3570K. Und die Antwort darauf siehst du in den Grafiken welche ich gepostet habe. Das sie dabei nicht nur deutlich schneller, sondern auch noch fast genauso schnell wie die derzeit 100€ teurere i7-3770K ist, ist einfach nur die Kirsche auf der Sahnehaube, welche der Vorteil für uns als schlaue Kunden ist. Ihr dürft gerne weiter Spenden an Intel zahlen weil ihr sie so gern habt, und überteuerte und gleichzeitig langsamere (i5-3 - bzw einfach nur maßlos überteuerte im Fall der i7) CPUs kaufen. Ich werde euch nicht davon abhalten. Aber ich hoffe das ich für all diejenigen, die einfach nur das beste für ihr Geld bekommen wollen, mehr Licht ins Dunkel, welches eure realitätskonträren Posts hier sind, gebracht habe.



Das AMD über den Takt versucht gegen Intel aufzuholen dürfte ja mittlerweile jeder verstanden haben.

a) Leg mal ne neue Platte auf, bis du nicht im Stande bist zu erklären was ganz genau du uns damit sagen willst.
b) Denkst du Intel würde das nicht auch gerne tun, wenn ihre Prozessoren es könnten? Intel verkauft dir diese Taktrate aber lieber für 1000€ in einem Xeon.



Das mehr Takt nichts extra kostet stimmt zwar nicht ganz, aber lassen wir das einfach einmal so stehen.

Ja, pass auf wie die Taktreserven aufgebraucht werden und wir bald Taktsteuer zahlen müssen, weil AMD den ganzen Takt aufbraucht. :rolleyes
Die Architektur der CPU ist so ausgelegt, dass sie bei normalen voltagen sehr hoch takten kann. Genauso wie die Architektur der Intel Prozessoren so ausgelegt ist, das sie starke FPU's und eine hohe Anzahl an IPC erzeugt.
Genauso wie die Architektur der Honda Motoren so ausgelegt ist, das sie sehr hoch drehen können, während die Architektur von Diesel Motoren so ist, das sie nur sehr niedrig drehen können. Um bei der Analogie zu bleiben, schau dir mal die Drehzahlen von Sportwagenmotoren an, die drehen alle über 8000, wo normale Motoren bei etwas über 6000 enden. Würde dir einfallen eine Rhetorik zu verwenden, dass Supersportwagen nur schneller sind weil sie so etwas verwerfliches tun wie eine höhere Motordrehzahl zu vertragen? "Ja, der M3 ist nur so schnell weil er bis 8500 dreht...wenn ich meinen Polo bis 8500 drehen würde, wäre ich auch so schnell!" ? Bitte... :rolleyes



Fakt ist aber, dass ein 3770K sich mit 4Ghz wunderbar und ebenso wie ein FX-8350 enorm untervolten lässt und auch keine Probleme damit hat so zu laufen. Somit hat Intel da enorme Reserven. Intel kann jederzeit einen 377XK raus bringen der gleich taktet und den selben Turbo hat wie der FX-8350 oder zweifelst Du daran_

Was kümmert mich das? Das hier ist doch kein Formel 1 Rennen.. "Wenn die von Mercedes die neue Flügelgeometrie von Ferrari kopieren, dann könnten sie auch nochmal zulegen und schneller sein und das Rennen gewinnen"...? Wenn der i7-3770K schon so überteuert für seine Leistung im Vergleich zum FX-3850 ist, was denkst du denn wird dann dein hypothetischer Prozessor sein? Billiger sicher nicht. Ups, gibt es ja schon, schau mal nach was ein Xeon E3 1290 mit 3,7 Ghz (immer noch nicht deine 4Ghz..) kostet...mind. nen Tausender. Geil oder? Kaufst du ihn dir gleich, so um endlich den 178€ FX-8350 mehr als 1-2% Hinter dir zu lassen und die Intel Dominanz zu Beweisen? :)


Fakt ist aber auch, das der FX-8350 sicher genauso wunderbar die alltäglichen Aufgaben abarbeitet wie eine Intel CPU

Absolut wunderbar lustig, wie hier immer wieder (in dem Beitrag schon dein zweites mal, das erste habe ich mal unkommentiert gelassen) zu einer herabsetzenden/schmälernden Formulierungsweise gegriffen wird, um, auch im Angesicht harter Fakten die das Gegenteil zeigen, AMD illustrativ unter Intel zu legen, und es so klingen zu lassen als ob sie langsamer wären. Was wie wir gesehen haben natürlich absoluter Quatsch ist. Da wird dem Leistungstechnisch führenden ein Zugeständniss gemacht er wäre ja nicht ganz so schlecht..als ob er's nötig hätte.

"Ja, ich bin ja unparteiisch, aber der..da...der wird sicher auch ganz wunderbar sein zum Surfen und so alltägliche Aufgaben erledigen wie eine Intel CPU, das wird er schon können" :rolleyes So tun, als ob er eine Atom Leistung und nicht eine höhere Leistung in realen Anwendungen hätte. Und das zieht sich hier durch den Thread wie ein roter Faden.

Absolut...wow...wie als ob ich mich mit irgendeinem der 10 Jahre Gehirnwäsche in Nordkorea hinter sich hat unterhalten müsste. Es ist einfach unglaublich, man sitzt mit offenem Mund da und fragt sich was bei dem wohl im Kopf los ist.

Faktisch richtig formuliert müsste es nämlich heissen:
"Fakt ist aber auch, das der i5-3570K sicher genauso wunderbar die alltäglichen Aufgaben abarbeitet wie AMD's FX-8350 CPU, bei rechenintensiven Anwendungen aber etwas langsamer ist und länger braucht"

Der FX-8350 putzt den in der selben Preisklasse befindlichen i5-3570K in echten Anwendungen nämlich weg wie der i5-3570K einen A10 zwei-Moduler.


und der vor dem Monitor sitzende nicht wirklich einen großen Unterschied merken wird. Von daher könnte man so eine CPU schon kaufen.

Eine absolute Komödie.

Man weiß wirklich nicht, ob man Mitleid empfinden oder, verblüfft ob der Verblendung und Selbsttäuschung, lachen soll.


Wenn man schon das passende Board hat mit einem AMD 6 Kerner drin, dann muss man sich überlegen, ob es sich lohnt den gegen einen FX-8350 zu tauschen. Lohnt sich das oder hat man dann mit der neuen CPU den erwünschten aha Effekt?

Wozu? Die 6-Kerner sind doch schnell genug für alles. Auch die i5 sind nicht großartig schneller das sich der Neukauf finanziell lohnt. Die halten, wenn man nichts großes wie eine Filmproduktion vor hat, locker bis mind. Steamroller/Haswell durch, erst da lohnt es sich evtl. aufzurüsten.


Welchen Intel Sandy oder Ivy Nutzer lockt der FX-8350 hinter dem Ofen hervor? Richtig, niemanden.

Vielleicht diejenigen, die an ihrem PC etwas zu Stande bringen wollen und nicht nur Computerspiele spielen? Für die Computerspiele reicht auch jeder i3(/Pentium ab Sandy)/PhenomII/FX-4xxx, wie hier immer wieder betont wird. Oder niemanden, weil er für die gar nicht gedacht ist, da diese ihre CPU erst dieses oder letztes Jahr gekauft haben, und daher (im normalen, vernünftigen Fall) noch gar nicht wechseln noch Grund dafür haben? Oder denkst du der Markt sind die Leute, welche jedes halbe Jahr ihre CPU wechseln? Dann wären sowohl Intel als auch AMD schon längst Pleite.

Ich selber benutze zu Hause noch einen AthlonII X4 640 und eine 4850 GS. Die paar Spiele die ich so spielen wollte (BF3, Max Payne 3, Deadlight, GTA4, irgendwelche neuen CoD und MoH) konnte ich alle ohne Probleme spielen, keine Ruckler, volle Auflösung meines PC Monitors (1680), gute Grafik. Sorry, vielleicht hatte ich keine Steinchen die physikalisch korrekt in 100 Meter Entfernung aus dem Textur-Aufkleber "Einschussloch" geflogen sind wenn sich eine Kugel dorthin verirrt hat, aber darauf habe ich keine Zeit/Lust zu achten. Einschusslöcher die bleiben waren vor ca. 13 Jahren interessant, Partikel die beim Anschiessen rumfliegen ca. im ersten Counterstrike an den Holztüren oder im ersten Max Payne. Ach, ich bin dir zu Casual und nicht Core genug? Sorry. Und ich Spiele nicht auf Low, sondern meistens auf High mit 1-2 Einstellungen auf Medium. Du kannst mir nicht erzählen das eine aktuelle High-End CPU, in Verbindung mit einer aktuellen Grafikkarte, nicht absolut flüssige Spielraten auch mit hohen Grafikeinstellungen hinbekommt. Ist alles Einstellungssache.


Schade ist die schlechte Single Thread Leistung und verbunden damit die Zocker Performance. Hier geht es auch nicht um 120FPS gegen 140FPS sonder hier geht es um FPS Einbrüche bei Situationen wo viel Aktion auf dem Monitor ist und es dann halt ruckelt, weil die CPU nicht mehr hinter her kommt.

Lustig. So was habe ich seit ich auf Dual Core umgestiegen bin nicht mehr gesehen. Was ich beim ersten Operation Flashpoint auf einem 500Mhz Celeron gelernt habe ist, das Spiele, deren maximale Grafikleistung über den Fähigkeiten meines Computers liegt, wunderbar laufen wenn man die Grafik etwas herunterschraubt. Vielleicht sollte "Stell mal die Schatten Details/AA/Texturdetails/Effektdetails eine Stufe runter" vorgeschlagen werden, bevor das Voluntäre Intel Verkaufsteam, das die Hardware-Boards des Internets bevölkert, sofort, wie ein Priester zu Zeiten des Ablaßhandels, dazu rät 300-500€ abheben zu gehen und sich einen i5 oder i7 zu kaufen?

Für das Geld eines i7 mit Board fliege ich nach New York und zurück...ich glaube daran habe ich mehr Spaß als an ein paar mehr Pixeln welche ich in der Hitze des Gefechts sowieso nie sehe. Aber leider haben hier manche wohl andere Prioritäten an Spaß in ihrem Leben, und denken diese auch immer jedem anderen der sich nicht auskennt und einfach nur in einem Forum wissen möchte was sich denn zu kaufen lohnt für sein Geld was er auszugeben plant, aufzwingen zu müssen, indem sie ihm eine Unsicherheit gegenüber AMD CPUs einreden und allgemein so ein Bild im Forum erzeugen, als ob Intel CPUs irgendwie absolut überlegen wären und AMD Prozessoren so viel langsamer sind das man sie nur aus völlig irrationalen Gründen kaufen könnte,und die Leute ständig zu Intel CPUs drängen. Während die zusammengetragenen Testergebnisse dem absolut widersprechen. Ich meine...was habt ihr davon im Leben? Fühlt ihr euch mit dem was ihr euch gekauft habt schlechter, wenn etwas anderes besser ist oder andere Leute etwas anderes kaufen als ihr, weil es für ihre Bedürfnisse viel besser ist?

Wenn Computerspiele dein absolut einziges und wichtigstes Anwendungsgebiet sind, dann kauf dir das womit du am besten denkst Spielen zu können. Aber tu nicht so, als ob das das ist, woran die Leistungsfähigkeit der CPUs gestaffelt wird. Ich habe dir schön die Leistungsfähigkeit der CPUs in realen Anwendungen, welche kostbare Zeit konsumieren um Arbeit zu verrichten und wo daher eine schnellere Erledigung der Arbeit das angestrebte Ziel ist, im absoluten Gegensatz zu Spielen, welchen freiwillig Zeit geschenkt wird ohne das diese dabei irgendwie für die aufgewendete Zeit oder Hardware bezahlt, gezeigt.

Ich habe auf meiner viel schwächeren CPU, mit DDR2 RAM und älterer Grafikkarte keine Ruckler, aber sicher, auf einer sehr viel schnelleren und neueren CPU, mit DDR3 RAM und irgendeiner wahrscheinlich 3 mal so Leistungsfähigen Grafikkarte gibt es Ruckelorgien...das liegt dann eher an deinen Einstellungen, aber okay. Es müssen 14xAA und 2500xirgendwas Auflösung auf 3 Monitoren sein, und das ist ja schließlich auch was für alle anderen Menschen zu gelten hat, was du unter Spielspaß verstehst. Wenn der Schatten nicht auf Ultra High ist, halbiert sich mein Spielspaß. Gott bewahre, ich kann doch nicht davon ausgehen das der, welcher um Kaufberatung fragt, auf nur EINEM Monitor spielen will und nichtmal weiß was Physx noch 8xAA ist. Aber natürlich liegt es an der Hardware...

Was den Umstieg auf Intel wegen Rucklern bei High-End Hardware aufgrund von Kompromisslosigkeit bei Grafikeinstellungen angeht...wenn das die Priorität im Leben ist, bitte. Aber der Aufwand das alte Motherboard und CPU zu verkaufen, mind. 150+€ draufzuzahlen für neue Intel CPU und MoBo, das ausbauen und einbauen.... ich finde es da viel leichter einfach kostenlos die Schatten von Ultra auf Mittel und AA von 8x auf 4x zu stellen und es damit hinter mir zu haben, und das Geld und die Zeit für andere Dinge zu verwenden, an denen ich mehr Spaß im Leben habe als an einer um nuancen "besseren" Grafik welche ich überhaupt nicht bemerke. Allein der Prozess dauert doch länger, als die meisten Spiele heutzutage...

Dazu nochmal dieser schöne Artikel:
http://www.techradar.com/news/computing/pc/can-a-300-gaming-pc-compare-to-a-3000-one-1071338/page:3#articleContent

Casi030
26.10.2012, 09:40
.

Beispiele gibt es genug, wo Leute in der Kaufberatung von AMD auf Intel umgestiegen sind und die Ruckler waren weg. Ließt man diese Threads einmal aufmerksam, dann findet man dort das Unverständnis vieler Leute, die mit aller Gewalt diese Ruckler woanders vermuten, als bei der CPU.
Ich kenne sehr viele, die hier und in anderen Foren von einem AMD auf einen Intel umgestiegen sind und diesen Whow Effekt hatten. Aus AMD Nutzer Sicht ist das aber alles Phantasie und die haben doch alle keine Ahnung. Das finde ich einfach so traurig.


Das sind die Besten Beispiele.
Mein AMD ruckel in einem Spiel......
Antwort,Sofort auf Intel wechseln....

Kurze Zeit Später meldet sich der gleiche wieder,ein anderes Spiel ruckelt jetzt......

Antwort,liegt am Spiel....
Aber davor lief es mit ner AMD CPU doch flüssig.....

Antwort,....offen....

Sowas ist Traurig...das die Leute mit Intelschrott verarscht werden in Foren.

MrTengu
26.10.2012, 09:48
@MikelMoto: Toleranz ist sehr gut :)

Warum kommen Aussagen wie "AMD Prozessoren sind überflüssig, sind scheiße", wenn das einfach nicht stimmt?

Was das Ruckeln angeht, die CPU ist sicher nicht für Ruckler im Spiel verantwortlich. Es gibt tausende Möglichkeiten bei einem PC, warum eine Software nicht so läuft wie sie soll. Die CPU ist so gut wie nie schuld. Meist sind es Chipsatzprobleme, einige Leute haben nicht mal einen Treiber installiert. Fehlerhafte RAM Module, Hintergrundprozesse. Bei Videoencoding kommt es noch auf die Codecs an. Bei Spielen Treiber. Und und und. Solche Dinge sind zu prüfen, wenn man wirklich an die Ursache will. Wir haben für sowas Diagnosesoftware entwickelt, du glaubst nicht was die Leute alles auf ihrem Rechner anstellen und sich dann wundern, warum etwas nicht geht. Selber schuld sind sie natürlich nie, das würde keiner zugeben. Interessant: Frauen geben eher Fehler zu als Männer.

Lübke
26.10.2012, 09:49
@MikelMolto: wieso müssen die cpus den gleichen takt haben? die haben unterschiedliche architekturen. intel baut auf ipc und amd auf takt. du hast beim thema verbrauch ja auch die messwerte einer 4 ghz cpu mit einer 3,5 ghz cpu verglichen ;)

N.t.H.
26.10.2012, 10:37
^
So ists richtig :D

Ne kleine Frage, auch wenn sie vielleicht schon x-Mal gestellt wurde. :evillol

Wird Steamroller auch auf den Sockel AM3+ setzen?
Wenn ja, überlege ich mir mit ziemlicher Sicherheit ein FX-6300-System zusammenzustellen

Dann würde ein FX-System auch für viele andere Spieler und Anwender attraktiver werden als jetzt schon :)

y33H@
26.10.2012, 10:45
Für die Computerspiele reicht auch jeder i3(/Pentium ab Sandy)/PhenomII/FX-4xxx, wie hier immer wieder betont wird.Reichen oder ausreichend ist nun mal Note 4, also kurz vor mangelhaft - ich persönlich finde ausreichende Leistung, welche den Spielspaß deutlich mindert nicht unbedingt erstrebenswert in meiner geringeren Freizeit.

Und wenn hier alle lustige Bildchen posten, hier auch noch eins:

http://semiaccurate.com/assets/uploads/2012/10/Nexuiz.png

Herdware
26.10.2012, 10:53
@MrTengu
Es gab vor einiger Zeit einen sehr interessanten Artikel über den Einfluss der CPU auf aktuelle Spiele. (Ich finde die Website leider gerade nicht wieder. :( )

Die haben sich nicht damit zufrieden gegeben, wie üblich Durchschnitts-FPS oder auch Minimum und Maximum anzugeben, sondern haben genau angegeben, wie oft und lange die FPS unter bestimmte Grenzerte (60FPS, 40FPS usw.) gefallen sind.
Dabei hat man bei einigen Spielen einen sehr großen Unterschied zwischen AMD und Intel gesehen.
Da kamen bei AMD schnell einige Sekungen mit spührbar niedrigen Framerates (<30-40FPS) zusammen, auch bei Spielen, wo die Durchschnitts-FPS insgesamt deutlich über 60 liegen oder die unterm Strich offensichtlich klar GPU-limitiert sind. Eben in Szenen, wo nicht wie sonst fast immer die GPU limitiert, sondern zwischenzeitlich doch mal die CPU stark gefordert wird.

Die Welt ist nicht Schwarz und Weiß. Auch das schlimmste grafiklastige Spiel ist nicht zu 100% GPU-limitiert, sondern z.B. nur zu 90% und das bedeutet, dass die Framerate bei einer schwächeren CPU z.B. alle 1,5 Minuten für eine Sekunde doch spührbar einbricht (oder alle 3 Minuten für 2 Sekunden usw.).

Es kommt natürlich immer auf die eigenen Ansprüche an, aber ich als alter PC-Gamer möchte wenn irgend möglich ein durchgehend flüssiges Spielerlebnis haben. Wenn ich mich mit weniger zufrieden geben würde, könnte ich mir auch eine billige Spielkonsole zulegen.
Nur um im gegenüber einer Konsole zwangsläufig teuren Spiele-PC dann doch wieder ein paar Euro an der CPU zu sparen, mache ich da keine Kompromisse.

@ Lübke
Ein Vergleich bei gleichem Takt ist aus mehreren Gründen ebenso interessant, wie einer auf jeweiligen Standardtakt oder ein Vergleich nur von CPUs auf dem selben Preisniveau usw.

Damit beleuchtet man jeweils verschiedene Aspekte. Beim Vergleich unter Berücksichtigung des Preises spielen dann auch Faktoren mit rein, wie die Preispolitik der jeweiligen Hersteller, die oft nur indirekt etwas mit den technischen Leistungen der CPUs zu tun hat.
Der Standardtakt ist ebenfalls oft zum Teil eine "politische" Entscheidung, keine rein technisch bedingte.

Ich denke, es zweifelt niemand ernsthaft daran, dass Intel Ivy Bridge-CPUs mit exakt den selben Standardfrequenzen anbieten könnte, wie die Vishera-FX, oder sogar noch mehr, ohne dabei beim Verbrauch hinter die AMD-CPUs zurückzufallen.
Dass Intel das nicht tut, liegt daran, dass sie es, anders als AMD, derzeit nicht nötig haben an die Grenzen des für sie technisch Möglichen zu gehen.

Das mag für den Otto-Normalkunden (der nicht übertaktet) erstmal direkt nicht so interessant sein. Für uns Computer-Interessierte aber durchaus, denn das bedeutet z.B., dass wenn AMD es schaffen sollte, den Forsprung von Intel irgendwie aufzuholen, Intel dann einfach einen Gang (z.B. ein GHz) zulegen und wieder davon ziehen könnte.

Tammy
26.10.2012, 10:56
@Herdware
Ich erinnere mich an diesen Test, finde ihn auch nicht wieder, möchte aber betonen dass dort auch Szenarien vorkamen, in denen die AMD Sechskerner gleichmässigere und bessere FPS geliefert haben als die Konkurrenz von Intel.
Darüberhinaus ist die subjektive Wahrnehmung doch das wirklich wichtige wenn es um das Thema Spielbarkeit geht und die vermag i.d.R. nicht zu sagen, auf welchem System man gerade spielt.

boxleitnerb
26.10.2012, 10:58
Den Einfluss der Grafikkarten eliminiert man durch die Wahl einer Spitzenkarte, die hypothetischen Werte in unrealistischen Szenarios versehen mit einem Kommentar wie dem des Redakteurs sind Kaffeesatzleserei, was die zukünftigen Anforderungen in Spielen angeht.

Gerade die Ankündigungen zur nächsten ATI Generation, welche auf verminderte Leistungsaufnahme setzt und nicht auf grosse Performancegewinne zeigt, dass derlei Tests sinnfrei sind und wertende Kommentare als unsachlich erscheinen lassen.

Wie gesagt, sonst gefällt mir der Test, sieht man davon ab und von den "einzigartigen" Ergebnissen bezüglich Leistungsaufnahme.

Falsch. Das klappt in manchen Spielen, in anderen weniger, in wieder anderen gar nicht. Da wir nicht alle Spiele in unterschiedlichen Auflösungen testen wollen, machen wir es gleich richtig und nehmen den kleinsten gemeinsamen Nenner.

Tammy
26.10.2012, 11:05
Falsch. Das klappt in manchen Spielen, in anderen weniger, in wieder anderen gar nicht. Da wir nicht alle Spiele in unterschiedlichen Auflösungen testen wollen, machen wir es gleich richtig und nehmen den kleinsten gemeinsamen Nenner.

Was ist daran gleich richtig, wenn die Szenarien sich von Spiel zu Spiel massiv ändern?
Klar kann man so eine Art Vergleich ohne empirischen Wert erstellen, dann aber sollte daraus keine wertende Aussage eines Redakteurs den "Test" entwerten.


Zusammengefasst ist der FX-8350 eine schnelle CPU, die ihre Vorteile in Anwendungen ausspielt und entgegen bisherigen Prozessoren von AMD in Spielen nicht mehr so einen eklatanten Rückstand aufweist, wie er bisher an der Tagesordnung war.

Dieser Satz ist sachlich falsch und darf so als wertender Kommentar niemals in einem unabhängigen Test stehen. Der "Rückstand" ist mit normalen menschlichen Fähigkeiten i.d.R. nichtmal zu erahnen und nur auf Balken von nerdigen FPS Tabellen zu erkennen und darüberhinaus nichtmal in jedem Spiel existent.

Dazu kommt der Passus "bisherigen Prozessoren von AMD", welche aber lustigerweise, je nach Generation, die bessere Spieleperformance gebracht haben, welche teilweise auch abseits von statischen Tabellen erkennbar war.

Lübke
26.10.2012, 11:22
@Herdware: die cpus gleichtakten ist ganz nett um zu sehen, welche die höhere ipc hat (das ergebnis kann ich dir übrigends schon verraten: es ist der ivy ;)).
nur ist das kein wirkliches argument und hat wenig aussagekraft. wenn man auf der einen seite sagt, intel kann man übertakten, muss man auf der anderen seite auch sagen, amd kann man untervolten. auch amd kann man übertakten (und zwar weiter als intel, rekord ivy: ~7,1 ghz, rekord bulli ~8,7 ghz). und ja intel kann deutlich billiger produzieren als amd und fährt dicke margen ein, wärend amd kämpfen muss, sich über wasser zu halten. das sind alles ganz nette infos, nur nützen die ca 98 % aller pc-nutzer nichts, da sie einen pc kaufen, den ladenpreis und nicht die herstellungskosten zahlen, den werkstakt und die werks vcore nutzen.

der vergleich aus dem test ist also vollkommen in ordnung. klar kann man alles verändern. bei mir läuft kaum eine cpu mit werkseinstellungen. entweder deutlich übertaktet und übervoltet oder deutlich untertaktet und untervoltet. nur wie willst du das dann noch vergleichen?

boxleitnerb
26.10.2012, 11:43
Was ist daran gleich richtig, wenn die Szenarien sich von Spiel zu Spiel massiv ändern?
Klar kann man so eine Art Vergleich ohne empirischen Wert erstellen, dann aber sollte daraus keine wertende Aussage eines Redakteurs den "Test" entwerten.



Dieser Satz ist sachlich falsch und darf so als wertender Kommentar niemals in einem unabhängigen Test stehen. Der "Rückstand" ist mit normalen menschlichen Fähigkeiten i.d.R. nichtmal zu erahnen und nur auf Balken von nerdigen FPS Tabellen zu erkennen und darüberhinaus nichtmal in jedem Spiel existent.

Dazu kommt der Passus "bisherigen Prozessoren von AMD", welche aber lustigerweise, je nach Generation, die bessere Spieleperformance gebracht haben, welche teilweise auch abseits von statischen Tabellen erkennbar war.

Fändest du es dann gut, wenn manche Spiele in 1080p, andere in 720p, manche mit AA/AF, andere ohne AA/AF getestet werden? z.B. sowieso sehr CPU-lastige Spiele wie Arma 2 werden dann nur in 1080p mit AA/AF gebencht, weil sich die fps eh nicht ändern und man daher die Bildqualität ohne Konsequenzen für die Performance erhöhen kann. Der Redakteur muss ja erstmal pro Spiel herausfinden, in welchem fps-Bereich mit welchem Setup (Grafikkarte kann sich ja durchaus mal ändern) er sich bewegt und dann eine Auswahl treffen. Nach seinen Kriterien, die wieder subjektiv sind.

Ne, das ist doch Käse hoch drei. Ich hab lieber maximale Informationen, und die irrelevanten Datensätze (wo selbst ein FX8150 im Worst Case 100+ fps schafft) klammere ich dann selbst gedanklich aus, danke schön :)

Wo ich dir aber zustimme, ist die Sache mit dem pauschalisierenden Fazit. Das könnte man anders formulieren. Allerdings muss man auch Folgendes beachten:

Manche spielen praktisch nur GPU-lastige Titel, andere eher CPU-lastige, wieder andere spielen einen Mix. Der Test richtet sich dummerweise ohne Präferenz an alle diese Leute. Zudem weiß man ja nie, was man vielleicht nächsten Monat spielt. Zu einem gewissen Grad hin ist so eine Pauschalisierung deshalb schon angebracht. Ich mag heute Alien vs Predator mit einem FX spielen und kein Problem haben, morgen bekomme ich aber Shogun 2 oder Arma II geschenkt und dann steh ich blöde da. So ein Risiko wollte ich bestimmt nicht eingehen.

Herdware
26.10.2012, 11:44
@ Lübke

Wie gesagt meinte ich damit nicht so sehr die Möglichkeiten für den Kunden, die CPUs zu übertakten oder zu undervolten. Es geht mir um das grundsätzliche technische Potential der CPUs bzw. der Architekturen und der Herstellungsprozesse.

Das Argument, dass AMD seine CPUs auf höheren Takt statt höherer IPC hin designt hat, zieht nicht wirklich, wenn man durch solche Versuche herausfindet, dass man einen IVB locker genauso hoch oder sogar höher takten kann und sich noch weiter absetzt.

Das Intel das nicht standardmäßig tut, liegt nicht daran, dass sie an technische Grenzen stoßen, sondern dass sie es "marktpolitisch" nicht nötig haben.
Intel lässt sich absichtlich Luft nach oben, denn selbst wenn AMD auch in Zukunft kein gefährlicher Konkurrent sein sollte, das "Intel von Gestern" muss immer übertrumpft werden.

Würde Intel jetzt ohne Not einen IVB mit z.B. 4,5GHz Standardtakt bringen, würden sie sich nur die Hürde für die nächste Generation, die das wiede rübertrumpen muss, höher legen.

Tammy
26.10.2012, 11:49
@boxleitnerb
Das vB und phpBB lesen doch aus, mit was die Leute hier surfen, sprich Auflösung und Co, also könnte man für die hier angesprochene Klientel durchaus massgeschneidert ein Fazit ziehen, auch wenn sicher manche Arbeitsplatzrechner die Statistik leicht verfälschen.

Besser als ein Pauschalrundumschlag gegen eine ganze Firma, die obendrein sachlich falsch ist, wäre das allemal ;)

boxleitnerb
26.10.2012, 11:56
Von sowas halte ich gar nichts, das ist Profiling und Verletzung des Datenschutzes obendrein ;)

Wenn wir mit sowas anfangen, testen wir dann auch nur noch Mainstreamspiele, die für 90% der Nutzer relevant sind. Prost Mahlzeit. Ist es denn soviel verlangt, dass die Leser ihr Hirn anschalten und das Profiling entsprechend ihres Systems, ihrer Spielevorlieben und ihrer fps-Ansprüche selbst machen?

Vielleicht sollte man das Fazit einfach viel kürzer machen, die Ergebnisse sprechen schließlich schon für sich selbst. Da hätte ich nichts dagegen.

marecar
26.10.2012, 12:11
Reichen oder ausreichend ist nun mal Note 4, also kurz vor mangelhaft - ich persönlich finde ausreichende Leistung, welche den Spielspaß deutlich mindert nicht unbedingt erstrebenswert in meiner geringeren Freizeit.

Und wenn hier alle lustige Bildchen posten, hier auch noch eins:

http://semiaccurate.com/assets/uploads/2012/10/Nexuiz.png

40 FPS sind nix mit ruckeln.

Von diner Quelle direkt unter deinem Bildchen:


Overall both processors provided totally playable experiences, but the 3770K had the edge over AMD’s FX.

Looking back at our article on Trinity, we noted that that chip offers approximate 60 percent of the CPU performance that the 3770K could muster. Well using the same methodology, AMD’s FX-8350 offers 91 percent of the performance that a 3770K on an equally configured platform can bring to the table.

The strength of AMD’s FX processor is its modular approach which allows it perform well in multi-threaded applications. Of course the obvious caveat to this is that single threaded performance, while better than Trinity, still pales in comparison to what Intel is offering. The one saving grace of AMD’s second generation FX chips is an aggressive pricing structure. When it launched the FX-8150 had a MSRP of $245, of course this price quickly dropped, but this time around AMD is getting even more aggressive by set the initial MSRP for the new FX-8350 at only $195. If we were to look at this from a performance per dollar perspective AMD is offering 9/10th of the aggregate processing power of a 3770K for less than 2/3rd of the cost. Which seems like a pretty compelling value play.

[...]


Anyway you slice it, AMD is getting more aggressive with its pricing structure and this looks to be a boon for desktop value seekers. When it comes to performance per dollar AMD’s FX chips look like a clear winner

http://semiaccurate.com/2012/10/22/amds-second-generation-fx-processor-vishera/

Lustig ist auch, das sie ihn mit dem deutlich teureren i7-3770K vergleichen, anstatt dem preislichen Konkurrenten i5-3xxxK. Aber zumindest wird dadurch auch die Frage beantwortet, welcher Prozessor (FX-8 oder i5) mehr für unter 200€ bietet.

Lübke
26.10.2012, 12:15
@Herdware: befasse dich mal mit der architektur des bulldozer/vishera, dann siehst du was ich meine. die prioritäten wurden beim design (wie bei netburst z. b. auch) auf hohes taktpotential gelegt und abstriche in anderen bereichen gemacht.
hier kannst du sehen, wieviel potential in welcher architektur steckt, wobei man sagen muss, dass sehr viel mehr sandys und ivys gebencht wurden als bulldozer, ist also nur bedingt representativ, aber das ergebnis spricht wohl für sich:
http://hwbot.org/benchmark/cpu_frequency/rankings#start=0#interval=50
da sind alle architekturen vertreten.

das alles sagt nichts darüber aus, wer besser wäre, wenn amd und intel den gleichen desingansatz verfolgt hätten. für amd kann ich nur hoffen, dass sie schnell begreifen, dass der ansatz auf takt zu optimieren, nicht ideal ist. für mich persönlich als übertakter hoffe ich natürlich, dass es immer einen netburst oder bulldozer gibt, damit ich meinen spass haben kann ;)

Tammy
26.10.2012, 12:24
Von sowas halte ich gar nichts, das ist Profiling und Verletzung des Datenschutzes obendrein ;)
Wenn wir mit sowas anfangen, testen wir dann auch nur noch Mainstreamspiele, die für 90% der Nutzer relevant sind. Prost Mahlzeit. Ist es denn soviel verlangt, dass die Leser ihr Hirn anschalten und das Profiling entsprechend ihres Systems, ihrer Spielevorlieben und ihrer fps-Ansprüche selbst machen?

Vielleicht sollte man das Fazit einfach viel kürzer machen, die Ergebnisse sprechen schließlich schon für sich selbst. Da hätte ich nichts dagegen.


Dann lies dir mal durch, was du bei dem Beitritt in ein Forum standardmässig akzeptierst.

Es geht um Prozente, nicht um Namensnennung und das ist nicht im Geringsten konträr zu deutschem Recht ;)
Und eines ist sicher, das was du dort als Schreckensszenario darstellst ist das, was bereits geschieht und sicher in Zeiten sozialer Portale, mag man von ihnen halten was man mag, noch ausgebaut wird.

Man sollte ein Fazit stets auf die aktuelle Situation unter relevanten Bedingungen beziehen und es sollte bar jeder eigenen Meinung sein, für so etwas gibt es Kolummnen.

pipip
26.10.2012, 12:25
Lübke

die cpus gleichtakten ist ganz nett um zu sehen, welche die höhere ipc hat
Nicht nur das.
Ich hab das Gefühl dass viele glauben, dass Intel hauptsächlich durch ihrer Architektur glänzt und AMD hauptsächlich während ihrer Bulldozer Architektur stinkt.

AMD hat gezeigt dass man mit dem Modul-Konzept für den Desktop optimiert (siehe Trinity) Prozessoren entwickeln kann, die eigentlich auch glänzen.
Klar der Verbrauch ist höher verglichen zum i3. Man hat aber mehr oder weniger die Performance des i3 erreicht (mal mehr mal weniger). Leider spielt hier die Software noch nicht ganz so mit.

Tatsache ist, die Prozessoren von Intel kommen deshalb so gut rüber, weil Intel einfach die bessere Fertigung hat. Ich spreche jetzt gar nicht mal von der 22nm Fertigung. Nein ich spreche von der 32 nm Fertigung die immer noch wesentlich besser ist, als die 32nm Fertigung von GF. Eventuell bringt SoI in dem Prozessor schon mehr Nachteile als Vorteile. Deshalb auch der Wechsel auf 28 Bulk und nicht mehr 28 SoI.

Ich kann mir gut vorstellen, hätte ein SB bsp die Fertigung von GF, würde man nicht so einen hohen Takt realisieren können. vllt hätte man bei 95 watt tdp dann nur mehr die 3 ghz erreicht ?
Was dann, dann würde die AMD Architektur auf einmal gar nicht mehr so schlecht aussehen.

Es ist klar, es ist was wäre wenn, aber wenn man schon Ghz mit Ghz vergleicht, kann man auch vergleichen wieso AMD gewisse Ziele erfolgt hat.
Tatsache ist, AMD hat trotz schlechtere Fertigung, trotz weniger Geld mit ihrer Architektur, mehr Neuheiten, mehr Potential auf den Markt gebracht als Intel mit IB. Vieles zieht Intel erst mit HSW erst nach.
Und ich spreche nicht von der igp, lol, übrigens wird da hauptsächlich auch nur aufgebohrt.

Fraglich ist nur, ob die schlechtere Fertigung auch ein Grund gewesen war, auf längere Pipeline und höheren Takt zu optimieren.
Ich persönlich glaube aber nicht daran, dafür arbeitet man schon zu lange. Es ging fix um mehrere Threads und Module die eben platzsparender und flexibler sind als ein herkömmlicher Dualcore.
Ich kann mir gut vorstellen, selbst wenn AMD die gleiche Fertigung wie Intel hätte, hätte man sich für so ein Design entschieden.
Es kann gut sein, dass man sich trotzdem Anfangs auf Server gerichtet hätte und genauso später ein Steamroller Design auf den Markt gebracht hätte, der sich wieder mehr auf die Desktop-Bedürfnisse eingeht. Bulldozer hat für den Server trotz niedrigerer IPC aber völlig ausgereicht und kann auch überzeugen.
Ein Bulldozer auf Intel Fertigung, könnte eventuell einen höheren Takt bei gleichen Verbrauch haben.
Das fördert zwar dann die Meinung, AMD braucht mehr Takt, aber bei gleichen Verbrauch wäre das zum Beispiel egal

Es kann gut sein, dass AMD Prozessoren verglichen zu SB/IB in den nächsten Jahren mehr Software Unterstützung bekommen, FMA, XOP, oder einfach multicore, und dann auf einmal wesentlich besser abschneiden können. Dann ist der Verbrauch auch nicht mehr so schlimm, wenn man auf einmal mehr Performance nutzen kann.
Deshalb ergibt ja Bulldozer im Server-Sektor ein anderes Bild. Hier wird ständig optimiert und man kann neue Errungenschaften schon nützen.

Man kann nur hoffen dass Steamroller die IPC Performance tatsächlich hebt. Kann mir aber gut vorstellen dass 2 decoder auch in Multicore-Anwendungen mehr Performance bringen können.

Übrigens ein guter Beweis, dass die Software einfach nur nicht mit FX richtig umgehen kann ist der. Dreht doch mal CMT ab und taktet höher. Auf einmal wird der 4M/4T wesentlich geeigneter zum Gamen sein.
Deshalb wollte AMD beinahe schon einen FX 4200 auf den Markt bringen. Aber man würde sich ins eigene Fleisch schneiden, denn immerhin will man ja CMT fördern und sich mal weiterentwickeln.

Klar kann man meinen eine Verbesserung der Verbesserung bringt mehr Performance, aber ob sie auch mehr Performance bringt als eine neue Entwicklung die für die Zukunft flexibler ist, ist fraglich.
Intel kann sicherlich ULV oder Prozessoren mit einem hohen Turbo Prozessoren anbieten, nicht weil die Architektur 100% dafür ausgelegt ist, sondern weil die Fertigung einfach es erlaubt.

Ich finde es immer lustig zu sehen, wie manche sich aufregen, dass Prozessoren kaum schneller werden. Ja weil es ja kaum Erneuerungen gibt, sondern immer nur versucht wird etwas mehr Performance rauszuholen, als ob man eine Orange pressen würde. Solange aber genug Leute von Generation zu Generation wechseln, und die Prozessoren kaufen, wird sich kaum was ändern.
Intel optimiert sicherlich nicht nur auf weniger Verbrauch, weil sie so umweltfreundlich sind, sondern weil es wesentlich einfacher ist als die IPC noch mal enorm zu heben, oder neue Konzepte ohne Rückschläge einzuführen.

Es stellt sich nun die Frage, wer ist die Melkkuh, Intels Prozessor Architektur oder wir Kunden.

Ich sag nur mal, solange Intel sich auf der Spitze der S-Kurve ausruhen kann, werden sie verglichen zu AMD kaum was neues auf den Markt werfen.
Eventuell machen sie das schon dank AMD, man siehe HSW mit enorm aufgebohrter Grafik.

Lübke
26.10.2012, 12:28
@Tammy: bitte bleibt beim thema. datenschutz in foren etc. gehört nicht in einen cpu-testartikel.

boxleitnerb
26.10.2012, 12:29
Dann lies dir mal durch, was du bei dem Beitritt in ein Forum standardmässig akzeptierst.

Es geht um Prozente, nicht um Namensnennung und das ist nicht im Geringsten konträr zu deutschem Recht ;)
Und eines ist sicher, das was du dort als Schreckensszenario darstellst ist das, was bereits geschieht und sicher in Zeiten sozialer Portale, mag man von ihnen halten was man mag, noch ausgebaut wird.

Man sollte ein Fazit stets auf die aktuelle Situation unter relevanten Bedingungen beziehen und es sollte bar jeder eigenen Meinung sein, für so etwas gibt es Kolummnen.

Mag alles sein. Aber so eine Vorauswahl von Einstellungen, die für manche Spiele bzw. Personen wertvolle Informationen gar nicht erst erfassen, geht gar nicht. Die Masse mag in 1080p spielen, das ändert nichts an unterschiedlichen Präferenzen bzgl. fps und auch nichts an der Tatsache, dass mit so wichtige Fälle unter den Tisch fallen würden.

Was CB meiner Meinung nach tun müsste:

1. Ratings hintenanstellen, Einzeltests nicht am Schluss verstecken
2. 640x480 (4:3) mit 720p (16:9) ersetzen
3. Fazit drastisch kürzen und aufs Wesentliche beschränken.

y33H@
26.10.2012, 12:58
40 FPS sind nix mit ruckeln.Du hast deutliche Fps-Drops, welche die Spielbarkeit klar negativ beeinflussen - gerade bei einem so schnellen Shooter versaut das einem Aiming und Movement.

Lustig ist auch, das sie ihn mit dem deutlich teureren i7-3770K vergleichen, anstatt dem preislichen Konkurrenten i5-3xxxK. Aber zumindest wird dadurch auch die Frage beantwortet, welcher Prozessor (FX-8 oder i5) mehr für unter 200€ bietet.Ob i7-3770K oder i5-3570K ist in Spielen nahezu irrelevant. Selbst der i5-3470 ist nicht großartig langsamer und kostet so viel wie der FX-8350 und ist für Spiele und gemischte workloads besser geeignet.

Casi030
26.10.2012, 13:02
Fändest du es dann gut, wenn manche Spiele in 1080p, andere in 720p, manche mit AA/AF, andere ohne AA/AF getestet werden? z.B. sowieso sehr CPU-lastige Spiele wie Arma 2 werden dann nur in 1080p mit AA/AF gebencht, weil sich die fps eh nicht ändern und man daher die Bildqualität ohne Konsequenzen für die Performance erhöhen kann. Der Redakteur muss ja erstmal pro Spiel herausfinden, in welchem fps-Bereich mit welchem Setup (Grafikkarte kann sich ja durchaus mal ändern) er sich bewegt und dann eine Auswahl treffen. Nach seinen Kriterien, die wieder subjektiv sind.

Ne, das ist doch Käse hoch drei. Ich hab lieber maximale Informationen, und die irrelevanten Datensätze (wo selbst ein FX8150 im Worst Case 100+ fps schafft) klammere ich dann selbst gedanklich aus, danke schön :)

Wo ich dir aber zustimme, ist die Sache mit dem pauschalisierenden Fazit. Das könnte man anders formulieren. Allerdings muss man auch Folgendes beachten:

Manche spielen praktisch nur GPU-lastige Titel, andere eher CPU-lastige, wieder andere spielen einen Mix. Der Test richtet sich dummerweise ohne Präferenz an alle diese Leute. Zudem weiß man ja nie, was man vielleicht nächsten Monat spielt. Zu einem gewissen Grad hin ist so eine Pauschalisierung deshalb schon angebracht. Ich mag heute Alien vs Predator mit einem FX spielen und kein Problem haben, morgen bekomme ich aber Shogun 2 oder Arma II geschenkt und dann steh ich blöde da. So ein Risiko wollte ich bestimmt nicht eingehen.

Dann Testet doch mal Vernünftig!
Schaut euch um,der Großteil dürft bei 1920x1080 angekommen sein.
Die Einstellungen werden Halbiert,wos max 8AA sind,werden 4AA Eingestellt.....Hab ich 5 Quallistufen,wird mittel genommen.....
Pickt euch nicht die ungünstigste AMD Stelle raus für 10s,sondern verwendet 3-6 Stellen mit 60s wie z.b. der Resident Evil Bench.......Stalker Bench....Alien vs Predator.....
Ihr wollt zeigen wie gut die CPUs sind,2 Grakas wie ne 7870 und ne 7970 sagen 100% mehr aus als euer Augenkrebs gewäsch aller 800x600.

y33H@
26.10.2012, 13:27
Zwei Grafikkarten sorgen für Mikroruckler, mehr CPU-Load und diverse Fuckups. 720p mit maximalen Details ohne AA/AF sind ideal um CPUs zu testen.

Pickt euch nicht die ungünstigste AMD Stelle raus für 10sGlaubst du ernsthaft ein Reviewer setzt sich stundenlang hin um eine Stelle zu finden, die möglichst schlecht auf AMD läuft? Sorry, aber wer solche Gedanken hegt, ist leicht paranoid.

Casi030
26.10.2012, 13:38
Wiso willst im Crossfire Benchen,hat doch kaum einer...?

Achso,wenn du ein Spiel Bencht dann setzt dich an den Rechner und sagst was?
Ich Benche Ab Anfang?!
Ich Benche nach genau 5min!?
Wie Bencht?

Unyu
26.10.2012, 13:41
Interesanterweise ist das Gejammer über den 4,5Ghz i7 bei Grafikkartentests ungleich geringer.

Bei CPU Tests ist es wohl unangenehm, zu sehen wie lahm manch ein Teil wirklich ist, darum die Forderung nach gleich langen Balken für Celeron und i7.

Ulukay
26.10.2012, 13:44
Sowas ist Traurig...das die Leute mit Intelschrott verarscht werden in Foren.

Stimmt vollkommen. Brauchst dir nur die "Guild Wars 2 Ruckelt" Thread ansehen.

"Ach du hast einen Bulldozer, na so kann das ja garnicht fluessig laufen, du musst auf intel wechseln"

:kotz: :kotz:

Ich HABE einen 3570k der auf 4,9ghz uebertaktet ist, bei World vs World bricht die Framerate auf bis zu 18fps ein. (die GPUs langweilen sich dabei zu Tode!) Jetzt ist dann ploetzlich doch NUR das Game schuld?

Jesterfox
26.10.2012, 14:54
720p mit maximalen Details ohne AA/AF sind ideal um CPUs zu testen.

Ein Test mit 1080p und mittlerem AA ist aber trotzdem nicht uninteressant um zu sehen wie sich die CPUs in einem realeren Umfeld schlagen. Meine Erfahrung zeigt nämlich das schlussendlich immer das Gesamtpaket die performance ausmacht und selbst im "GPU-Limit" sich ein Unterschied ergeben kann. Das sieht man nur über reale Benchmarks. Der Test mit niedriger Auflösung ist natürlich trotzdem gut um zu sehen wie die CPU mit einem spieletypischen Workload umgeht und wie viel Reserve für neuere Games zu erwarten ist.

Also am besten immer niedrige und hohe Auflösung benchen.

y33H@
26.10.2012, 15:04
1080p-Benches mit AA zeigen idR nur, wann welche Grafikkarte welche CPUs limitiert. Für einen CPU-Kaufberatung ist das halt nicht wirklich zielführend.

Tammy
26.10.2012, 15:16
1080p-Benches mit AA zeigen idR nur, wann welche Grafikkarte welche CPUs limitiert. Für einen CPU-Kaufberatung ist das halt nicht wirklich zielführend.

Und eine 640x480 Testreihe ist ebensowenig zielführend.

Jesterfox
26.10.2012, 15:26
Man sieht auch im GPU-Limit Unterschiede (auch wenn sie meist nicht besonders groß sind). Die kommen zwar nicht unbedingt von der CPU sondern oft eher vom Chipsatz / der Platform, aber man bekommt ja beides immer im Bundle, ein Vishera läuft etwas schlecht auf nem Z77 Mainboard ;-)

Man muss halt die Ergebnisse interpretieren können...

Tammy
26.10.2012, 15:32
Man muss halt die Ergebnisse interpretieren können...

Korrekt, deswegen ist der Satz des Redakteurs in Verbindung mit der Art der Testreihe der Grund, warum hier so viele Seiten mit Kommentaren vollgepostet wurden, von denen die meisten durch derlei Populismus entstehen.

Lübke
26.10.2012, 15:33
y33h@ hat schon recht, es geht nicht darum, ein gesamtpaket zu testen, sondern es geht explizit um die cpu. dass heute jede moderne cpu für nahezu jede verwendung mehr als genug leistung liefert, ist denke ich auch so bekannt. es geht aber darum, welche cpu schneller ist. ob man davon bei full-hd auflösung noch was merkt oder nicht, steht auf einem ganz anderen blatt.

Jesterfox
26.10.2012, 15:37
Die CPU alleine bringt mir nur recht wenig, ich kaufe immer ein Gesamtpaket denn sonst läuft der PC nicht... von daher find zumindest ich solche Tests schon interessant.

y33H@
26.10.2012, 15:48
Und eine 640x480 Testreihe ist ebensowenig zielführend.Dir hast es offenbar nicht verstanden obgleich ich es mehrmals ausgeführt habe - schade. Weiter unten in diesem Post mache ich es aber erneut ...


Die CPU alleine bringt mir nur recht wenig, ich kaufe immer ein Gesamtpaket denn sonst läuft der PC nicht... von daher find zumindest ich solche Tests schon interessant.Eben genau deswegen isoliert man die CPUs, da der Tester nicht jeder CPU mit einem Dutzend Grafikkarten und noch mal einem Dutzend Settings kombinieren kann (Zeit und so). Wenn du die Leistung der CPU samt Board und Speicher kennst, kaufst du die Plattform die am besten zu deinem Budget passt.

Dann guckst du bei den Grafikkarten, welche dort für dein Budget die beste ist - hier wird wiederum die Grafikleistung isoliert indem man mit einer extrem schnellen, idR übertakteten CPU bencht. Es würde ja auch keiner auf die Idee kommen, Grafikkarten mit einem Singlecore-Atom zu testen und dann zu sagen, eine HD 6570 sei so schnell wie eine HD 7970 ;-)

Die Kombination aus isolierten CPU- und Grafikkarten-Benchmarks ist daher mit die beste Kaufberatung. Noch geiler sind CPU-Grafikkarten-Skalierungen, damit kann man aber nicht so viele Kombinationen abdecken, da diese Messungen leider extrem (Zeit-)aufwendig sind.

302876

Lübke
26.10.2012, 15:57
@Jesterfox: aber wir können und wollen dir ja nicht vorschreiben, was du in deinen pc einbaust. wir können dir sagen, wie schnell welche grafikkarte in einem objektiven vergleich unter gleichen vorraussetzungen ist, wie schnell welche cpu, etc. was du kaufst und was du damit vorhast, ist deine entscheidung.
nur um festzustellen was schneller ist, müssen auch die benches entsprechend einseitig cpu-lastig oder gpu-lastig ausfallen. weder kann man die spieleleistung der cpus mit (ich übertreib mal bewusst) ner geforce 7025 igp testen, da sowohl 3960X als auch amd E450 auf 5 fps kommen und demnach gleich schnell wären, noch kann ma eine grafikkarte mit nem intel atom benchen, weil eine GTX690 so keinen stich gegen eine HD5450 landen könnte.

dass 640 x 480 praxisfremd ist, ist uns durchaus bewusst. aber es verhindert eine ergebnisverfälschung durch fremde einflussfaktoren wie z. b. einem gpu-limit

Jesterfox
26.10.2012, 15:59
Was da fehlt ist der Benchmark der Platform, also dem Chipsatz... momentan ist da glaub ich recht wenig Unteschied, aber ich kann mich an Generationen erinnern da gab es im GPU Limit Unterschiede von über 10% zwischen AMD und Intel. Und das kann eben auch ein Kaufkriterium sein...

Mir ist schon klar dass das ne Menge Arbeit ist diese Tests zu machen. Denn eigentlich müsste man die dann auch je einmal mit einer Geforce und einer Radeon machen und evtl. verschiedene Mainboards / Chipsätze (wobei es da ja nicht mehr so viele gibt wie früher...) mit ein beziehen damit es wirklich aussagekräftig wird.


PS: ich bin ja nicht gegen die 640x480 Tests, auch die liefern eine wichtige Aussage.

PPS: vielleicht sollte man diese Tests in einen gesonderten "Platform-Test" auslagern, da man das nicht unbedingt mit jeder CPU machen müsste, typische Vertreter einer Platfrom würden reichen.

y33H@
26.10.2012, 16:03
Der Chipsatz ist irrelevant, da u.a. der IMC eh in der CPU sitzt und bei Intel sowie AMDs A-Serie der Root-Controller für PCI-E auch. Unterschiede zwischen Boards mit dem gleichen Chipsatz gibt's praktisch auch keine in Sachen Leistung (sieht man mal von Controllern wie LAN oder SATA ab).

pipip
26.10.2012, 16:05
es geht aber darum, welche cpu schneller ist.
Sicher, deshalb lesen wir ja die Tests. Doch es sollte jedem klar sein, dass es nicht einfach ist eine Architektur zu durchleuchten und seine Performance zu bestimmen. Das ist auch ein Grund wieso es so viele Einheiten/Größen gibt, die die Performance einer Architektur beschreiben soll.
Doch gibt es bis heute nicht den Test, womit man klar sagen kann, der oder der Prozessor ist besser.
Man kann sich höchstens annähern. Deshalb sollte man sich ja auch mehre Tests anschauen und gegeben falls selber testen.
Casi030 macht sich die Mühe und gibt auch seine Erfahrungen weiter. Da er selber Wissen angereichert hat, hat er genauso eine Legitimität seine Erfahrungen und Verbesserungsvorschläge kund zu geben, wie Hardware-Seiten. Eventuell hat er sogar wesentlich mehr Zeit darin investiert. (Man hört ja oft genug, dass man sich bei AMD beschwert wie wenig Zeit man hat)

Das ist übrigens bei vielen Elektrotechnik-Berechnungen genauso. Man versucht alles zu idealisieren(vereinfachen quasi) und Abweichungen gering zu halten => linear und nicht lineare Bauteile => Superposition von Groß und Kleinsignalen.

In meinen Augen ist das bei Tests nicht anders.
Bulldozer und Vishera kann man gut vergleichen. Da ja die Basis gleich ist, und somit auch Schlüsse daraus ziehen kann.
Schwieriger wird es dann mit AMD vs Intel. Man bedenke mal an AES, das mit Intel eingeführt worden ist und AMD momentan sogar auf Augehöhe ist.
Von FMA oder XOP habe ich bis jetzt noch nichts gesehen. Wage fast zu wetten dass das dann bei HSW populär werden wird. Interessant ob die AMD Prozessoren dann auf einmal auch gut dastehen...

Man braucht bei AMD gar nicht nach schwächen suchen, wenn viele Testabschnitte auf die Intel-Prozessoren bereits zu geschnitten sind. Intel gibt nun mal den Markt an.
Wie sonst sollte man CineBench oder Prime als Last sonst erklären ?

Last durch Prime darstellen, ist eine gutes Worst-Case Szenario, gibt aber kaum ein korrektes Bild da, denn ich hab oft den Eindruck dass viele Leser der Meinung sind, es gäbe scheinbar nur 2 p-state.
Idle und Tubro xD

Die Frage ist nur, wieviel Zeit kann ich investieren. Umso mehr ich investiere und Messe und versuche zu kombinieren und Einzuschätzen, umso mehr werde ich die Architektur besser beschreiben können.

Jetzt mal ein anders Bsp. Kampfkunst/sport
Nehme ich einen Karate/Tiger-typen und messe seine Schlagkraft, wird jemand der bsp Wing Tsun/Gottesanbeterin ect betreibt einen schwächeren Schlag haben. Da die Verteilung der Kraft ganz anders ist.
Der Karateka wird das Objekt auf das er zielt durchbrechen. Der Wing Tsun Typ wird seine Energie übertragen.
Kann ich, obwohl beide Stile Tödlich sind, andere Prinzipien haben jetzt so einfach durch einen Schlagtest überprüfen, welche Kampfstil der "bessere" ist, nur weil wir durch das Fernsehen,Filme gewohnt sind, die "Gefährlichkeit" dadurch einschätzen, wieviel Ziegelsteine er durchschlagen kann ?
Jeder der sich etwas mit äußeren und inneren Kampfstile auskennt, wird merken, dass es viel zu viele Settings gibt.
Man kann klar sagen, der erste der trifft gewinnt. Was nun aber wenn der Schlag gar absorbiert wird ? (Energie weiterleiten, oder gar einstecken), in eine Distanz kommt, die man nicht gewohnt ist ? Dann zählt auf einmal Technik und Gefühle :O

Das selbe kann ich über Prime sagen. Wenn es darum geht, zu wissen wer mehr unter Last verbraucht ist es schön und gut, aber was ist, wenn ich die CPU fast nicht ausnütze ? Auf einmal zählen die Stromspartechniken mehr.
Und diese werden in meinen Augen meist voll vernachlässigt, da sie einfach viel zu komplex sind und Zeit brauchen, um diese zu verstehen und zu beurteilen/messen.

Überall werden gerne Extremwerte gemessen, Minimum, Maximum. Alles was dazwischen ist wird oft irwie vergessen. Dieses Verhalten fallt mir schon richtig auf. Da spreche ich aber eher von Forenmitglieder.
Nur weil ich etwas vereinfache, bedeutet es nicht gleich dass der eigentliche Inhalt der selbe bleibt.
Wenn das so wäre, sind wir alle hier Kampfkunst-Experten :D

Somit stimmt es Prime zum Volllast Bestimmung ist legitim, genauso Vergleiche mit niedrigen Auflösungen. Nur sind diese Informationen eben nicht das Vollständige Bild. Deshalb behaupte ich auch immer, es benötigt Jahre bis man weiß wie gut eine Architektur ist. Denn es dauert eine Zeit bis eine CPU ordentlich unterstützt und getestet worden ist.
Natürlich geht das bei Intel wesentlich schneller, da sich ja im Grunde meist wenig ändert. Verbauch und IPC. Interessanterweise dass die Tests oft genau auf diese Kriterien, auf die Intel sich konzentriert Fokus gelegt wird.
Dabei ist IPC ohne Takt wertlos. Verbrauch ist immer noch eine Persönliche Einstellung. Genauso könnte Kriterien wie Parallelisierung untersuchen.
Nicht nur, welche CPU hat mehr multicore Performance, sondern wer fühlt sich bei vielen offenen Programmen und Workloads flüssiger an. Wer verbraucht dank Stromsparfunktionen und p-state weniger ect.
Also ob Prime das tatsächlich alles abdeckt :O

Würde man manche Dinge einfach entdecken, würde das vllt Programmiere auch anspornen in die Richtung doch mehr zu machen und diese Gebiete ausnützen ?
Naja die Zeit wird es zeigen :D

(Beistrichfehler und sonstiges wird etwas später ausgebessert sry...)

Jesterfox
26.10.2012, 16:18
Der Chipsatz ist irrelevant, da u.a. der IMC eh in der CPU sitzt und bei Intel sowie AMDs A-Serie der Root-Controller für PCI-E auch.

Hm, stimmt, die North-Bridge wurde ja abgeschafft. Also braucht man eigentlich keine ausladenden Tests, einfach bei den CPUs hohe Settings auch Benchen und man sieht wie sich das verhält ;-)

Momentan fällt das ja zugunsten Intel aus wärend früher AMD im Vorteil war. Da hatte man mit einem langsamen AMD teilweise mehr FPS als mit einem schnellen Intel wenn die GPU am limitieren war. Je nach dem was man sich kaufen will ist das schon eine interessante Tatsache.

MrTengu
26.10.2012, 16:20
lach...pipip und die Kampfkünste...herrlich :)

pipip
26.10.2012, 16:26
MrTengu
lach... Computerbase-Mitglieder und Auto/Motorrad-gang :D

Mir ist es auch zu anstrengend immer mit Autos vergleichen zu müssen.

Tatsache ist, Prime sagt eben nur ein Teil davon aus, wie der FX sich unter Anwendungen verhalten kann.

Ein_Freund
26.10.2012, 16:39
Welche SUV´s mit Amerikanischer Power boomen?
SUV´s mit deutscher hochleistungstechnik und Asiatischer kopie boomen, aber amis???
Die Fahrzeuge Porsche Cayenne und BMW XY haben in etwa den gleichen Verbrauch wie ein Jeep oder Ford Ranger (andere Marken werden kaum vermarktet in Deutschland und bei den Amy-Seiten erkenn ich den Verbrauch nicht:rolleyes) kommt also auf das selbe mit der Amerikanischen Power hin.