News AMD FX-4350 und FX-6350 kündigen sich an

Zumal die CPUs im Idle bis auf 1 Watt das gleiche brachen ........Der Unterbau AM3...AM3+....der frisst soviel Strom.
Auch dieses Märchen das AMD CPUs viel Strom unter Last brauchen.Mann muss immer das Verhältniss zwischen Verbrauch und geleisteter Arbeit sehen und nicht nur in 1-2 Tests.....

Aber schön zu sehen das die Taktschraube noch weiter nach oben geht auch wenn sich logischerweis die TDP klasse nach oben Verschiebt.
Brauchen jetzt ja nur Real 96Watt anliegen und schon kommt der Stempel 125Watt drauf.
Ist aber auf jedenfall ein Zeichen dafür das die Fertigung besser wird.......
 
Klingt ja interessant, damit wird der neue 2 Moduler endlich der Nachfolger vom 4170, der ja für Spiele auch sehr gut war. Schade nur, dass die Neuen die höhere TDP-Einstufung bekommen. Eventuell würde die 100W-Einstufung ja auch reichen, aber die führt AMD ja bei den FX-Prozessoren nicht. Naja was soll, hat "man" wenigstens wieder was zu meckern :freak:

Dunkeltier schrieb:
Was bringen dir Takt und L3 Cache, wenn die FPU-Leistung unterirdisch ist? In Spielen zieht Intels Top-Dualcore mit AMDs 8150er fast gleichauf. Und für Office und bissel Browsen braucht man niemals 4 Module... Die Teile kann man von der CPU-Seite gegen Intels Pentium Reihe antreten lassen. Mehr als 40-80 Euro würde ich dafür nicht ausgeben wollen.

Was bitte ist das denn? Da kann ich genauso kontern: "Ja ein Phenom X6 ist schneller als ein Pentium 4". Entweder hast du dich vertippt und meintest den 8350, der nebenbei gesagt in Spielen trotzdem schneller ist als Intels i3, nur 10% zugegeben, aber schneller und nicht "fast gleich auf" - CB Test. Und bitte komm mir jetzt nicht mit dem 1920x1080-Rating, wo ein Grafikkartenlimit vorherrscht/en kann. Oder aber du vergleichst absichtlich einen aktuellen Intel-Prozessor mit einem "alten" AMD-Prozessor, um Intel (noch) besser dastehen zu lassen.

Project-X schrieb:
Sie können es halt nicht anders mehr machen, Ihre neuste Sprössling ist sogar langsahmer als die Sandy Bridge Generationen. Die AMD's haben total den Anschluss verloren und in der High End Segement Absolut keine chance.

Neuste Sprösslinge langsamer als die Sandy Bridge Generation? Welcher Prozessor tritt hier gegen welchen an und in welcher Disziplin überhaupt? Gleichteure Prozessoren gegeneinander oder i7 3820/3930K/3960X gegen FX-4350 bzw. 8350 gegen Pentium G860? In Spielen sind gleichteure Intelprozessoren schneller, stimmt, aber in Anwendungen nicht, das Gesamtergebnis entscheidet sich haarscharf zu Gunsten von Intel (gleichteuer - 1%+ - 2500k vs. 8350, ging ja um SandyBridge Generation), was also nehmen? Immer diese verallgemeinernden Aussagen -.-
 
Zuletzt bearbeitet: (Weil Haie nicht rückwärtsschwimmen.)
Ich hätte es interessant gefunden wenn sie einen FX 8400 mit 4,4 GHz rausgebracht hätten. Alle AMD Prozessoren unter den FX 8000 Modellen sind komplett uninteressant weil sie nicht einmal in die Nähe der Intel Konkurrenz kommen.
 
flappes schrieb:
Naja, mit einem FX-6300 liegt mal wohl auf i5-2500K Niveau (je nach Anwendung etwas drüber), hat dafür höheren Verbrauch und kaum Luft nach oben zum übertraken.
Übertaktet man den i5, siehts Leistungsmäßig schon wieder anders aus.

Quelle?
Ein nicht übertakteter Core i5 2500K bzw. Core i5 2500 ist so schnell wie der i5 3470 und der Core i5 3550 ist leicht schneller als der Core i5 3470 und der FX 8350 kommt bei Anwendungen geradeso an den Core i5 3550 zudem ist der Core i5 3470 günstiger und sparsamer als der FX-8350 https://www.computerbase.de/2012-10/test-amd-fx-8350-vishera/5/
und bei Spielen mal ganz zu schweigen
 
Man kann ja einen AMD-Prozessor haben wollen und das auch für sich begründen. Dass jetzt jedoch einige hier gar versuchen, den AMD-Prozessoren ihren "geringen" Verbrauch als Vorteil herbeizureden, ist doch lächerlich. AMD-AM3+-Prozessoren verbrauchen derzeit einfach mehr als die Intel-Prozessoren in der ähnlichen Leistungsliga, auch im idle.

Selbst in diesem Review, welches ein sehr AMD-wohlgesonnenes Fazit liefert, wird über diesen Fakt nicht drumrum geredet. Dort wird stattdessen gegengerechnet, wie hoch die Extrakosten sind - eine deutlich besonnenere Art. Wenn man das für sich selbst nachrechnet darf man natürlich nicht vergessen, dass die deutschen Strompreise beinahe dreimal so hoch sind (je nach Tarif sogar mehr als drei mal so hoch).
 
@Handson
Das hängt vom Einsatzgebiet ab.
Was CAD und Encoding anbelangt reiht sich der FX-8350 zwischen
dem i7-3770K und dem i7-3930K ein und kostet nur einen Bruchteil.

Für Spiele gilt das gleiche wie letzte Jahr: Nimm den billigsten i5,
den Du kriegen kannst und stecke den Rest in die Grafikkarte.
 
Schu3 schrieb:
Klingt ja interessant, damit wird der neue 2 Moduler endlich der Nachfolger vom 4170, der ja für Spiele auch sehr gut war. Schade nur, dass die Neuen die höhere TDP-Einstufung bekommen. Eventuell würde die 100W-Einstufung ja auch reichen, aber die führt AMD ja bei den FX-Prozessoren nicht. Naja was soll, hat "man" wenigstens wieder was zu meckern :freak:



Was bitte ist das denn? Da kann ich genauso kontern: "Ja ein Phenom X6 ist schneller als ein Pentium 4". Entweder hast du dich vertippt und meintest den 8350, der nebenbei gesagt in Spielen trotzdem schneller ist als Intels i3, nur 10% zugegeben, aber schneller und nicht "fast gleich auf" - CB Test. Und bitte komm mir jetzt nicht mit dem 1920x1080-Rating, wo ein Grafikkartenlimit vorherrscht/en kann. Oder aber du vergleichst absichtlich einen aktuellen Intel-Prozessor mit einem "alten" AMD-Prozessor, um Intel (noch) besser dastehen zu lassen.



Neuste Sprösslinge langsamer als die Sandy Bridge Generation? Welcher Prozessor tritt hier gegen welchen an und in welcher Disziplin überhaupt? Gleichteure Prozessoren gegeneinander oder i7 3820/3930K/3960X gegen FX-4350? In Spielen sind gleichteure Intelprozessoren schneller, stimmt, aber in Anwendungen nicht, das Gesamtergebnis entscheidet sich haarscharf zu Gunsten von Intel, was also nehmen? Immer diese verallgemeinernden Aussagen -.-


Wieso sollte ich Spiele in 640x480 vergleichen? Die Auflösung setzt heutzutage kein Mensch mehr ein. 1920x1080 ist State of the Art. Am PC wie am Fernseher (mit HTPC). Und oh wow, selbst mit dem 8350er liegt Intel's Dual-Core noch gleich auf: https://www.computerbase.de/2012-10/test-amd-fx-8350-vishera/6/

Soll AMD zusehen, wo sie ihr Blei loswerden. Für einen Office-PC tut's ein Celeron oder Pentium, für ein HTPC ein Intel i3 und Gamer greifen sowieso blind zum i5 oder i7. Für die hier vorgestellten FX-4xx0 und FX6xx0 sehe ich einfach kein Einsatzgebiet. Selbst für HTPCs taugen die nicht, die zu hohe Leistungsaufnahme wäre z.B. für mein 80W Notebook-Netzteil zuviel ebenso wie die Abwärme. Und der Preis... *lach* http://www.cartft.com/de/catalog/il/849

Und was sind für dich Anwendungen? Für 5h Libre-Office im Monat tut's jede Billig-CPU, da merkt man null Unterschied. Videos codieren oder konvertieren sind bei den meisten Usern eher Ausnahmefälle.

Wenn in Kürze Intels Haswell erscheint, seh ich noch schwärzer. Dann holt Intel auch mal endlich seinen Rückstand beim GPU-Part langsam auf. Und legt weitere ca. 10% IPC und einen noch niedrigeren Stromverbrauch beim CPU-Part oben drauf.
 
Zuletzt bearbeitet:
weltenspinner schrieb:
das sind nun mal die wichtigen kenngrößen von cpus.
preis (amd)
leistung (intel)
verbrauch (intel)
features (amd)
underdog (amd)
konkurrenz die die preise unten hält (amd)

:d
 
Scr1p schrieb:
Wie hier manche an dem Stromverbrauch mekkern. Crysis zocken wollen und sich dafür ne GTX680 einbauen aber dann am CPU Verbrauch nörgeln, is klar.

Bei der 680 ist doch auch schon am Verbrauch geknausert, die verbraucht immerhin 50 W weniger als eine 7970 GHz.
Also mein 3570K frisst bei F@H also Volllast 48-50 W laut Core temp. Die 77 W kommen zustande wenn die 4000er mit heizt.
Jetzt könnte mal jemand der eine aktuelle/vergleichbare AMD CPU besitzt auch mal mit einem Programm nach gucken wie viel dieser auf voller Leistung benötigt.
Auch sollte man im Auge haben das die Netzteile auch unterschiedliche Wirkungsgrade haben. Und auch der Bildschirm kann schnell mal die Helfte verbrauchen wenn er auf 50% Helligkeit läuft.
Bei Intel machen es aber nicht allein die 22nm sondern auch die 3D Transistoren was aus, am Verbrauch.
AMD müsste auch solche Techniken verbauen, dann währe die ganze Sache vielleicht irgendwann vom Tisch und ich würde mir auch mal wider einem AMD Prozi kaufen :D
 
Immerhin wird der Befehlssatz bei den kleineren Modellen nicht beschnitten so wie bei den Intel CPUs. ;)
 
Nicht besser, aber sind sind vom kleinsten bis zu größten Modell alle Features dabei.
Bei Intel geht es nach dem i5 rapide abwärts, K-Modelle haben keine volle Unterstützung
für Virtualisierung, etc.
 
ich_nicht schrieb:
Bei der 680 ist doch auch schon am Verbrauch geknausert, die verbraucht immerhin 50 W weniger als eine 7970 GHz.
Also mein 3570K frisst bei F@H also Volllast 48-50 W laut Core temp. Die 77 W kommen zustande wenn die 4000er mit heizt.
Jetzt könnte mal jemand der eine aktuelle/vergleichbare AMD CPU besitzt auch mal mit einem Programm nach gucken wie viel dieser auf voller Leistung benötigt.

Und?
In Spiel xy was 2 Kerne belastet bracht deine CPU dann rund 20Watt.
Vishera bracht bei vollast wie Prime rund....140Watt,das macht bei 2 Kerne im Spiel rund.....35Watt.
Hammer wegen 15Watt machen sich hier einige ins Hemd.
Allein für die Hemdreinigung kann ich mit Vishera locker 1/2 Jahr für 1Stunden am Tag Spiel.:rolleyes:
 
Zuletzt bearbeitet:
Weil auch wieder der Preis kam...

Mein i5-3470 habe ich vor 2 Wochen für 160 Euro gekauft, ein FX-8350 kostet gerade 171 Euro.

Wenn man nicht gerade die High End CPU von Intel benötigt (und die 200 MHz Unterschied zum i5-3570 sieht man sowieso nur in Benchmarks), kommt man sogar noch günstiger bei höherer Leistung und weniger TDP.

Wie ich schon sagte, ich bin AMD sehr gewogen, habe mich aber dennoch nach langem Überlegen und Abwägen für einen Ivy entschieden. Preislich wären beide CPUs drin gewesen aber ich benötige auch Leistung. Beim Videotranskoding läuft die Kiste auch mal die Nächte durch und dann macht es schon was aus, ob da 125W oder 77W rausgepustet werden.
 
Dann greift man einfach zum FX 8320 für 145EU,Taktet ihn dank freihen Multi einfach hoch und bleibt real immer noch locker unter 125Watt.
Somit immer noch leicht und Leise zu kühlen und schneller als der Intel....
Ergänzung ()

Nur mal als Beispiel:
Fx 8120 @ 8150 idle 86Watt,CineBench 200Watt,das macht ne Reale TDP von rund 105-110Watt.Das kühlt jeder 15-20EU Kühler leise weg.
 
Zuletzt bearbeitet:
@Casi030
Wenn die Spiele nur 2 Kerne auslasten hast du natürlich Recht, darum schrieb ich ja noch das mit der Bildschimhelligkeit und der Effizienz des NT. Da können schnell 15W zusammenkommen. Es ging aber immerhin um Crysis 1-3 was meine CPU mit allen Kernen wirklich gut auslastet. Man müsste jetzt noch die Last des AMD @Crysis wissen um eine Aussage zu treffen.
 
Casi030 schrieb:
Dann greift man einfach zum FX 8320 für 145EU,Taktet ihn dank freihen Multi einfach hoch und bleibt real immer noch locker unter 125Watt.
Somit immer noch leicht und Leise zu kühlen und schneller als der Intel....
Ergänzung ()

Nur mal als Beispiel:
Fx 8120 @ 8150 idle 86Watt,CineBench 200Watt,das macht ne Reale TDP von rund 105-110Watt.Das kühlt jeder 15-20EU Kühler leise weg.

Wenn ich takten wöllte, hätte ich einen K Prozessor genommen.

Ich sehe in deiner Berechnung auch nur TDPs >77W. Die Intel TDP ist ebenfalls ein theoretischer Wert, praktisch liegt der Wert tiefer, ich schätze ihn mal auf max. 30-40W, wenn ich ihn nicht gerade Prime laufen lasse. AMD kommt da einfach nicht ran.

Wie man es dreht und wendet (und glaub mir, ich habe gedreht und gewendet), es führt einfach nichts an Intel vorbei, wenn man sich nicht mit zweitklassiger Leistung zufrieden geben will. Die FX sind gut und verwendbar, aber das reichte mir halt nicht. Das bedeutet nicht, dass ich AMD CPUs nicht empfehle, es kommt halt immer darauf an, was man machen will.

Bei den APUs sieht es ganz anders aus, so eine kommt in meinen HTPC, wenn ich mal einen aufbaue. Da ist AMD ganz stark, aber bei den reinen CPUs...
 
ich_nicht schrieb:
@Casi030
Wenn die Spiele nur 2 Kerne auslasten hast du natürlich Recht, darum schrieb ich ja noch das mit der Bildschimhelligkeit und der Effizienz des NT. Da können schnell 15W zusammenkommen. Es ging aber immerhin um Crysis 1-3 was meine CPU mit allen Kernen wirklich gut auslastet. Man müsste jetzt noch die Last des AMD @Crysis wissen um eine Aussage zu treffen.
Das ist das Problem,richtig professionelle Messungen findet man leider nicht,ist halt ein großer Aufwand.

MrTengu schrieb:
Wenn ich takten wöllte, hätte ich einen K Prozessor genommen.

Ich sehe in deiner Berechnung auch nur TDPs >77W. Die Intel TDP ist ebenfalls ein theoretischer Wert, praktisch liegt der Wert tiefer, ich schätze ihn mal auf max. 30-40W, wenn ich ihn nicht gerade Prime laufen lasse. AMD kommt da einfach nicht ran.

Wie man es dreht und wendet (und glaub mir, ich habe gedreht und gewendet), es führt einfach nichts an Intel vorbei, wenn man sich nicht mit zweitklassiger Leistung zufrieden geben will. Die FX sind gut und verwendbar, aber das reichte mir halt nicht. Das bedeutet nicht, dass ich AMD CPUs nicht empfehle, es kommt halt immer darauf an, was man machen will.

Bei den APUs sieht es ganz anders aus, so eine kommt in meinen HTPC, wenn ich mal einen aufbaue. Da ist AMD ganz stark, aber bei den reinen CPUs...
Der K koste aber wieder mehr.....bei AMD bekommst es umsonst.;)
Naja,es kommt immer drauf an wie ich die CPU Verwende,wenn ich natürlich nur irgend welchen Testberichten glaube......dann muss man natürlich zu Intel greifen.;)
 
Ich würde mich freuen, auf CB auch mal einen Test zu den kleinen Vishera-Modelle zu sehen!
 
Das schöne ist man kann das ganze ja messen: Intel ist einfach schneller als AMD und verbraucht weniger Strom.

Im Alltag merkste davon nix. Kann mir keiner sagen dass er in der Lage wäre bei spielerelevanten Auflösungen einen Unterschied zwischen einem Intel und einen AMD zu sehen.

Aber manche sehen ja anscheinend förmlich wie der Strom nur so durch die Leitung fließt und wie sich die FPS eines AMD Systems der kritischen Marke nähern. Alles lächerlich. Ich könnte hier einen x beliebigen Spieler vor meine Kiste setzen und jeder müsste beim zocken raten welche CPU ich verbaut hab, also kommt mal wieder alle runter.

Soll sich doch jeder das kaufen was er möchte. Schade finde ich allerdings, dass immer noch so wenig Spiele von 2+ Kernen profitieren.
 
Zurück
Oben