News AMD stellt FX-4350 und FX-6350 auf Vishera-Basis vor

Picard87 schrieb:
(leider) typisch AMD... Takterhöhung und dann die TDP von eh schon hohen 95 auf 125W (!). Da sieht man erstmal wie wenig Rohleistung die CPUs haben.

Komische Definition von Rohleistung. Die sieht man am besten zB in den Truecrypt Benchmarks. Da istdie enorm. Leider müssen Anwendungen auch entsprechend multithreaed ausgelegt sein, um die Rohleistung zu nutzen.
 
swm-kullerkeks schrieb:
8 Stunden Volllast pro Tag ... na klar, was macht ihr mit euren Rechnern?!
....
Je nach Anwender hängt eine privat genutzte CPU doch zu rund 80% im Idle, wenn nicht sogar mehr. Und selbst wenn nicht, den maximalen Verbrauch erreicht man nicht mit BF3 o.ä., sondern höchtens mit Prime oder dergleichen.

ich habe es noch nie erlebt, daß ein spiel meinen ph2 x4 auf allen 4 kernen komplett auslastet.
das kenne ich tatsächlich nur von prime.

und wer 8 stunden am tag an 365 tagen im jahr spielt, der hat ganz andere probleme, als den stromverbrauch. ;)
 
last die doch erzählen was sie wollen.

selbst pc-games empfiehlt den Fx 6300 zum zocken reicht der locker, wichtiger ist heute sowieso ne gute graka.

also was solls der 6300 für nen hunni ist eine ansage!
 
Nur 20W vom Wert unter Prime abziehen klingt enorm unrealistisch für eine Spielekiste. Mir ist kein Spiel bekannt, dass 8 Kerne perfekt auslastet (und wenn ja würde der i5 gegen den FX8350 da verdammt alt aussehen). Genauso wie der Furmark bei Grafikkarten im Vergleich zu tatsächlichen Spielen unrealistisch ist. Wenn ich zB sehe wie schwach Planetside 2 meine Kerne auslastet, dann liegen da gewaltige Unterschiede zu Prime95.

Naja und mein PC läuft von 18 bis max 24 Uhr unter der Woche. Davon werden wenns viel ist 3h gezockt. Da ist der Stromverbrauch der CPU sowas von irrelevant. Vor allem da mein 15 Jahre alter Kühlschrank 24/7 läuft.

8h Volllast sind extrem unrealistisch, kenne keinen der da rankommen würde. Das gibts nur mit irgendwelchen Folding@Home oder Bitcoins-Geschichten. Kenne aber wie gesagt keinen der das macht. Und wenn ich bei der Arbeit bin ist der PC aus.

nukular8400 schrieb:
Laut dieser Tabelle kann man bei einem 125W-Prozessor von AMD mit einem etwa 100W höheren verbrauch rechnen (gegen 3570k, unser Szenario sollen ja Spiele sein). Da wir mal nicht so sind, rechnen wir eher mit 80W Mehrverbrauch.
 
Zuletzt bearbeitet:
AndreSpi schrieb:
last die doch erzählen was sie wollen.

selbst pc-games empfiehlt den Fx 6300 zum zocken reicht der locker, wichtiger ist heute sowieso ne gute graka.

also was solls der 6300 für nen hunni ist eine ansage!

Ein guter Prozi ist immer noch sehr wichtig. Kommt auch darauf an was du zockst, bei Crysis 3 im netz verbrennt mir die ganze CPU. Da die Details auf mittel sind ist die GraKa noch nicht mal so stark gefordert.

Mein Bruder hat einen Phenom II 810x4 @2,6 mit einer GTX 470 und dort limitiert immer der Prozi.
 
^^ da lebte ich wohl die letzten Monate mit vollkommen falscher Annahme dass genannte CPU seit dem FX-8350 auf dem Markt waren...

Kommen reichlich spät - aber gut, Nachfolger gibts ja keinen offiziellen.
 
Hallo @ all,

ich weiß TDP hat nichts mit realem Energieverbrauch zu tun, doch ganz umsonst wird die TDP auch nicht heraufgestuft. Es werden Tests nötig sein um festzustellen, ob das Performance/Watt Verhältnis besser oder schlechter als bei den Vorgängern ist. Ich denke mal tendeziell wird es schlechter sein. Denn wenn man einen Rechner hochtaktet kriegt man einen geringeren Performancegewinn wie man Energie hineinstecken muß. Das ist keine Frage von AMD oder Intel sondern prinzipbedingt. Daher ist das was AMD da betreibt nur Marketing und Augenwischerei.

swm-kullerkeks schrieb:
Und klar könnt ihr mich jetzt wegen meines Avatars als AMD-Fanboy abstempeln, nur scheint es hier manchen an Objektivität zu mangeln.

Nunja den Vorwurf kann man gespiegelt zurückwerfen. Heutzutage noch AMD für einen Desktop zu empfehlen ist virales Marketing eines Fanboys. Es mag sein. daß es eine Nische für AMD gibt, doch sie entpricht dem Marktanteil. Nur für Leute die "ein wenig zocken" wollen ohne dedizierte GraKa. Es mag sein daß sich für viele ein Wechsel von AMD zu Intel für ihren Anwendungszweck nicht rentiert, aber man kann z.Z. pauschal sagen für jeden der nicht oder mit dedizierter GraKa zocken möchte ist Intel die einfach bessere Wahl, selbst wenn man dafür ein paar Euro mehr ausgeben muß. Denn bei AMD ist z.Z. billig wirklich nur billig, und sonst nichts.
 
Die neuen Vishera 2.0 dürften also nicht mehr lange auf sich warten lassen.

An alle die typisch AMD rufen.
Es gibt genug leute, die ihren Prozessor OC. Wenn der Preis gleich ist, wem interessiert es also, wenn man von AMD dann noch einen Prozessor bekommt, der Garantie auf den Takt gibt.
Eins bin ich mir aber sicher.
Die 125 watt tdp beim 4350 wird mit Sicherheit nicht ausgefühlt, denn kann man auf 5 ghz OC und der würde sich oft noch in dieser TDP Klassifizierung hineinrutschen.
Interessant ist es, ob da nicht die Spannung zu hoch gegriffen ist.
 
nukular8400 schrieb:
Laut dieser Tabelle kann man bei einem 125W-Prozessor von AMD mit einem etwa 100W höheren verbrauch rechnen (gegen 3570k, unser Szenario sollen ja Spiele sein). Da wir mal nicht so sind, rechnen wir eher mit 80W Mehrverbrauch.

Und genau hier liegt ein riesen Problem!

Diese 110W mehr bei Prime95, sagen Nullkommanix über die Leistungsaufnahme beim spielen aus!

Spiele lasten die CPU nie zu 100% aus und es werden auch bei weiten nicht alle Kerne genutzt.

Nun folgt ein Beispiel, was der Unterschied ist zwischen Volllast und Teillast ausmacht.

Leistungsaufnahme (Komplettsystem mit Radeon 6870)

Cinebench multi-thread:
FX-8350: 263,12W (6,93 Punkte -> 38W pro Punkt)
i5 3750K: 99,9 W (5,98 Punkte -> 17W pro Punkt)

Der AMD braucht 163W mehr.
Gemessen an Verbrauch/Punkt ist der i5 um 123% effizienter wenn die CPU voll ausgelastet wird.

Cinebench single-thread:
FX-8350: 96,11W (1,11 Punkte -> 87 W pro Punkt)
i5 3750K: 87,52W (1,59 Punkte -> 55 W pro Punkt)

Der AMD braucht nur noch 9W mehr.
Gemessen an Verbrauch/Punkt ist der i5 "nur" noch 58% effizienter wenn nur Teillast anliegt.

Diese dämlichen Volllast-Tests sind von der Realität doch meilenweit entfernt.


---
Der FX-6350 wird unter Prime sicherlich ~120W brauchen, beim spielen wird es aber deutlich weniger sein. Nur leider wird sowas ja nicht getestet. Warum eigentlich?
 
Meiner Meinung nach ist das Stromverbrauch-Argument gegen AMD genauso Käse, wie das Preis-Argument pro AMD.

Damit sich nennenswerte Unterschiede auf der Stromrechnung ergeben, muss man, wie schon mehrfach vorgerechnet, schon ein total abgedrehter Extremzocker sein. Außerdem gibt man für andere Dinge bedenkenlos viel mehr Geld (in Form von Energiekosten) aus, als für Computerhardware und denkt sich kein bisschen dabei. Ich verstehe deshalb die Aufregung darum nicht.

Die TDP, bzw. viel mehr der reale Verbrauch, sind für genau zwei Dinge relevant. Für die Auslegung der Stromversorgung und die der Kühlung (und damit auch für die Lauttstärke). Alle CPUs unter 130W lassen sich problemlos und relativ leise mit Luft kühlen. Wenn man nicht gerade einen absoluten Silent-PC basteln will und/oder was ausgesprochen kompaktes (z.B. einen HTPC fürs Wohnzimmer), ist das also völlig irrelevant.

Ein paar Euro mehr oder weniger im Anschaffungspreis der CPU relativieren sich aber genauso, wenn man das auf den gesamten Rechner bezieht. Besonders, weil die CPU, neben der Grafikkarte und dem Massenspeicher (SSD), einer der Faktoren ist, wo man mehr oder weniger Leistung besonders stark zu spühren bekommt.
Wenn man nicht gerade auf eine extrem beschränktem Budget ist, würde ich jedem empfehlen, nicht ausgerechnet bei der CPU zu knausern. Ein paar Euro mehr sind da meist gut angelegt.

tldr:
Kauft euch die CPU, die von der Leistung her am besten für das geeigent ist, was ihr damit tun wollt. Wenn es nicht gerade ein lautloser Kompaktrechner werden soll, oder es sich um eine 1000$-ExtremEdition handelt, sollten weder der Verbrauch noch die Anschaffungskosten ein echtes Problem darstellen.
 
@BlackWidowmaker

Klar ist Intel zum Zocken mit dedizierter Graka besser, das ist unstrittig. Dennoch ist der FX-6300 für nen Hunni ein Super-Angebot, wenn man nicht mehr Geld ausgeben möchte oder kann. Die CPU reicht zum Zocken aber völlig aus.

Von daher sind die AMD-CPUs nicht "billig", sondern preiswert!
 
Matzegr schrieb:
Gemessen an Verbrauch/Punkt ist der i5 "nur" noch 58% effizienter wenn nur Teillast anliegt. Diese dämlichen Volllast-Tests sind von der Realität doch meilenweit entfernt.

In Spielen auch, ich habe hier gerade 198 Watt (Core i5-3470) zu 291 Watt (FX-8350) in Crysis 3 (720p, VH, GTX Titan, komplette Plattform gemessen) bei 54 zu 57 Fps. Das macht 3,67 Fps/Watt beim i5 und 5,10 Fps/Watt beim FX - der i5 ist ergo hier nur 39 Prozent effizienter. Bei Volllast mit x264 HD ist die Effizienz nahezu identisch (da Integer), der Cinebench taugt hier nicht.

Matzegr schrieb:
Der FX-6350 wird unter Prime sicherlich ~120W brauchen, beim spielen wird es aber deutlich weniger sein. Nur leider wird sowas ja nicht getestet. Warum eigentlich?
PCGH testet dies seit geraumer Zeit und künftig werden neben Leerlauf, Singlethread und Multithread weiterhin Spiele für die Leistungsaufnahme mitgetestet.
 
Zuletzt bearbeitet:
@ich_nicht

informiere dich selber und kaufe dir das was für dich richtig ist und was du bereit bist dafür auszugeben.

eigentlich ganz einfach oder.
 
Matzegr schrieb:
Diese dämlichen Volllast-Tests sind von der Realität doch meilenweit entfernt.
Deiner Realität? Wenn du nur spielst, ok. Es gibt aber Leute, die nutzen den Rechner auch noch für andere Sachen. Wer öfters mal Videos enkodiert, hat dann volle CPU-Last.

Letztendlich muss aber jeder selber wissen, was ihm lieber ist. Eine sparsame und entsprechend leichter bzw. leiser zu kühlende CPU mit höherem Preis oder eine preiswerte CPU, die mehr Strom braucht.
 
rille schrieb:
Was habt ihr den gemessen und wie. Es gibt schon deutliche Unterschiede, sh. z.B.: http://www.pcgameshardware.de/FX-8320-CPU-256470/Tests/Test-FX-8320-FX-6300-FX-4300-Vishera-1032556/.

System Komplet Verbrauch CPU RAM Mainboard + Graka (wobei wir die überall die selbe benutzt haben) HDDs liefen über nen anders Netzteil. Der ähnliche Verbrauch kam zu Stande da es auch immer von den Rest Komponenten und deren effiziens abhängig ist wie der Verbrauch aussied die Temperatur ist sogar vom Netzteil abhängig. Haben einfach mal nen Strom Verbrauchs Messer zwischen gehangen. Diese Tests finde ich öfters erstaunlich da aus irgend einem Grund am ende in Realen Maschinen der Verbrauch doch recht ähnlich ist, wobei ich ne tolerant von 10W-15w habe, da ich das nicht als nicht nennenswert bei 200W zähle

aber scheinbar scheint mein Merksatz (das Was ich mit TDP verbinde) zustimmen...nur so als Gegenkontrolle
 
Zuletzt bearbeitet:
rille schrieb:
Deiner Realität? Wenn du nur spielst, ok. Es gibt aber Leute, die nutzen den Rechner auch noch für andere Sachen. Wer öfters mal Videos enkodiert, hat dann volle CPU-Last.

Aber ein 8-Kerner oder ein Prozessor mit HT ist mit dem Enkodieren auch früher fertig und länger im idle bzw. man kann mehr Task parallel abarbeiten. Muss man eben auch wieder einrechnen.
 
In Spielen auch, ich habe hier gerade 198 Watt (Core i5-3470) zu 291 Watt (FX-8350) in Crysis 3 (720p, VH, GTX Titan, komplette Plattform gemessen) bei 54 zu 57 Fps
Bitte nicht zweideutig verstehen, aber mit oder ohne Gras :O ?

PCGH testet dies seit geraumer Zeit und künftig werden neben Leerlauf, Singlethread und Multithread weiterhin Spiele für die Leistungsaufnahme mitgetestet.
Finde gut, dass ihr das macht, einige Seiten können sich da wirklich ein Bsp nehmen !
 
Zuletzt bearbeitet:
neo-bahamuth schrieb:
Aber ein 8-Kerner oder ein Prozessor mit HT ist mit dem Enkodieren auch früher fertig und länger im idle bzw. man kann mehr Task parallel abarbeiten. Muss man eben auch wieder einrechnen.

Das ist etwas, was die Effizienzmessung von Toms Hardware sehr gut widerspiegelt. (Hier z.B. im Vishera-Review.)
 
Zurück
Oben