Intel i5 3570K besser als AMD FX-8350 ?

Bitte die Quelle Angeben wo ein 5 Ghz Fx 8350 300 Watt verbraucht! Im normal Zustand verbraucht er maximal 125 Watt und wie kommt man dann bei ein OC das nicht mal 50% des Taktes beziffert auf einen Wert von 300 Watt Leistungsaufnahme?
 
Wärst Du mir nicht so dämlich gekommen, hätte ich die entspr. Links hier gepostet.
Aber bei Deinem Wissen, wirst Du ja wohl in der Lage sein, die entspr. CB Artikel zu finden.

Außerdem solltest Du Dir angewöhnen, Beiträge genau zu lesen.
 
Nun ja ich wollte nur wissen wo es solches Informationen zu finden sind, so stemple ich es einfach als uninteressant bzw. als nicht richtig ein, wäre ja nicht in meiner Interesse. Übrigens unter Argumente verstehe ich nachprüfbare Sachverhalte, allgemeine anerkannte Erfahrungen, allgemein gültige Prinzipien, Zahlenbelegen, Statistiken und Aussagen von anerkannte fachlichen Autoritäten, da wir ich der einzige der Passmark als Quelle angegeben hat , bzw. der einzige der objektive Quellen angegeben hat auch wenn es oft manch mal ins subjektive geschlagen ist!

Finde es bis jetzt, aber immer noch nicht möglich so eine Leistungsaufnahme zu erzielen, mir egal wer die Quelle angibt, sollte aber nicht "PCHardware" sein wo auf jeder zweiten Seite nVidia und Intel-Werbung zusehen ist!
 
Vietcong schrieb:
Nun ja ich wollte nur wissen wo es solches Informationen zu finden sind, so stemple ich es einfach als uninteressant bzw. als nicht richtig ein, wäre ja nicht in meiner Interesse. Übrigens unter Argumente verstehe ich nachprüfbare Sachverhalte, allgemeine anerkannte Erfahrungen, allgemein gültige Prinzipien, Zahlenbelegen, Statistiken und Aussagen von anerkannte fachlichen Autoritäten, da wir ich der einzige der Passmark als Quelle angegeben hat , bzw. der einzige der objektive Quellen angegeben hat auch wenn es oft manch mal ins subjektive geschlagen ist!

Finde es bis jetzt, aber immer noch nicht möglich so eine Leistungsaufnahme zu erzielen, mir egal wer die Quelle angibt, sollte aber nicht "PCHardware" sein wo auf jeder zweiten Seite nVidia und Intel-Werbung zusehen ist!

https://www.computerbase.de/artikel/prozessoren/amd-fx-8350-vishera-test.1923/seite-12

unter Vollast:
Standardtakt 192 Watt
Übertaktet 303 Watt

Das sind natürlich, wie bei allen Tests, Werte des kompletten Systems.

PS:
Bring mal etwas Ordnung in dein Geschreibsel ... ist teilweise wirklich sehr schwierig zu lesen.
 
Danke für den Post mit der Quelle, auch wenn es sich bei dem Wert um System abhängiges handelt, mein Argument die Volllast erreicht man nur bei Rendern, nicht bei Zocken oder ähnliches und der PC ist nicht den ganzen Tag auf Volllast! Ich glaube auch das 300 Watt unreal für den Poweruser ist, die Kühlung müsste schon eine Wasserkühlung sein sein.
 
Auf meinem Anwendungsgebiet wäre doch der Xeon der bessere?
Wenn der Xeon schon ein "i7" ohne OC ist wo ist dann der Vorteil vom i5
 
Dasm an ihn übertakten kann und den xeon nicht. Sprich wenn die Software von höherem Kerntakt profitiert, dann ist der I5 dort schneller. Sobald sie allerdings von Multithreads profitiert, ist der Xeon dein Freund.
 
Ok fassen wir mal zusammen:
I5 3570k-> beste CPU für Gaming und oc
I73770k -> Super CPU für stark paralelisierbare Anwendungen. HT bremst ggf. etwas in spielen. Gut oc-"Bar"( oh Gott, dumm umschrieben)
Xeon 1230v2 -> intel's preis/leistungs Knaller bei paralelisierbaren Anwendungen. Kaum oc. HT bremst ggf. Etwas bei spielen.
Fx 8350 -> AMD's derzeit stärkste CPU. stark auf paralelisierbare Anwendungen angewiesen um seine Rohleistung auszuspielen. Erhöhter Stromverbrauch unter Last. Bei Games unterlegen aber immer spielbar.

Persönlich halte ich den Xeon für die beste CPU die man sich derzeit kaufen kann, aber (und jetzt kommt der Teil mit den Herzchen und Teddybären) habt ein wenig "Mitleid" für AMD und kauft ihre Produkte damit sie uns erhalten bleiben. Die Leistung der Prozessoren reicht in jedenfalls aus.
 
mosesAK schrieb:
, aber (und jetzt kommt der Teil mit den Herzchen und Teddybären) habt ein wenig "Mitleid" für AMD und kauft ihre Produkte damit sie uns erhalten bleiben. Die Leistung der Prozessoren reicht in jedenfalls aus.

Ich sehe das genau anders, kauft derzeit keine AMD CPUs.
Wenn AMD merkt, das keiner ihren "Schrott" kauft, dann setzen die sich vielleicht mal auf ihren Hosenboden und strengen sich etwas an.
So wie es jetzt ist, sagen die sich, warum mehr anstrengen, die Leute kaufen ja auch so unsere Prozessoren.

Vom K6 233 bis zum X2 4200 (939) habe ich, von 1997 - 2011, weit mehr als 1 Dutzend AMD CPUs, in meinen Rechnern verbaut.
Zwei Ausnahmen gab es in diesem Zeitraum, den Celeron 300@450 und einen PIII 600.
Wenn man mir vorwürft ein "Fanboy" zu sein, dann sehe ich mich eher als einer, der sich zu AMD hingezogen fühlt.
Ich habe lange mit meinem X2 ausgehalten und immer gehofft, das Seitens AMD mal ein richtiger Kracher kommt.
Kam leider nichts, aber wer weis was die Zeit mit sich bringt.
 
Zuletzt bearbeitet:
Uwe F. schrieb:
Dann lies #27 2. Absatz.
Darauf beziehen sich die nachfolgenden Post, und da ist nichts mehr mit uv, wenn ein FX-8350 mit 5GHz +/- betrieben werden soll.

Wer sagt den hier was von 5GHz?
 
Uwe F. schrieb:
Ich sehe das genau anders, kauft derzeit keine AMD CPUs.
Wenn AMD merkt, das keiner ihren "Schrott" kauft, dann setzen die sich vielleicht mal auf ihren Hosenboden und strengen sich etwas an.
So wie es jetzt ist, sagen die sich, warum mehr anstrengen, die Leute kaufen ja auch so unsere Prozessoren.

Und das glaubst du echt? Was meinst du wie viel mehr Dollars Intel in die Forschung steckt als AMD, die nicht so viel Ressourcen zur Verfügung haben. Außerdem verkaufen sich die AMD CPU's auch nicht besonders gut. Und du glaubst AMD strengt sich nicht an? Die kämpfen doch schon ums Überleben und müssen Niederlassungen dichtmachen und Leute entlassen. Das können die sich doch gar nicht erlauben.

Bitte das nächste mal nen bisschen mehr nachdenken bevor man sowas raushaut.
 
Ich liebe solche Threads^^. Anstatt dem TE zu helfen verselbständigt sich der Thread als Grundsatzdiskussion. Selbstverständlich darf dann auch nicht fehlen das man in die Grafikkartendiskussion abgleitet^^.
@TE

Also in deinem Fall würde ich dir empfehlen unbedingt auch das Mainbord auszutauschen! mosesAk hat es ja schon gut zusammengefasst was für welche CPU in frage kommen. Schau dir Benches an und wähle dann entsprechend die CPU aus.
 
@Neronomicon ich helfe den Thread-Ersteller, aber auf PN-Ebene.


@mosesAK ziemlich lächerlicher Kommentar und zeigt mal wieder, wer am meisten Werbung macht sprich Intel hat die "intelligentesten" Fans, ist übrigens eine Abwertung! Keiner Kauft AMD sagst du? AMD hat das Monopol auf allen, gar allen Konsolen und weißt du was das für ein Millionen-Deal ist. Die SteamBox, Playstation 4, Xbox 720, WiiU die erhalten alle AMDs-Technologie, warum glaubst du wollte nVidia die Pläne klauen, weil die Technik so schlecht ist?

Intel ist nur voraus da die Firma unfaire Dilettanten beschäftigt die keinen APU auf die Reihe bekommen und von der Konkurrenz alles zusammen klauen! Die Mehrkerntechnik haben sie auch nur von AMD abgeschaut, weil Intel wollte eigentlich am Anfang des neuen Jahrtausends sprich um das Jahr 2000 nur den Takt von Prozessoren immer weiter Erhöhen, aber keine zusätzliche Kerne einbauen, das Kernkonzept wurde auch nur geklaut.

Konzernspionage ist so armselig wie Intel und Armstrong im Radsport :king:
 
Zuletzt bearbeitet:
@ Vietcong
Ich glaube Du bist noch sehr jung.
Bereits der Pentium (P54C) war Multiprozessor fähig, d.h. es gab Dual Sockel 7 Boards, auf die man 2 CPU stecken konnte.

Ein PC mit mehreren Kernen ist also keine Erfindung der Neuzeit.

Aber das ist hier alles viel zu sehr O T, und deshalb ist für mich jetzt hier Ende.
 
Zuletzt bearbeitet:
@Vietcong

Ich sag nur 32% Umsatzrückgang im letzten Quartal bei AMD und wer darauf baut, dass man durch die Konsolenverkäufe Geld verdient, ist entweder naiv oder noch sehr Jung und Grün hinter den Ohren. Geld wird im Serversegment und OEM Markt verdient.

Es gibt nicht nur die eine Möglichkeit wieso man vielleicht für seine Konsole AMD gewählt hat als Hersteller. Aber um dir das zu erläutern müsste ich hier jetzt einen großen Beitrag schreiben, der nichts mit dem Thema zu tun hat und den du vermutlich sowieso gekonnt ignorieren wirst. IBM z.b. wäre auch ein Kandidat gewesen der sehr gute Chips zu bieten hat, Konsolen verkaufen sich aber über den Preis und ich nehme mal an das AMD schlicht einfach günstiger war und deswegen man sich dafür entschieden hat. Das bedeutet aber auch gleichzeitig das die Marge niedriger ist, wodurch dies AMD nichts bringt.

Ach und IBM hatte bereits 2001 Doppelkernprozessoren. Hat dann AMD bei IBM geklaut ?

http://de.wikipedia.org/wiki/Mehrkernprozessor
 
Neronomicon schrieb:
Ich liebe solche Threads^^. Anstatt dem TE zu helfen verselbständigt sich der Thread als Grundsatzdiskussion. Selbstverständlich darf dann auch nicht fehlen das man in die Grafikkartendiskussion abgleitet^^.
@TE

Also in deinem Fall würde ich dir empfehlen unbedingt auch das Mainbord auszutauschen! mosesAk hat es ja schon gut zusammengefasst was für welche CPU in frage kommen. Schau dir Benches an und wähle dann entsprechend die CPU aus.

Danke, hab es nur mal in einem Post zusammen fassen wollen. Natürlich werden die Teddybären wieder zerrissen und nicht sachlich drüber diskutiert. Aber, und da muss ich Vietcong recht geben, AMD ist die innovativere Firma als Intel. Aus einem ganz einfachen und sachlichen Grund: AMD kann nicht auf das selbe Pferd setzen wie Intel. Dazu haben sie garnicht die mittel, AMD muss sich in eine Richtung entwickeln in der Intel nicht ist (apu's, "8-Kern" Prozessoren, x64...usw.) sie müssen sich eine Lücke suchen die Intel noch nicht geschlossen hat. Da gab es mal einen schönen Bericht über AMD bei tom'shardware den ich leider nicht mehr finde... :/
Na, wie dem auch sei, wahrscheinlich wird eh weiter gespamt...

@vietcong hast du meinen Beitrag überhaupt gelesen?
 
Ja habe ich, komischerweise ist er nicht mal so abwegig, die vorherigen Schreiber glaube ich sind alt und nicht fähig zu Argumentieren da sie nicht wirklich auf mich Bezug genommen haben und lieber eine Firma beleidigen, da sie selbst "Fanboys" sind. Ziemlich eine Entäuschung diese Intel-Community, wo habt ihr die Kommunikation gelernt auf ein Intel-Werbe-Seminar?

Übrigens im neuen Jahrtausend, alles hat schon vorher angefangen als AMD ein zweites Rechenwerk verbaut hat, da war Intel noch brav bei Takterhöhung dabei! Hat es aber ein Sinn mit den jeweiligen Herrn zu reden, ohne dass man auf Granit egal mit welchen Argumenten beißt?
 
Zuletzt bearbeitet:
Vietcong schrieb:
Ja habe ich, komischerweise ist er nicht mal so abwegig, die vorherigen Schreiber glaube ich sind alt und nicht fähig zu Argumentieren da sie nicht wirklich auf mich Bezug genommen haben und lieber eine Firma beleidigen, da sie selbst "Fanboys" sind. Ziemlich eine Entäuschung diese Intel-Community, wo habt ihr die Kommunikation gelernt auf ein Intel-Werbe-Seminar?

Übrigens im neuen Jahrtausend, alles hat schon vorher angefangen als AMD ein zweites Rechenwerk verbaut hat, da war Intel noch brav bei Takterhöhung dabei! Hat es aber ein Sinn mit den jeweiligen Herrn zu reden, ohne dass man auf Granit egal mit welchen Argumenten beißt?

Dann liefere doch endlich mal gute Argumente die belegen, dass der FX für den TE besser ist.

Deine Fanboyunterstellungen solltest du lieber für dich behalten. Damit disqualifizierst du dich nur selbst.

Außerdem unterstellst du mir aufgrund meines Alters ein- bzw. festgefahren zu sein. Dieses Verallgemeinerungen verbitte ich mir.
 
Vietcong schrieb:
Ja habe ich, komischerweise ist er nicht mal so abwegig, die vorherigen Schreiber glaube ich sind alt und nicht fähig zu Argumentieren da sie nicht wirklich auf mich Bezug genommen haben und lieber eine Firma beleidigen, da sie selbst "Fanboys" sind. Ziemlich eine Entäuschung diese Intel-Community, wo habt ihr die Kommunikation gelernt auf ein Intel-Werbe-Seminar?

Sorry, aber das Problem in diesem Thema bist du, weil sachlich ist ganz was anderes als User als "fanboys" zu bezeichnen die ihre Schulbildung bei Intel bekommen haben. Mein Post war anfangs lächerlich, jetzt ist er garnicht mal so abwegig. Musst dich schon entscheiden. Lerne bitte anständig zu diskutieren ohne zu BELEIDIGEN!!!!! Ich Denk dann wird das auch besser damit du nicht falsch verstanden wirst. Aber jetzt bin ich es der hier flamet.

Btt.
@TE hast du dich eigentlich entschieden?
 
Dann formuliere ich es mal so, ich bezeichne bestimmte Herrschaften hier mal keineswegs als eloquent und ob man es als Geflame bezeichnen kann oder als schiere Wahrheit liegt im Auge des Bedrachters, also mal halblang und dazu hätte ich eine Antwort parat die sich gewaschen hat(mosesAK), die verkneife ich mir, sonst ist eine Meldung wohl die Folge und solangsam wird es auch lächerlich mit fortschrittsfeindliche und streng verklemmte alte Intel-Veteranen zu reden.

Mein Fazit für das Thread, ich wurde vom Thread-Ersteller um meine persönliche Meinung gefragt per PN und habe ihn geantwortet und hier im Thread zuschreiben war köstlich amüsant. Bei manche Latten die hier vom Zaun gerießen wurden, musste ich echt lachen und fand zugleich nicht die Worte auf so etwas manchmal einzugehen. Trotzdem immer wieder bereit zu lachen und zu schreiben.
 
Zurück
Oben