Q6600 oder E8500?

Naja ich würde mal sagen, dass man selbst bei sehr quadcoreoptimierten Anwendungen nicht wirklich von "deutlich mehr Rechenleistung" des Q6600 gegenüber dem E8400 sprechen kann. Er ist in solchen Anwendungen schon ein gutes Stück schneller, aber ich würde hier nicht von "deutlich" sprechen, durch den Taktvorteil macht der E8400 da einiges wieder gut. Aber ist natürlich Ansichtssache....

Es ging auch gar nicht darum, wie sehr sich der Mehrverbrauch des Q6600 in der Stromrechnung niederschlägt, sondern darum, dass der Q6600 und der E8400 sich im großen und ganzen leistungstechnisch in etwa auf einem Niveau bewegen, und man daher andere, "unwichtigere" Kriterien wie eben den Stromverbrauch zur Entscheidungshilfe heranziehen muss. Hier noch was zum Stromverbrauch des E8400:

http://www.cooling-station.net/news/shortnews/2007/intel_e8400_wolfdale_8.png

Im Idle so viel wie der E6850, unter Last 19W weniger. So kann man ihn grob in den CB - Test einordnen.
 
Zuletzt bearbeitet:
Zunächst einmal danke für die Info zum Einordnen.

JA, um die Leistung einfach mal einzustufen, habe ich aus diesem Test Link
den E6600 und Q6600, welche ja 2 zu 4Kerner sind, sieht man also Theoretisch 100% unterschied.
Als Gegenstück zum E8400 bleibt dann wohl nur der QX9650, also werden dann von diesem einfach mal die Werte Halbiert.
Dabei kommt dann ca. raus ( Q6600 als 100% )
Sandra XIIc CPU-Arithmetik Drystone
62,7%
Sandra XIIc CPU-Arithmetik Whetstone
72%
Sandra XIIc CPU-Multimedia Fließkomma
63%
Sandra XIIc CPU-Multimedia Integer
73,8%

Das sind jetzt wohl die extrem Situationen, aber das was man unter voller Last wohl erwarten könnte ...
ich gehe davon aus das Prime Optimal auslastet und daher wären also 1/3 verbrauch vom q6600 weniger beim e8400 angebracht, da ich keinen Test kenne wo nur die CPU verbrauchstechnisch ermittelt wird, und ich keine lust habe das das irgendwo einzurechnen, lass ich es. Einen genaueren Wert des mehrverbrauchs, der nicht mit Leistung begründet ist, den es ja gibt, darf dann jemand anders ermitteln.
Das nun auf Realistische anwendungen zu übertragen, und dann als deutlich oder nicht zu empfinden, muss jedem selbst überlassen werden.
Verallendingen da es eher weniger in die Prozentualen bereiche wie Sandra kommt ... womit der unterschied in der Praxis geringer sein dürfte ...




naja ansonsten, tut was für Deutschland und kauft AMD oder kauft aktuelle Intel Technologie, q6600 und q6700 is nicht mehr aktuell, und nur weil sie fürn spottpreis verscherbelt werden ... endweder man braucht die Leistung, dann bezahlt man auch dafür, oder man braucht sie nicht ...
 
In den vom Threadersteller genannten Anwendungen flasht ein Q6600 nen E8500 aber sowas von weg. Und ich als Zocker würde jetzt auch nicht mehr zu nem Dualcore greifen. Erscheinende Games werden nicht linear sondern progressiv mehr als 2 Kerne nutzen.
 
Zuletzt bearbeitet von einem Moderator: (Text war unvollständig)
meckswell schrieb:
Und ich als Zocker würde jetzt auch nicht mehr zu nem Dualcore greifen. Erscheinende Games werden nicht linear sondern progressiv mehr als 2 Kerne nutzen.
Sehe ich auch so, dass künftige Spiele überproportional von mehr Kernen profitieren werden. Einen kleinen Ausblick bietet ja der Benchmark von Lost Planet (ganz unten auf der Seite):
http://www.xbitlabs.com/articles/cpu/display/core2quad-q6600_8.html
Ein E6850 ist zwar kein E8400, aber so in etwa dürfte der Vergleich schon hinkommen. Richtig interessant wird es, wenn man den Q6600 dann auf 3,6 GHz übertaktet.
 
@meckswell
Na dann zeig mir doch mal Benchmarks, in denen ein Q6600 einen E8500 "sowas von wegflasht".....Zu seinen genannten Anwendungen gehören übrigens auch Spiele, da bin ich jetzt schon auf die Benchmarks gespannt. Und was bitte meinst du mit "progressiv"? Rein physikalisch ist der Leistungszuwachs bei der Verdopplung der Kernzahl maximal 100%, sprich: doppelte Kernzahl, doppelte Leistung. Das ist nach meinem mathematischen Verständnis linear, und mehr geht nicht. Was du da geschrieben hast ist also Blödsinn, mal ganz abgesehen davon, dass bisher nichts auch nur ansatzweise darauf hinweist, dass Spiele jemals so stark von 4 Kernen profitieren werden wie Renderingprogramme oder Videobearbeitungssoftware. Spiele sind programmiertechnisch viel schwieriger in parallele Threads aufzuteilen. Da sind wenn es hoch kommt mal 70 bis 80% Leistungsvorteil für einen Quad bei gleichem Takt drin, die durch die Grafikkartenlimitierung und den Taktvorteil des E8500 größtenteils wieder aufgezehrt werden!

@RoHS
Nein, richtig interessant wird es wenn mal in realistischen Settings getestet werden würde, nämlich höheren Auflösungen als 1024*768 und mit AA/AF. Da würde der Vorsprung des Quads deutlich geringer ausfallen.
 
Zuletzt bearbeitet:
|MELVIN| schrieb:
@RoHS
Nein, richtig interessant wird es wenn mal in realistischen Settings getestet werden würde, nämlich höheren Auflösungen als 1024*768 und mit AA/AF. Da würde der Vorsprung des Quads deutlich geringer ausfallen.
Klar, bei sehr hohen Auflösungen bzw. Qualitätseinstellungen limitiert natürlich die Grafikkarte ungemein. Bei meinem obigen Link wurde aber bestimmt der Cave und nicht der Snowwert von Lost Planet getestet, der bei hohen Auflösungen nicht so dramatisch einbricht. Ich wollte ja nur einen Ausblick auf kommende Spiele wagen, z.B. Far Cry 2. Desweiteren können ja zukünftige Grafikkarten bzw. heutige SLI/Crossfiresysteme diese Limitierung beseitigen.
Bezüglich progressiver Nutzung: Ich verstehe darunter umgangssprachlich eine deutlich effizientere Nutzung der vorhandenen Kerne. Es gibt bereits Benchmarks, wonach die Leistungssteigerung bei Spielen von einem auf zwei Kerne über 100% beträgt:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5658521&postcount=414
Siehe Segaralley oder Need for Speed: Pro Speed 1600 MHz SC gegen DC. Vielleicht ist diese Entwicklung bei zukünftigen Spielen ebenfalls auf ähnlichem Niveau zu beobachten, z.B. bedingt durch Physikeffekte. Natürlich kann man auch das mit dem Totschlagargument Qualitätssettings wegdiskutieren.
Ich stehe aber nicht in Fundamentalopposition zu Deinen Ansichten. Allerdings würde ich tendenziell einen Vorteil für den Q6600 sehen...
 
@Melvin

Werde mit deinem Dualcore glücklich, aber hör bitte auf hier Leute falsch zu beraten!
 
@meckswell
Ich habe meine Meinung mit Argumenten untermauert und zumindest versucht sie zu begründen, während du einfach mal so eine völlig übertriebene, polemische und in meinen Augen falsche Aussage wie "in den Anwendungen flasht der Q6600 der E8500 sowas von weg" in die Diskussion schmeißt, ohne das auch nur ansatzweise mit Argumenten zu begründen oder näher zu erläutern. Also halt dich mal ein bisschen zurück, der einzige der hier nämlich inkompetente, unbegründete und teilweise eindeutig falsche Ratschläge gibt bis DU.

@RoHS
Ich nehme an, du beziehst dich auf diesen Source - Partikelbenchmark. Solche Benchmarks würde ich nicht überbewerten, weil sie die Spielerealität einfach nicht gut genug widerspiegeln. Selbst wenn Spiele die Engine mal nutzen werden, heißt das noch lange nicht, dass die dann so stark von Quads profitieren wie der Benchmark. Grundsätzlich halte ich den Q6600 ja auch für eine sehr vernünftige Wahl, aber ich sehe dass so: WENN die Quadcoreunterstützung in den nächsten 2 Jahren deutlich besser werden SOLLTE, wird der Q6600 vielleicht mal 30 oder 40% schneller als der E8400 sein. Allerdings garantiert mir keiner, dass das wirklich so kommt. Wenn man Pech hat, sind in 2 Jahren E8400 UND Q6600 mit aktuellen Spielen überfordert, weil die Architektur nicht mehr mithalten kann, dann nützen einem die 4 Kerne des Q6600 gar nichts. Und von daher halte ich aufgrund der anderen kleineren Vorteile des E8400 (geringerer Anschaffungspreis, geringerer Stromverbrauch/Abwärme, höherer Maximaltakt, mehr Leistung in nicht quadcoreoptimierten Anwendung.....) diesen für die bessere Wahl. Die EVENTUELLEN 30% Mehrleistung des Q6600 in der Zukunft reichen mir einfach nicht aus, diese Nachteile auszugleichen. Und 30% reichen auch nicht aus, um den Unterschied zwischen spielbar und nicht spielbar zu machen. Sprich: Ein Spiel, dass ein Q6600 packt, das wird ein E8400 auch packen, und ein Spiel das ein E8400 nicht flüssig darstellen kann, das wird auch ein Q6600 nicht flüssig darstellen können.

(Ich habe mich in meiner Argumentation hauptsächlich auf Spiele bezogen. Der Threadsteller hat zwar in seinem Eröffnungsthread gemeint, dass er auch mit Renderprogrammen arbeitet, aber im weiteren Verlauf der Diskussion hat sich herausgestellt, dass die Spieleleistung wohl im Vordergrund steht.)
 
Zuletzt bearbeitet:
|MELVIN| schrieb:
Nein, richtig interessant wird es wenn mal in realistischen Settings getestet werden würde, nämlich höheren Auflösungen als 1024*768 und mit AA/AF. Da würde der Vorsprung des Quads deutlich geringer ausfallen.

Wenn ein Spiel davon profitiert, dann wird das nix ändern.
Die Unterschiede werden zwar geringer, weil das CPU Limit nich mehr so reinspielt, aber es wird Unterschiede geben..
Die neueren Titel sprechen ja für sich..

Vielleicht einigen wir uns darauf, dass ein Dual Core genauso gut ist wie ein niedriger getakteter Quad Core.. ;)

in der PCGH war doch ein Artikel drinne über theorie und Praxis der Quads..

ich zitiere:
...Für 50 EUR mehr bekommen Sie einen der genannten Quad Cores..oder einen hochgetakteten Zweikerner, wie den E8400. Letzterer führt zwar noch die meißten Spielebenchmarks an, büßt seinen Vorsprung bei neueren Titeln aber immer mehr ein..
Seien sie sich darüber im Klaren, wie lange die CPU im Rechner bleiben soll.
Je länger desto sinnvoller ist der kauf eines Quad Cores..


Und das war jetzt mal nur auf Spiele bezogen..
Normaler windows Betrieb oder eben spezielle auf den Quad zugeschnittene profitieren ja heute schon davon, also warum denn dann noch fürs gleiche Geld nen Dual nehmen.

PCGH hat gestetet, dass ein Dual auf 3,6 GHz genauso schnell iost, in Rainbow: Six II wie ein quad auf 2,4..!
Das is doch eine Aussage!
Nun taktet man mal einen Quad auf 3,4 und der hängt sicher bei dene neueren Titel jeden Dual ab..
Is ne Tatsache..

Bei Assasins Creed genauso!
 
Melvin hat vollkommen Recht.
Auf überzeugender und kompetenter Art weißt er darauf hin, daß in 90 Prozent aller Spiele/Anwendungen ein Intel Core 2 Duo einem Quad vorzuziehen ist. :) Was ja nicht heißen mag das es in 1-2 Jahren wieder anders aussehen kann und möglicherweise ein 4-Kerner dann wirklich sein volles Potential in dann wahrscheinlich mehr als 50 Prozent aller Anwendungen/Spiele ausschöpfen kann, aber das ist Zukunftsmusik.

Er berät hier niemanden falsch sondern gibt nur Tatsachen wieder die keiner bestreiten kann.

Unwissende Leute gibt es überall. Einen Quadcore heutzutage zu kaufen macht nur für ganz wenig Leute Sinn.
Sicher werden zukünftig Spiele/Anwendungen mehr von 4-Kernen profitieren, unbestreitbar...nur der Prozeß wo wirklich eine Mehrzahl der Programme davon gebrauch machen...da gehen noch gut 2 Jahre ins Haus.
Wenn es soweit ist....und ein Q6600 gehört dann schon zum Alteisen.
 
Zuletzt bearbeitet:
@Centurio81
Kannst du da mal bitte den Test verlinken, wo ein Dualcore mit 3,6GHz langsamer als der Quad mit 2,4GHz sein soll? Das glaub ich nicht. Und zum Thema zukünftige Spiele: Ubsioft hat soeben die Anforderungen für Far Cry 2 herausgegeben. Empfohlene CPU: Core 2 Duo. Sicherlich wird das Spiel von Quads profitieren, aber ich verwette meinen Arsch darauf, dass es auch auf einem E6600 flüssig laufen wird und ein Q6600 den E8400 in realistischen Settings (hohe Auflösung, AA/AF...) wenn überhaupt nur knapp schlagen wird!

https://www.computerbase.de/2008-08/offizielle-systemanforderungen-fuer-far-cry-2/

Ist noch niemandem aufgefallen, dass in allen Spielen mit guter Quadcoreunterstützung (Grid, UT3, AC.....) ein Q6600 in realistischen Settings immer in etwa auf dem Niveau des E8400 ist? Die einzige mir bekannte Ausnahme wäre Lost Planet. Ich schlussfolgere da für mich draus, dass im Spielebereich das Maximum was man aus 4 Kernen herausholen kann schon beinahe ausgeschöpft ist. Mehr als UT3, AC oder Grid bieten, lässt sich aufgrund der äußerst schwierigen programmiertechnischen Aufspaltung von Spielen in parallele Threads wahrscheinlich kaum realisieren!
 
Zuletzt bearbeitet:
Das is der Test..



Außerdem sprach ich gar nicht von langsamer..
Aber die Zukunft ist anhand des benchmarks ja wohl absehbar.. :)
 
Naja da ist der Dualcore ja dann doch noch etwa 10% schneller.... Und wie ich PCGH kenne wurde das wieder in 1024*768 ohne AA/AF getestet.... Ich halte es aber für einen Trugschluss, von diesem Benchmark auf die zukünftige Entwicklung zu schließen! Grid ist ein absolutes Paradebeispiel für die Quadcoreunterstützung, viel mehr werden zukünftige Spiele kaum bieten! Und selbst eine standardmäßige Quadcoreunterstützung in Spielen wie Grid sie bietet würde mich noch nicht dazu bewegen, den Q6600 dem E8400 vorzuziehen! Letztendlich sind die Prozessoren hier leistungstechnisch in etwa auf einem Niveau, wobei sich der Q6600 dieses Niveau durch einen höheren Anschaffungspreis und mehr Abwärme und Stromverbrauch erkauft! Und von der Mehrleistung des E8400 in den 95% aller Anwendungen, die nicht von 4 Kernen profitieren, will ich gar nicht erst anfangen!


Man sieht im Test von PCGH übrigens auch, dass der Quad@2,4GHz gar nicht mal so deutlich schneller ist wie der Dualcore mit 2,4GHz! Bei dem 3,6GHz Dualcore wird also wahrscheinlich irgendwas anderes limitieren!
 
Zuletzt bearbeitet:
|MELVIN| schrieb:
Grid ist ein absolutes Paradebeispiel für die Quadcoreunterstützung, viel mehr werden zukünftige Spiele kaum bieten! Und selbst eine standardmäßige Quadcoreunterstützung in Spielen wie Grid sie bietet würde mich noch nicht dazu bewegen, den Q6600 dem E8400 vorzuziehen! Letztendlich sind die Prozessoren hier leistungstechnisch in etwa auf einem Niveau, wobei sich der Q6600 dieses Niveau durch einen höheren Anschaffungspreis und mehr Abwärme und Stromverbrauch erkauft! Und von der Mehrleistung des E8400 in den 95% aller Anwendungen, die nicht von 4 Kernen profitieren, will ich gar nicht erst anfangen!

paradebeispiel?
es wir in zukunft sicher mehr so Paradebeispiele geben, weil die Entwickler ja mehr Richtung Konsole gehen
und das natürlich alles Multicore Titel sind auf der Konsole..

Höherer Anschaffungspreis? Kostet doch genauso viel.
Abwärme juckt mich net..
In etwa ein Niveau, obwohl quad deutlich niedriger getaktet..ja.
ja es wurdein 1024x768 getestet.
Gibt aber im Forum irgenwo nen Thread wo nen User selber getestet hat in höheren Einstellungen und da sieht es ähnlich aus.

|MELVIN| schrieb:
Man sieht im Test von PCGH übrigens auch, dass der Quad@2,4GHz gar nicht mal so deutlich schneller ist wie der Dualcore mit 2,4GHz! Bei dem 3,6GHz Dualcore wird also wahrscheinlich irgendwas anderes limitieren!

Natürlich.. :)
Und was..?
ich denke er ist soviel schneller bei gleichem takt als ein "alter" Conroe..
Höherer FSB, mehr Cache.. Was limitiert denn dann?
 
|MELVIN| schrieb:
Ubsioft hat soeben die Anforderungen für Far Cry 2 herausgegeben. Empfohlene CPU: Core 2 Duo.

Ja, mindestanforderung ein Singlecore ...
Liegt nicht zuletzt natürlich daran das auch eine 280GTX limitieren wird.
Zudem ein Großteil der Konsumenten ja auch noch Singlecores hat, um eine Breite gruppe an Konsumenten anzusprechen muss das Spiel trotz fortschritt natürlich so Programmiert sein das es überall irgendwie Läuft.
Ich sehe es eher als Marketing, als das man daraus die Quad unterstüzung schließen kann.

|MELVIN| schrieb:
Ist noch niemandem aufgefallen, dass in allen Spielen mit guter Quadcoreunterstützung (Grid, UT3, AC.....) ein Q6600 in realistischen Settings immer in etwa auf dem Niveau des E8400 ist?
Ja, auch du hast erkannt das die Grafikkarte nahezu immer Limitiert, und wenn nicht werden die Settings einfach so hoch geschraubt das es das tut.
Und wenn ich 256xYYYQQQZSSCAA und was weiß ich einstellen kann, uns ruckelt nicht, wird das auch eingestellt ...
dadurch das die Grafikkarten sich auch deutlich entwickeln, wird die Zeit kommen wo die 60,70,80% die heute schon zur verfügung stehen, tatsächlich zu gesicht kommen.



|MELVIN| schrieb:
Mehr als UT3, AC oder Grid bieten, lässt sich aufgrund der äußerst schwierigen programmiertechnischen Aufspaltung von Spielen in parallele Threads wahrscheinlich kaum realisieren!
Ja, sind es ja auch schon einige % die erreicht werden, heute werden sie durch Ausbremsung durch die Grafikkarte aber in jeder Statistik gering gehalten.
Ich denke du vernachlässigst es zu sehr, was heute möglich wäre, würde andere Hardware nicht ausbremsen. Wenn es so weiter geht kommt bald die Zeit wo die 4Kerner ihr Potential ausgeben können, da stehen dann 6,8 Kerner auf dem schlauch. Könnten mehr Performance haben, werden aber wieder ausgebremst.





Und wenn man davon ausgeht, das Intel und AMD die schiene der Mehrkerner weiter fahren, muss jeder davon ausgehen das zwangsläufig endweder mehr als 4 Kerne unterstüzt werden, oder aber die Berechnung nahezu auf die GPU gelegt werden (Cuda etc.) Und jetzt mal ohne Quatsch, die PS3 hat 6 oder 7 "Kerne", und das als Spielekonsole, sollte einem doch zu denken geben was man für möglich hält.
Klar, andere Struktur, andere Technik etc. etc. , keiner kann die Zukunft sehen, wir können bloß die Tendenzen sehen.
 
Melvins Argumentationen sollten jeden Quad-Core hochjubler überzeugen ;)

Absolut unverständlich und rätselhaft wie die Gamestar eifrig allen Zielgruppen die
Quad-Cores schmackhaft machen wollen, so ein Unsinn.
 
Robert Neumann schrieb:
Absolut unverständlich und rätselhaft wie die Gamestar eifrig allen Zielgruppen die
Quad-Cores schmackhaft machen wollen, so ein Unsinn.

Wenn ich nen neuen Penryn Dual hole oder für das gleiche geld nen Conroe Quad bekomme, überlege ich nicht lange..
Und nicht jeder übertaktet.
Und kommt mir nicht mit veraltet..
Cache und FSB machen kaum was aus.
Dafür hab ich im Zweifelsfalle die doppelte Rechenpower.

Und wie oben schon gesagt. Die PS3 hat auch mehrere Kerne, also is der trend klar erkennbar.
Aber ihr zieht euch ja so gerne am dem hohen Stromverbrauch hoch des Q6600..
Wenn man ne eigene Wohnung hat, dann weiß man was Strom kostet..
Und wenn ich im Monat 4 Euro mehr zahle damit ich nen Quad hab, kratzt mich das net die Bohne.. Oder seid ihr so Pfennigfuchser?
Das is eine Schachtel Kippen oder McDoof..
Abwärme?
Wenn kümmert die?
Guten Kühler drauf und fertig..

Die Diskussionen um Temperaturen halte ich sowieso für eine der lächerlichsten überhaupt..
Schaut euchmal die Specs an der Komponenten..
 
@Centurio81
les dir mal aufmerksam Melvins Beiträge durch ;) :cool_alt:
es liegt nicht nur an der Abwärme....

bin ja auch für am liebsten 8-Kernprozessoren :) :D
nur wenn du dich länger mit der Materie beschäftigst und recherchierst, kommst auf den Trichter das es eben momentan für Quads die Zeit noch nicht reif ist.

sagens wir mal so. Würd ich blindlinks ohne viel nachzudenken eine neue CPU brauchen ohne vorher mir Informationen einzuholen wärs wahrschein ein Quad-Core Modell geworden.
Dank dem Internet, und Wissensaneignung der Vor- und Nachteile von Dual bis Quad entschied ich mich vor 2 Wochen für ein E8400.
 
Wenn du damit glücklich bist, is ja alles bestens. :)

Aber lies dir doch mal meine Beiträge nochmal durch und folge der Logik, dann kommst du zu meinem schluss, dass all die Nachteile die so aufgezählt werden für einen Quad, gar keine Praxisrelevanz haben, meiner meinung nach. ;)
Tatsache ist, ich bekomme 2 Kerne mehr fürs gleiche Geld, die ich durchaus nutzen kann..
Und ich spiele sicher nicht 24 Std am Tag.
Und hier geht es ja nicht nur um Spiele im Thread.
es geht um die Frage:

2 Kerne oder 4 Kerne fürs gleiche Geld?
Für mich is da die Entscheidung klar.
Und es is ja nicht so das der Penryn 50% schneller is bei gleichem Takt.
Wir reden da eher von so 10%
Beim Quad hab ich da im Zweifelsfalle eben 100% mehr leistung!
Wenn sich da ehrlich jemand nen neuen Prozessor holt, kann er auch gleich beim Conroe bleiben..
 
Zurück
Oben