1 Welche CPU?

Welche CPU kaufen, um Games auch in 1 bis 2 Jahren noch gut und flüssig zu zocken???


  • Umfrageteilnehmer
    186
  • Umfrage geschlossen .
Status
Für weitere Antworten geschlossen.
Genau, und der Quad liefert ja heute schon in allen anderen Bereichen ernsthafte Vorteile. Alle Arten von Berechnungen, Kodieren, Umwandeln, Komprimieren gehen schneller, sowie die generelle Multitasking Arbeit mit Windows selbst. Bei AMD sind die Dualcores wenigstens für ihre Leistung günstig genug, aber bei Intel verstehe ich die Preispolitik nicht.
 
@ MixMasterMike Hast du sie noch alle
stupid.gif
?

Der Q6600 mag in Spielen mit der besten aktuell erhältlichen QuadCore-Unterstützung und in realitätsnahen Settings (genau darum geht es, um den praktischen Vorteil, und nicht um FanBoy-Diskussionen, welche CPU nun schneller ist ;)) vielleicht etwas schneller sein, aber auch nur, wenn die GraKa nicht limitiert. Aber der Großteil der aktuellen, und ich wage es zu sagen, durchaus auch zukünftigen Spielen, wird auch keine viel bessere QuadCore-Unterstützung bzw. sogar überhaupt keine mit sich bringen.
Sollte man jedoch ernsthaft Videobearbeitung betreiben, dann hat der Quad auf jeden Fall seine Daseinsberechtigung. Windows Vista läuft jedoch auch mit sehr viel günstigeren CPUs wie geschmiert, und auch nur wenige Alltags-Programme (darin sind Benchmarks ausgeschlossen) profititeren so stark von vier Kernen, dass dadurch der Takt-Nachteil wieder ausgeglichen wird.

Insofern lohnt es sich für einen Gamer wohl kaum, 10€ mehr für eine CPU, die, wenn überhaupt, nur geringfügig schneller ist und außerdem viel mehr Leistung aufnimmt, auszugeben.

Und das Argument, dass der Großteil der Leute, die abstimmen, doch keine Ahnung hätten, ist absurd. Die meisten Leute würden 100€ besser als 50€ finden, deshalb stimmt es nicht :freak:.
 
ich glaube kaum, das zwei 4850 einen quad limitieren, aber egal :)
 
Insofern lohnt es sich für einen Gamer wohl kaum, 10€ mehr für eine CPU, die, wenn überhaupt, nur geringfügig schneller ist und außerdem viel mehr Leistung aufnimmt, auszugeben

das letzte auf das ein gamer achtet sind wohl die energie kosten !
 
das stimmt...wie viel mein pc verbraucht, is mir egal, hauptsache das 525W NT von Enermax wuppt das auch, und geht nicht in rauch auf^^
 
Dann interessiert mich die Leistungsaufnahme eben nicht, aber die anderen Aussagen treffen immer noch zu. Keine Argumente mehr, oder was :freak:?

Außerdem kostet Energie Geld, was sich im Geldbeutel widerspiegelt :rolleyes:.

Und der Umwelt zugute kommt so eine Drecksschleuder auch nicht unbedingt :(. Kollektives Umdenken ist angesagt...
 
culo schrieb:
das letzte auf das ein gamer achtet sind wohl die energie kosten !

Es gibt auch Leute ( wie mich ;) ) die zwar den PC auch, aber nicht ausschließlich zum daddeln verwenden, und da spielt das Argument dann halt doch eine Rolle ...

Livven schrieb:
Der Q6600 mag in Spielen mit der besten aktuell erhältlichen QuadCore-Unterstützung und in realitätsnahen Settings vielleicht etwas schneller sein, ...

Der Witz ist ja, das ist er noch nicht einmal, der Q6600 ist stattdessen in der Regel langsamer als ein E8400

http://techgage.com/article/intel_core_2_duo_e7200_-_the_new_budget_superstar/10
http://techgage.com/article/intel_core_2_duo_e7200_-_the_new_budget_superstar/9

übrigens auch bei den Minframes ( Crysis ) kann der Q6600 im Nachteil sein, einen signifikanten Vorteil kann er sich in den bei Techgage getesteten Spielen nicht erarbeiten.

MixMasterMike schrieb:
Bei AMD sind die Dualcores wenigstens für ihre Leistung günstig genug, aber bei Intel verstehe ich die Preispolitik nicht.

Was ist da nicht zu verstehen ? Vergleicht man einen E8400 mit einem Q9xxx so ist ersterer deutlich billiger, der Q6600 hat einen Preisabschlag weil er eine ältere Architektur besitzt die wiederum Nachteile gegenüber den Penryns aufweist ( geringere Rechenleistung je Takt, höherer Stromverbrauch )

MixMasterMike schrieb:
Richtig, meine ganze Argumentation basierte sogar darauf, dass es gar keinen Unterschied gibt ^^

Tja, nur kann man da offenbar zu unterschiedlichen Ergebnissen kommen ;) - denn wenn es keine, oder kaum, Unterschiede gibt würde ich immer die sparsamere CPU vorziehen ...
 
bevor du auf ein zitat von mir antwortest solltest du

1. ihn gelesen haben
2. ihn verstanden haben

den ich habe geschrieben für gamer.

wenn was verlinkst dann bitte deutsche seite das auch alle das verstehn.
 
culo schrieb:
solange drecksschleudern angboten werden, werden sie auch gekauft.
Solange ich zum Klimawandel aktiv beitragen kann, gebe ich dafür gerne Geld aus. Oder wie meinst du das?

Ist schade, dass man so denkt :heul:, muss man denn immer das nehmen, was man vorgesetzt bekommt?

@ culo Gamer nehmen also, wenn zwei CPUs etwa das gleiche kosten und sich in der Performance sich nicht arg unterscheiden, die, die mehr Leistung aufnimmt :freak:?
 
culo schrieb:
bevor der q6600 low end ist , ist der e8400 tot ^^

Jo, mag sein. Wenn er seinen E8400 austauscht weil nix mehr geht, kannst du dich ja über deine zukunftssichere Investition erfreuen und auf Games hoffen, die noch auf einer Lowend-Cpu laufen.... :D
 
Livven ich denke du verstehst es nicht !

für einen gaming pc ist ja noch mehr als die cpu von nöten, richtig!

und weil der q6600 30 watt mehr braucht reißt das jetzt nicht die wurst vom brot.

wenn man jetzt ne 280 gtx im sys hat oder peltier kühlung jede menge lüfter und und und.

wen interessiern dann die 30 watt ?

gaming pc sind alles andere als sparer modele.
 
culo schrieb:
bevor du auf ein zitat von mir antwortest solltest du

1. ihn gelesen haben
2. ihn verstanden haben

den ich habe geschrieben für gamer.

Auch jemand der seinen PC nicht ausschließlich, aber dennoch häufig zum spielen nutzt ist ein gamer - aber da scheint ja bei dir ein Verständnisproblem vorzuliegen ... :rolleyes:

Ich jedenfalls kenne niemanden, der seinen PC ausschließlich zum gamen verwendet.

wenn was verlinkst dann bitte deutsche seite das auch alle das verstehn.

Was genau an den Diagrammen hast du denn nicht verstanden ? :rolleyes:

?

gaming pc sind alles andere als sparer modele.

Da mag dir vielleicht die Diskussion um den idleverbrauch bei Gamer GraKas entgangen zu sein
 
Zuletzt bearbeitet:
Nehmen wir mal an, dass ein Quad in 2 Jahren in Spielen bei maximalen Settings und gleichem Takt 50% schneller ist als ein Dualcore. Diese 50% sind schon sehr optimistisch, da in maximalen Settings fast immer die Grafikkarte limitiert. Von diesen 50% verliert der Q6600 gegenüber dem E8400 locker wieder die Hälfte aufgrund des deutlich geringeren Taktes. Sprich er ist dann vielleicht noch 25% schneller als der E8400. Wenn der E8400 dann überfordert ist und in einem Spiel nur 15 bis 20 Frames schafft, dann würde der Q6600 also ganze 20 bis 25 Frames schaffen, was auch nicht wirklich spielbar ist. Und für diesen EVENTUELLEN, kleinen und eigentlich unbrauchbaren Vorteil in der Zukunft soll ich 10Euro mehr ausgeben und mir eine kleine Heizung ins Gehäuse bauen? Nein danke.
 
Was genau an den Diagrammen hast du denn nicht verstanden ?

ich alles, es geht aber darum das die anderen es auch verstehn wenn du dir nur bildchen anschaust ist das ok aber viele leute lesen auch gerne den hintergrund dazu.

Da mag dir vielleicht die Diskussion um den idleverbrauch bei Gamer GraKas entgangen zu sein

genau grafikkarten sind zum ideln da ! idel ist zwar relevant aber interessiert keinen wenn er sich z.b die beste am markt erhältliche grafik kauft.
 
culo schrieb:
ich alles, es geht aber darum das die anderen es auch verstehn wenn du dir nur bildchen anschaust ist das ok aber viele leute lesen auch gerne den hintergrund dazu.

Und wie viele von denen können kein englisch ? ;) War halt die erst beste Seite wo ich einen direkten Vergleich Q6600 - E8400 gesehen habe, der auch die Min Frames berücksichtigt hat - wären letztere nicht dabei ( die ausswahl wäre da größer gewesen ), wäre ja wieder das Argument gekommen "Aber wenn sie Minframes getestet hätten, dann ... "


genau grafikkarten sind zum ideln da ! idel ist zwar relevant aber interessiert keinen wenn er sich z.b die beste am markt erhältliche grafik kauft.
Kannst du nur Schwarz - Weiß denken :confused_alt:

Natürlich ist die GraKa nicht zum idlen da, sie wird es aber einen Großteil ihrer Zeit dennoch tun. Warum denkst du führt NV Hybrid SLI ein, und hat den idle Verbrauch der neuen High End Karten gesenkt ? Warum führte ATI Power Play ein ? Weil es keinen Kunden interessiert ?
 
den kunden interessiert es nicht wenns das jetzt nich geben würde würde es niemanden intersessieren! aber wenn es eine möglichkeit gibt gibt es auch eine auswahl und diese ist dann inteligent oder einfach dumm! aber jetzt den grafikkarten verbrauch mit den 30watt mehrverbrauch vom quad zu vergleichen ist eigentlich witzlos das sind ganz andere dimensionen.
 
culo schrieb:
den kunden interessiert es nicht wenns das jetzt nich geben würde würde es niemanden intersessieren!

Ich denke da irrst du dich - ich kann mich noch sehr gut an den Aufschrei erinnern, als ATI seine Heizschleudern, aka Radeon 2900 einführte, ich kann mich auch noch an Forendiskussionen erinnern, warum man denn nicht zwischen Onboard Grafik und Gamer Karte hin und her schalten könne. Es hat eben schon vorher Leute interessiert, und die Firmen haben darauf reagiert, weil sie darin eine Möglichkeit sahen, ihr Produkt besser an die Kunden zu bringen bzw sich positiv von der Konkurrenz absetzten zu können. Und - btw, das war genau der Grund, warum ich damals zur 1950 pro entschieden habe, statt zur 8800 GTS/320 - ( die ich damals auch in erwägung zog ) obwohl letztere deutlich schneller war.



aber wenn es eine möglichkeit gibt gibt es auch eine auswahl und diese ist dann inteligent oder einfach dumm! aber jetzt den grafikkarten verbrauch mit den 30watt mehrverbrauch vom quad zu vergleichen ist eigentlich witzlos das sind ganz andere dimensionen.
Es gibt aber keinen Vorteil für diese 30 Watt - den Vorteil hat man erst, wenn man den Quad auf die Taktfrequenz der Duals hochprügelt ( was ja dann häufig gleich als nächstes empfohlen wird ) , und dann dürfte die Differenz deutlich größer sein. Erahnen, worauf das hinausläft kann man ja hier recht gut

https://www.computerbase.de/artikel...test.800/seite-24#abschnitt_leistungsaufnahme

vom Q6600 ( @2,4 ) zum QX6850 ( 3 Ghz ) gleich mal 50 Watt mehr ... und selbst dann hätte der alte 65 nm Quad noch die Architekturnachteile gegenüber dem E8400
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben