Gaming PC mit etwa 800 €uro Einsatz..

@|MELVIN|
im prinzip sind die spiele hersteller eig. gezwungen ihre games auf quads auszulegen um somit die performence zu steigern.
Das beste beispiel ist da ja crysis, welches nichtmal mit ner GTX 280 durchgehend flüßig läuft.
Ich würde mir jetzt keinen dual mehr zulegen, wenn ich nicht jedes jahr aufrüste.

mfg
 
Warum sollten die Spielehersteller denn bitte gezwungen sein, ihre Games auf Quads auszulegen? Selbst ein X2 5200+ hat genug Power für jedes Spiel, und meist limitiert sowieso die Grafikkarte. Von daher sehe ich nicht mal ansatzweise die Notwendigkeit, dass die Spielhersteller zwingend Quadcoreoptimierungen implementieren müssten, weil zurzeit selbst Mittelklasse - Dualcores genug Leistung für alle Spiele bieten.

Wenn man sich heute einen E8400/8500 holt wird man in einem Jahr ganz sicher noch nicht aufrüsten müssen. Und wenn dann mal der Zeitpunkt gekommen ist, dass ein hochgetakteter Wolfdale nicht mehr ausreicht, dann wird auch ein etwas niedriger getakteter Quad der jetzigen Generation nicht mehr reichen. Von daher wird man so oder so zum gleichen Zeitpunkt aufrüsten müssen, egal ob man sich jetzt einen E8500, Q6600 oder auch Q9450 holt.
 
Zuletzt bearbeitet:
@|MELVIN|
Ganz einfach, weil die graka mit dem game überfordert ist?
oder kaufst du dir lieber 2 grakas damit du dein lieblingsgame flüßig zocken kannst?
Deswegen wäre es sinnvoller, wenn man die vorhandenen kerne auch mitnützen würde und ich denke das werden die meisten spieleentwickler in zukunft auch tun.
Den heutzutage hat eig. jeder min 2 kerne und von daher dürfte es ja kein problem das game anstatts auf 2 kerne auf x-kerne auszulegen.

mfg
 
Ich sehe, von Programmierung haste keinen blassen Schimmer ;)

Weiß Du wie schwer es ist Programme auf mehrere CPU's zu optimieren bzw. überhaubt lauffähig zu machen?!
Vor allem weil gefühlte 200 Jahre immer nur und ausschließlich für einen einzelnen Prozessor programmiert wurde. Da muss man das Rad im wahrsten Sinne des Wortes erstmal neu erfinden. Da müssen z.B. erst Funktionen in den Programmiersprachen selber erfunden oder zumindest erweitert und optimiert werden... So was hat es früher schließlich gar nicht gegeben.

Und dann noch Spiele?!?! Was komplizierteres gibt es ja kaum! Da gilt es Echtzeitabläufe zu programmieren, das Spiel kann schließlich nicht noch 1-2 Sekunden warten wenn CPU1 den Schuss abgefeuert hat und CPU2 das Verhalten der Gegner berechnet... :rolleyes: z.B... Physikberechnungen, Gegner KI, die Welt als solche, Interaktion mit toten und lebenden Objekten, Grafikberechnungen, Sound, usw...
 
@the witcher
Aber leider kann die CPU nicht ohne weiteres die Aufgaben der Grafikkarte übernehmen. Also wird das so wie du dir das denkst schon mal nichts. Intel hat ja auch mittlerweile selbst eingesehen, dass der Schritt hin zu immer mehr Kernen im Spielebereich nichts bringt. Stichwort Larrabee.
 
Zuletzt bearbeitet:
|MELVIN| schrieb:
@the witcher
Aber leider kann die CPU nicht ohne weiteres die Aufgaben der Grafikkarte übernehmen. Also wird das so wie du dir das denkst schon mal nichts. Intel hat ja auch mittlerweile selbst eingesehen, dass der Schritt hin zu immer mehr Kernen im Spielebereich nichts bringt. Stichwort Larrabee.

Das hab ich auch nicht behauptet, sondern das man damit die leistung in spielen noch steigern könnte. Den es bringt ja nicht viel wenn man nur einen hochgetakteten kern nützt, der ständig auf 100% rumkriecht, man aber x kerne für die berechnung zur verfügung hätte.
So war das gedacht und nicht das man die arbeit der gpu auf die cpu verlagert, vielleicht etwas ungünstig formuliert am anfang


@KnolleJupp
das hab ich auch nicht, das gebe ich auch offen zu.
Aber es sollte doch möglich sein, das man es gescheit auf die anderen kerne verteilt, den sonst haben wir ja wieder die gleiche ausgangssituatuon wie zu p IV zeiten, das alles nach mehr GHz schreit.
Den wenn 4 kerne vorhanden sind, wäre es doch blödsinn wenn man diese nicht nützt oder?
Das es nicht von heut auf morgen machbar ist, ist mir auch klar. aber schritt für schritt kann man das doch umsetzen, wie lang es letztendlich dauert spielt ja keine rolle, aber das in der hinsicht mal etwas getan wird, da stimmst du mir hoffentlich zu.
Und physikberechnung die cpu zu machen lassen, ist eh der größte mist, das frisst nur unötig resourcen. Da ist es doch viel besser man kauft sich ne kleine graka für 40€ die dann bis zum bitteren ende im pc bleibt und den part übernimmt :)
Wobei man sie beim normalen destop betrieb aufjedenfall komplett abschalten können müsste, ansonsten verbraucht es einfach zu viel strom.

mfg
 
Zurück
Oben