News CPU-Unterstützung von Spielen wird wichtiger

Andy

Tagträumer
Teammitglied
Registriert
Mai 2003
Beiträge
7.740
Im Rahmen der Game Devlopers Conference Europe 2009 in Köln hat Intels Softwareingenieur Leigh Davies Spieleentwickler davor gewarnt, die Entwicklung der Prozessorarchitektur zu unterschätzen. Verschiedene CPU-Topologien, sowohl alte als auch zukünftige, müssten verstärkt berücksichtigt werden.

Zur News: CPU-Unterstützung von Spielen wird wichtiger
 
Natürlich möchte der Intelmann, daß Spiele als Killerapplikationen selbst einen 1000€ Highendprozessor zu einer sinnvollen Investition machen.

Irgendwie macht die Rede aber keinen Sinn.
Die Rede würde Sinn machen, wenn's darum ginge low cost Dual Cores besser auszunutzen und damit teurere Prozessoren sinnlos zu machen.
Die dürfte wiederum kaum im Interesse von Intel sein.

Die Situation ist doch eher, daß niemand die High End Modelle momentan wirklich braucht und niemand nach mordmässigen Optimierung schreit, weil dem Gamer 'ne Mittelklasse CPU momentan völlig ausreicht... und das auf lange Zeit.
 
Vielleicht sollte Intel nicht jede Neuerung gleich auf den Markt werfen, sondern langfristig entwickeln?! Der Fehler ist mE also eher bei Intel zu suchen. Nicht jeder Programmierer kriegt Geld dafür, dass er das Spiel auf kommende CPUs optimiert, weil Intel da was neues raus bringt. Deadline ist Deadline - und ist das Spiel dann nicht fertig, geht in der Regel Geld flöten für die Entwickler. Ob Intel den Verlust finanziell ausgleicht? Ich denke kaum...
 
Vor allem macht die Rede keinen Sinn weil er zusammenhangslose Fakten bringt.
Es ist richtig daß ältere Software weniger von neueren Prozessoren durch den Mangel an "MHz-Wahn" profitiert.
Es ist auch richtig daß Spielehersteller ihre Games nicht auf Hardwaremöglichkeiten optimieren.
Aber was hat das miteinander zu tun? -> Die wissen einfach keine besseren Argumente.
 
Hehe, eigentlich ist es doch genau andersrum.

WENN es nur um den Spielemarkt ginge, dann müssten die Prozessorhersteller einsehen, dass es keinen Sinn macht, alle zwei Jahre eine neue - auf komplett anderem Design basierende - Prozessorgeneration auf den Markt zu werfen, da eben die Spielehersteller inzwischen für ihre Toptitel drei Jahre und mehr Entwicklungszeit benötigen und es daher momentan praktisch unmöglich ist, dass ein aktuell auf dem Markt erscheinendes Spiel gleichzeitig auch die neueste Prozessorgeneration unterstützt.

Ergo ergeben sich drei Möglichkeiten

1.
Entweder Spieler brauchen eben DOCH nicht ganz aktuelle Prozessoren um aktuelle games vernünftig spielen zu können (so ist es halt einfach heute)
2.
Prozessorhersteller müssen die Entwicklungszyklen verlängern, wenn sie denn daran interessiert sind, dass der jeweils neueste Prozessor auch von aktuellen Spielen unterstützt wird.
3.
Die Spielehersteller müssen die Entwicklungszeiten drastisch verkürzen, um sich den kürzeren Entwicklungszeiten bei den Prozessoren anzupassen (was auf Grund der Komplexität der Spiele nicht mehr möglich ist)

Was er in seiner Rede natürlich vergisst....
Die Spielehersteller wollen Geld verdienen und gehen damit als Zielgruppe natürlich auf eine (zum Erscheinungszeitpunkt des Spieles) möglichst weit verbreitete Prozessorgeneration und eben NICHT zwingend auf die neueste.

Wär ja Irrsin, jetzt ein Game herauszubringen, welches als empfohlene Systemkonfiguration einen 6-Kerner aufführt.
 
Zuletzt bearbeitet: (Hab was vergessen....)
Vor ca. einem halben Jahr wurde noch sändig davon geredet, dass die GPU immer wichtiger wird und der CPU ja so auf die Rechenleistung bezogen überlegen ist. Dann wurden noch ein paar Physx Demos hinterhergeschickt und die Sache war "deutlich".

Naja, der Test con CB"19 Prozessoren von 50 bis 130 Euro" zeigt ja, dass eine Mittelklasse CPU ausreichend ist und Quads NOCH nicht notwendig sind (zjm Spielen).

Mfg,
 
Jo, es kann aber auch nicht sein, daß es Spiele gibt, die auf einem i7 @ 3,0Ghz langsamer laufen als auf einem P4 @3,2 ghz, weil die Software auf nichts als den puren x86 Befehlssatz zurückgreift...

So gesehen kann man sich gestrost den Griff zu allem was besser ausgestattet ist als ein E2xxx getrost ersparen.
Weil die ganzen SSE Befehle usw ja eh nicht oder kaum genutzt werden... auch, weil die Software dann auf älteren CPUs Leistungprobleme bekommen könnte.

Aber irgendwann MUSS jetzt die Softwareindustrie mal einen Schnitt machen!
Ewige Abwärtskompatibilität bringts nicht.

Neue Grafikkarten werden ja auch blitzartig berücksichtigt!

Durch den Modularen Softwareaufbau kann man in der Entwicklungszeit sehr wohl neue Technik einfließen lassen, oder eben gleich Multicore optimieren.
Kann ja nicht sein, daß so manches Game erst per Patch die DUALcoreoptimierung erhält...
 
Zuletzt bearbeitet:
Erinnert mich an so manchen Konsolenhersteller (nicht nur bei den aktuellen Geräten) - "unser Teil ist das geilste überhaupt, die Programmierer sind nur zu doof..." ;)

Soll doch Intel als (fast) Monopolist dafür sorgen dass ihre CPUs ordentlich skalieren. Spiele-Entwicklung auf hohem Niveau ist heute eh schon teuer genug.
...nicht dass doch noch das böse GPU-Computing eines Tages um Eck kommt. ;)

Aber wie der Bayer so schön sagt ...."a Jeder Kramer lobt sei' War". Der Intel-Mann kann auch nicht raus aus seiner Haut. ;)
 
Katzenjoghurt schrieb:
Natürlich möchte der Intelmann, daß Spiele als Killerapplikationen selbst einen 1000€ Highendprozessor zu einer sinnvollen Investition machen.

Irgendwie macht die Rede aber keinen Sinn.
Die Rede würde Sinn machen, wenn's darum ginge low cost Dual Cores besser auszunutzen und damit teurere Prozessoren sinnlos zu machen.
Die dürfte wiederum kaum im Interesse von Intel sein.

Die Situation ist doch eher, daß niemand die High End Modelle momentan wirklich braucht und niemand nach mordmässigen Optimierung schreit, weil dem Gamer 'ne Mittelklasse CPU momentan völlig ausreicht... und das auf lange Zeit.


Die High-End-Modelle zeichnen sich momentan aber eigentlich weniger dadurch aus, dass sie massenhaft neue Technologien verwenden oder auf doppelt so viele Cores setzen (Hyperthreading mal abgesehen), sondern, dass sie einfach hoch getaktet sind. 4-Kerner in erschwinglichen Preisregionen gibt es schon seit geraumer Zeit, aber kaum Spiele, die diese 4-Kerner unterstützen. Insofern kann ich die Argumentation bis zu einem gewissen grad nachvollziehen.
 
ist ja klar dass intel möchte dass die spieleentwickler ihre games auf die intel cpu architektur anpassen damit die games auf intels besser laufen wie auf amds.... :freak:
 
hintergrund dieser aussage dürfte wohl der wunsch sein, dass spiele wieder cpu-lastiger werden, um die "konkurrenz" der gpu wieder zurückdrängen zu können. nvidia wills ja genau andersrum: die gpu soll neben grafik auch berechnungen wie physx und zukünftig mehr (gpgpu) übernehmen und würde damit intel den wind aus den segeln nehmen...

intels zukunftsvision: cpu mit integrierter grafikeinheit, zusätzliche grafikhardware wird überflüssig
nvidias zukunftsvision: die gpu übernimmt das gros der berechnungen mit ihrer brachialen parallelisierten rechenleistung, eine kleine cpu kümmert sich ums os und die treiber.
 
Zuletzt bearbeitet:
Was für ein Träumer. Gerade Dx11 wird der CPU noch mehr Arbeit abnehmen und somit wird die CPU noch unwichtiger für den Gamer. Wer einen Q6600/9550 ab 3 Ghz sein eigen nennen kann braucht sich erst wieder bei 8 Kernen wieder Gedanken machen über eine neue CPU. Und das ist des Mannes sein Problem. Was heutzutage limitiert ist die GPU und ihr Vram nicht die schlecht optimierte CPU.
 
Er spricht nirgends davon das auf Intel CPUs optimiert werden soll...vielleicht sollte man das ganze richtig lesen. Die Quadcores sind da und spiele könnten das durchaus vernünftig nutzen. "Ausreichend" ist ein weiter begriff. Würde man entsprechende optimierungen durchführen wäre unter Umständen mehr möglich. Mehr Sichtweite, Qualität etc. Da ist es egal ob ein AMD oder Intel im PC steckt. Die Software hinckt der Hardware hinterher und da könnte man was tun ohne Frage. Auf einem Mittelklasse PC laufen eben nicht alle SPiele mit hoher Auflösung Ruckelfrei sondern man muss dan an details sparen...wenns aber nicht mehr viel bringt eine stärkere CPU zu haben ist das schon traurig...
 
An meine beiden Vorposter:
Es ist falsch, dass der CPU bei Games unwichtig sei. Der aktuelle "CPU-Test" von Computerbase ist .... ein schlechter Scherz. Der Testparkour war vielleicht 2007 aktuell, doch mittlerweilen gibt es ein ganzen Batzen an Games der entweder von einem Quadcore stark profitiert oder erst damit richtig spielbar wird.
Ich nenne hier mal als Beispiel Arma2, GTA-4, Prototype, Anno-1404, Resident Evil 5, oder HAWX...
Bei all diesen Games profitieren die Frames von einem Quadcore enorm, d.h. jedes dieser Games wird durch einen Quadcore um MINIMUM 25% bis auch teilweise fast 100% beschleunigt.
Quadcore macht definitiv Sinn und einen neuen PC jetzt noch mit nem Dualcore auszustatten ist ziemlich dumm. Der einzige Grund, warum die Quads beim aktuellen CB-Testparkour schlecht abschneiden ist die katastrophal alte Spieleauswahl. Wenn man Spiele von 2006 und 2007 gepaart mit einer schwachen Grafikkarte testet dann braucht man dafür logischerweise keine stärkere CPU als einen E6600, weil sowieso die Grafikkarte limitiert. Selbst der Redakteur schreibt am Ende seines Artikels:

Anmerkung: Aktuell bestreiten wir die Planungen zum Umbau des mittlerweile doch nicht mehr ganz aktuellen Testsystems und dem dazugehörigen Benchmark-Parcour. Jeder Leser kann sich im entsprechenden Forumsthread daran beteiligen und seine Wünsche einbringen, die wir uns dann näher ansehen werden.
 
Weil die ganzen SSE Befehle usw ja eh nicht oder kaum genutzt werden... auch, weil die Software dann auf älteren CPUs Leistungprobleme bekommen könnte.

Das ist so nicht ganz richtig, SSE Befehle werden schon verwendet, allerdings scheinen etliche Engines/Programme bei SSE2 stehengeblieben zu sein. Beispiel die X-Ray Engine.
id´s Tech 4 nutzt auch SSE3, bei der Unreal 3 Engine und Source bin ich mir nicht sicher, SSE 1&2 werden aber auch dort auf jeden Fall benutzt.
Auch Grafikkartentreiber greifen auf SSE zurück und die Videoencoder/Decoder sowieso.

SSE2 gibts übrigens seit 2001, SSE seit 1999.
Wahrscheinlich wird alles was darüber liegt auch deshalb nicht verwendet, denn mit SSE1&2 deckt man automatisch eine enorme Menge des Marktes ab.

Man hat es sich durch die etlichen zueinander inkompatiblen Befehle auch nicht einfacher gemacht, kenne außer ein paar Encodern (vielleicht) keine Software die solche Spielereien wie SSSE3 oder SSE4.1; 4.2 etc. nutzt bzw. das je tun wird.
 
Ist ja auch klar das der herr davies das so möchte, sonst kauft ja keiner mehr seine Prozessoren!
Der einzige grund von nem e6750 auf nen e8200 zu wechseln sind eh nur die 3D Mark punkte, in spielen sind das maximal 5-10% gewinn, und dafür nochma 100€ ausgeben ist ja eigtl selten dämlich
 
Etwas provokant: Dummschwätzer.

Natürlich entstehen CPUs im Vakuum und wird einfach so nach Lust und Laune in den Markt geschmissen egal wie performant die existierende Software auf ihnen laufen und wieviel Arbeit man nun in die Optimierung der Software reinstecken muss.

So ist Itanium ein Verkaufsrenner geworden und beherrscht den CPU Markt.

Natürlich sollte man bei Neuprogrammierungen generell den Trend zu Mehrkernen nicht ausklammern aber wer durch spezielle Optimierungen an X CPU-Architekturen das letzte Quäntchen Leistung rausholen will sollte sicher sein, dass das auch bezahlbar bleibt.
 
Intel Wunschdenken. Anders herum wärs glaube wesentlich verbraucherfreundlicher, ausserdem wenn ich da so an Spiele wie Diablo 3 denke, sind 3 Jahre Entwicklungszeit n bißchen eng :)
 
raebbi schrieb:
Soll doch Intel als (fast) Monopolist dafür sorgen dass ihre CPUs ordentlich skalieren.

So einfach geht das aber nunmal nicht. Das ging eben nur bei den alten CPUs mit 1 Kern, bei denen Leistungssteigerungen in aller Regel durch eine höhere Taktrate daherkamen.
Heute hat man schon mal das Problem, dass man mehrere Kerne hat. Wenn der Programmierer nun aber in seinem Programm nicht mehrere Threads vorsieht, dann kann Intels sich winden und schuften wie sie wollen, das Programm nutzt dann bestenfalls 1/4 der Leistung eines Quadcores.

Wenn Intel neue Befehlssätze in die CPU integriert, wie das z.B. mit den ganzen SSE Erweiterungen der Fall ist, dann müssen diese auch erst einmal von der Software unterstützt werden. Deshalb rechnet der i7 ja bei einem Mpeg2 Encoder nicht viel schneller als die Core2 Quads, aber wenn es dann um DivX geht, dass diese schon unterstützt, dann zieht er meilenweit davon, wie man im CB Test auch gut sehen kann.

Ein guter Vergleich wäre wohl dieser:
Stell dir vor du kaufst dir ein Hybrid-Auto und stellst das dann so ein, dass es zu 100% mit dem Benzinmotor fährt. Dann kannst du dich auch nicht darüber beschweren, dass du die angekündigten Verbrauchswerte nicht erreichst.
 
Zuletzt bearbeitet:
Zurück
Oben