News CPU-Unterstützung von Spielen wird wichtiger

Weißt du wie lange es schon SEE3 gibt? Das sollte schon langsam Standard sein. Selbst mein Pentium beherscht es. Und der hat nen ganz schönen Bart.
 
"...fordert Davis die Entwickler dazu auf, frühzeitig die kommende Technik in den Entwicklungsprozess mit einzubeziehen..."

Klar, wenn Davis bereit ist, von seinem Bankkonto paar Mio $ locker zu machen und den Entwicklern zu überweisen. Oder Intel tätigt eine milde Spende.
 
Die Steam Statistik ist nicht unbedingt so aussagekräftig, nichtsdestotrotz ist es ein nicht zu vernachlässigender Anteil der ja auch momentan stetig wächst da 4 Kerne im Mainstream angekommen sind.
 
Ich glaube, einige haben die News falsch verstanden. Es geht darum, dass die Spiele erkennen sollen, welcher Prozessor im PC werkelt und dann die Aufgaben entsprechend verteilen. Also einen Pentium E6300 erkennen und ihm weniger Arbeit zumuten als einem Phenom II X4 955 oder Core 2 Quad Q9550, die wesentlich mehr zu leisten imstande sind. Das Spiel soll erkennen, jawohl, ich sitze in einem Porsche und habe 300 PS unterm Hintern und es ist kein Trabbi, der nur 25 PS hat und 100 km/h bringt. ;)
 
Zuletzt bearbeitet:
So wars gemeint...aber wie immer entwickelt sich das ganze dann schnell zu einem Anit Intel (hatte jemand von AMD das geschrieben wärs nicht anders) oder Anti teuer Thread. Ist eben menschlich...die Hitze tut ihren Teil dazu....
 
Ossi, der Celeron Vergleich ist Unsinn. Der von dir verlinkte Celeron ist ein abgespeckter Core Prozessor, der nur den Namen Celeron übernommen hat. Es ist logisch wenn er in Bereichen schneller arbeitet als sein Vorgänger. (Auch wenn man ihn beschnitten hat)
 
Wenn ich ein Spiel entwickel, und stelle fest 95% der bestehenden CPUs lassen es befriedigend laufen, warum sollte ich auch nur 1 Euro in eine Optimierung stecken, um Intel einen Verkaufsgrund für teurere CPU zu liefern.
Der Cacheunterschied ist so nunmal gering, auch wenn Intel das Preisabstandsmäßig anders sieht und in die realität übertagen möchte.
 
Wenn es doch so ist, warum jammern dann die Leute das etwas ruckelt? Warum muss man dann weniger Detaisl fahren etc? Weils soweit ganz gut läuft? Wozu dann überhaupt weiterentwickeln?
 
Das Problem ist wohl das Intel die Felle davonschwimmen.


X86 lebt von nichts als der bestehenden Software und weil die zum größten Teil nur mit einem Thread läuft wird man da auch mit sonst wie vielen Kernen nichts erreichen, da brauchts nunmal Leistung pro Kern (und natürlich pro Takt)

Ganz davon abgesehen das es genug Probleme gibt die sich garnicht sinnvoll parallelisieren lassen, unbegrenzt schon garnicht.

Mag pararox klingen, aber schon 1967 hat Amdahl festgestellt das sich die Berechnungsdauer eines jeden Programmes letztendlich(sehr viele Kerne) lediglich nur aus dem nicht parallelisierbaren Programmanteil ergibt.

Das bedeutet das auf lange Sicht (die nächsten 5-10 Jahre dürften schon reichen) nurnoch die Leistung pro Kern wichtig sein wird und die Kernanzahl in den Hintergrund tritt.


Freilich will Intel aber nicht in Richtung sequentieller Leistung gehen. Ist ja auch viel billiger und einfacher mehrere Kerne zu verbinden als die Leistung oder den Takt pro Kern zu erhöhen.

Also schiebt man eben den schwarzen Peter anderen zu, nach dem Motto : "wenn ihr nichts macht hilft auch unsere tolle Technik nichts"

In Wirklichkeit ist die Technik aber garnicht so toll und nur entstanden weil man nicht fähig oder willens ist in die andere Richtung zu gehen.


Dem üblichen "Nutzer" kann man jedoch ständig im Glauben lassen das alles möglich wäre.

Glaubt doch eh jeder das sich jegliche Software parallelisieren lässt wenn sich die Programmierer nur genug Mühe geben.

Die Unwissenden hat Intel also auf jedenfall auf deren Seite.


Wenn ich jetzt gemein wäre würde ich sagen, der Post unter mir hat meine These gerade einwandfrei bestätigt.


edit : noch ein interessanter Kommentar zu dem Thema http://blogs.msdn.com/devdev/archive/2007/09/07/p-complete-and-the-limits-of-parallelization.aspx (vorsicht, englisch !)
 
Zuletzt bearbeitet:
Das wäre in der Tat eine lobenswerte Aufgabe, wenn Spiele und andere Apps nun endlich mal alle zur Verfügung stehenden Kerne nutzen würden. Mein Quad langweilt sich bei fast allen Apps & Games :(

Greetz, G.
 
weil wir grad beim träumen sind:
CPU zukünfting in GPU integriert? Warum nicht? Wie sich dass dann aber kühlen lässt und ob das in Summe überhaupt dann einen Platzgewinn bringt, wage ich zu bezweifeln...
OT: Ich bin mal endlich für ein Betriebssystem, dass 32- und 64-bit Architektur in einem integriert hat und für jede Anwendung gesondert prüfen kann, ob die Anwendung als 32 oder 64-bit läuft. WinXP getrennt, Vista ok geht noch aber bei Windows 7 hätte ich mir eigentlich schon mehr erwartet...
 
SunnyboyXP0 schrieb:
Es geht darum, dass die Spiele erkennen sollen, welcher Prozessor im PC werkelt und dann die Aufgaben entsprechend verteilen.


Das ist schon richtig.
Nur funktioniert es eben nicht wirklich, bzw. KANN nicht (mehr) funktionieren, da Spiele heutzutage inzwischen längere Entwicklungszeiten (3 und mehr Jahre) haben als die Lebenszyklen von Prozessoren dauern.

Wenn ich vor 3 Jahren mit der Entwicklung eines Spieles begonnen habe (welches eben heute dann auf den Markt kommt), dann KANN dieses praktisch keine 4-Kerner optimal unterstützen, da damals kaum bekannt war, wie die 4-Kerner heute arbeiten werden.

Und auf die neuesten Prozessoren kann ich Spiele eh nicht ausrichten, da diese nur in ganz wenigen Rechnern verbaut sind.

Spiele werden für den Massenmarkt produziert.
HighEnd Prozessoren definitiv nicht, auch wenn Intel das vielleicht gern anders sähe.

Klar würde Intel (AMD auch) es lieber sehen, wenn ihre Prozessoren dadurch 'gepusht' werden, weil neueste Spiele eben auch die neuesten Prozessoren optimal unterstützen bzw. am besten sogar voraussetzen.

Nur läuft das so eben nicht.
 
Es kommt mir irgendwie so vor, als würde Intel jetzt versuchen, den Spieleentwicklern die Schuld daran zuzuschieben, dass ihre neue, schweineteure Plattform im Gegensatz zu 775 kaum Leistungsgewinn in Spielen bringt. Kann man natürlich machen, ist aber nicht die feine Art ;)
 
Das Problem liegt eher in der ewigen Abwärtskompatibilität, alles muss auch auf dem P3 von Oma Müller laufen können. Bitte nicht falsch verstehen, aber es gibt viele Menschen die nicht mit den Ultramaschinen spielen sondern mit Rechnern die 2-5 Jahre alt sind. Teilweise weil sie kein Geld haben, teilweise weil die Kiste ihnen reicht.

Das große Problem wenn wir den alten Zopf an Abwärtskompatibilität entsorgen würde wäre halt das viele Menschen hinten von der Technologieschraube runter fallen würden. Irgendwann werden wir aber diesen Schritt machen müssen sonst werden wir in 10 Jahren noch 32bit benutzen müssen.

Letztens war ein Interview mit einem Entwickler im Netz der meinte in 10 Jahren wären GPUs überflüssig das die CPUs dann stark genug wären um die Grafik in Echtzeit zu rendern. Heutzutage kann die Grafikkarte nur das wiedergeben was ihr die CPU an Daten liefert, an vielen Rechnern stoßen wir hier auf einen Flaschenhals weil die Gespanne nicht aufeinander abgestimmt sind.
 
@hamju63
Das sehe ich auch ein. Ich verstehe auch nichts vom Programmieren. Aber geht es hier nicht um grundsätzliche Dinge? Dass das Spiel die Leistungsdaten auslesen und die Ressourcen entsprechend verteilen kann? Es geht doch hier nicht um spezielle Optimierungen auf einen Prozessor, sondern um das Herauslesen grundsätzlicher Daten (Anzahl der Kerne, Frequenz, Cache usw.). Ein Spiel soll das erkennen und entsprechend reagieren. Ich vermute einfach mal, dass man auch heute schon ein Spiel so programmieren kann, dass eine effektive Nutzung für 6 oder 8 Kerne später möglich sein wird. Aber wie gesagt, ich kann es nur vermuten.
 
Zurück
Oben