News CPU-Unterstützung von Spielen wird wichtiger

Katzenjoghurt schrieb:
Natürlich möchte der Intelmann, daß Spiele als Killerapplikationen selbst einen 1000€ Highendprozessor zu einer sinnvollen Investition machen.../QUOTE]

hats absolut recht
 
Interpretation von Texten sollte frei von persönlichen Ewartungen geschehen...ansonsten kommt sowas bei raus ;)

Dein avatarbild zeigt die richtung...
 
halte es ebenfalls für sinnvoll über eine cpu id, die jeweilige stärke des cpu besser vom programm ausschöpfen zu lassen.

Wäre doch zu schön, 4 x 80%+ Auslastung auf einem Quadcore beim Gamen zu sehen.
Statt einmal mehr einen Mehr-Kerner zu kaufen, der nur auf 2 Kernen im "Turbo Mode" bei 5,xx Ghz läuft.
 
Deswegen fordert Davis die Entwickler dazu auf, frühzeitig die kommende Technik in den Entwicklungsprozess mit einzubeziehen, damit die Spiele bei der Veröffentlichung von der auf dem Markt verfügbaren Technologie profitieren.


Das heisst dann aber auch, den Entwicklern die neueste Hardware auch schnellstmöglich zur Verfügung zu stellen.
Und da die Hardware-Hersteller dies bestimmt nicht umsonst machen, geht das entweder über Werbung, Sponsoring oder sonstwie. Nicht alle Software-Schmieden können sich ständig die neueste HW leisten.

Zumindest muss den Entwicklern alle techn. Daten der neuesten HW Generation übermittelt werden, damit die "Software" die HW dann auch erkennen kann. Und das wiederrum dürfte sehr umfangreich werden, bei der Vielzahl an unterschiedlicher HW, die weltweit im Umlauf ist.
Mit der Geheimhaltung ist´s dann auch Essig. :D
 
Dafür gibts Verträge und wird ja teilweise auch schon gemacht. Die Hersteller bekommen auch die daten der neuen GKs vorher um zu wissen was geht.
 
Richtig. "The way it's meant to be played" lässt grüßen.
Aber warum sich jetzt hier wieder alle über das aufregen, was der Mann von Intel hier sagt, soll mir mal einer erklären.
Er sagt im Endeffekt, dass die Software besser auf die Hardware abgestimmt sein sollte, damit man einen größeren Prozentsatz der theoretischen Chipleistung ausnutzen kann.
Und das ist jetzt schlecht oder wie ? :freak:

Ist wahrscheinlich mal wieder das selbe Symptom wie bei Microsoft auch. Wenns von MS/Intel kommt muss es ja böse sein.
Manchmal hab ich echt den Eindruck, wenn sich Bill Gates und der CEO von Intel bei einer Pressekonferenz hinstellen würden und fordern würden, dass jeder Mensch der Welt zu essen haben sollte, sich immer noch Scharen von Apple/Linux/AMD/PS3 Fanboys finden würden, die einen Lynchmob für die beiden wegen dieser Abgrundtief bösen Aussage, zusammenstellen. :freak:
Hurra Marketing!
 
Zuletzt bearbeitet:
Ja da kann ich nur zustimmen - wann kommt endlich KI @Multicore ins Spiel, die den Zocker durch eigenen Strategiewechsel herausfordert...versprochen hatte man das schon lange...
insofern nur eine legitime Forderung der Intel - MAs....:D
 
Das ist nichts weiter als eine indirekte Aufforderung an die Spieleindustrie auf i5/i7 hin zu optimieren, damit man weitere Kaufargumente gegenüber den alten C2Qs hat.
 
Viele hier meckern über fehlende Mehrkernunterstützung, wenn sie dann mal eingefordert wird, ist es auch wieder nicht recht.
 
@M.E. Da is wohl tatsächlich der Hase im Pfeffer gebraben.

Hardware scheint mehr Profit zu bringen, als dafür zugeschnittende Software. (Enticklungskosten > Profit im Vergleich Hardware zu Software)
 
Zuletzt bearbeitet:
Solch eine News nenne ich meist "bullshit". Reines Marketinggehabe. Der Typ ist der Überzeugung das mitlerweile jeder nen Quadcore hat und mit SSE4 unterstützung daherkommt. Die Realität die man gut mit den Steamstatistiken anschauen kann sieht anders aus. Gerade das Thema SSE4 ist doch wohl nen Running Gag wodurch AMD klar im Nachteil ist da diese nicht kompatibel sind.
 
Die Steamstatistik ist minder wertvoill wie ich schonmal gesagt habe. Dazu kommt das danch noch über 25% einen single core hätten. Das sind dann eher nicht die Kunden für neue Spiele denn da wird sich nicht viel spilbares auf dem Monitor tun. Die Quads sind durch die gesunkenen Preise erst richtig im Mainstreammarkt angekommen, das wird man noch nicht dort sehen können un d dazu ist noch die erhobene Datenmenge bedenklich selektiert.

Wenn man nicht irgendwann anfängt die Software AUCH für mehr als 2 Kerne zu optimieren wird es nie was...die Hardware ist da nun ist es an den Porgrammierern sie zu nutzen um was zu zaubern...dafür bekommen sie unter anderem Geld.
 
Richtig die Steam Statistik ist totaler Käse. Ich benutze z.B. meine Account sowohl auf dem PC unten in der Signatur, als auch auf meinem Atom Netbook (für Peggle und einige richtig alte Klassiker ala The Longest Journey reichts. ^^) Wenn die Steam Umfrage jetzt genau dann kommt, wenn ich gerade auf dem Netbook eingeloggt bin, dann zähle ich auf einmal zu den Singlecore Usern mit Intel onboard Grafik.
Echt toll und typisch Statistik. Absolut aussagekräftig. Steam kommt es dabei natürlich nicht in den Sinn, dass die Orange Box auf dem Netbook gar nicht laufen würde. Von Assassin's Creed ganz zu schweigen. :freak:
 
Zuletzt bearbeitet:
Und wenn man nicht kapiert das sich nicht jede Software parallelisieren lässt kann man noch Jahrelang auf ein Wunder hoffen.


Die Hardware die da ist wollte nie ein Programmierer haben.

Inbesondere diese grausame Parallelität die mit Mehrkernprozessoren erreicht wird.


Ein Großteil aller parallelen Algorithmen ist nichtmal einsetzbar, weil die Kommunikationszeit zwischen den Kernen astronomisch ist im Vergleich zur Abarbeitung eines Befehls.

Ganz zu schweigen von den langen Pipelines, was die effektive Zusammenarbeit noch weiter erschwert.


Das was man da als Hardware vorsetzt ist ein Witz.


Die mögliche Parallelität bei heutigen Mehrkernprozessoren kann man etwa so beschreiben :

man nehme 4 blinde, taubstumme Männer und trage ihnen auf ein Haus zu bauen.

- sie gleichzeitig an einer Aufgabe (z.b. Fundament) arbeiten zu lassen ist unmöglich, da keiner weiß was der andere macht

- sie gleichzeitig verschiedenes arbeiten zu lassen ist auch unmöglich da Fundament, Wände und Dach alle aufeinander beruhen und nur nacheinander bearbeitet werden können


Insbesondere letzteres wird jedoch immer wieder erwartet ohne das überhaupt mal jemand überlegt was er da verlangt.



Die heutige Mehrkernhardware wurde nicht entwickelt um gute Performance zu liefern, sondern sie wurde entwickelt weil sie einfach zu entwickeln war und sich gut verkaufen lässt.
 
Mit dem HT bzw SMT müsste es doch aber etwas bessser sein, oder?
Aufgrund der von Dir beschriebenen, nicht vorhandenen Pipline eines virtuellen Kernes, müsste die Sache dann doch schneller von statten gehen?

Eignet sich dann eher einer nativer Quad (amd), DualcoreQuad (775) oder Thread Monster (core i7) Oder eher der Larrabee ? :watt:

klär mich auf :)
 
Zuletzt bearbeitet:
beim gothic 3 führt vsync aktivierung von ca. 30 sek lade zeit zu 3 minuten.
 
Mit dem HT bzw SMT müsste es doch aber etwas bessser sein, oder?

kann ich nicht genau sagen. hatte bisher weder so eine cpu noch weiß ich wie es umgesetzt wurde.

Rein theoretisch könnte es jedoch um welten besser sein.


Eignet sich dann eher...


das ist derzeit völlig egal.

Die Algorithmen dafür werden nicht eingesetzt weil sie auf keiner aktuellen cpu funktionieren, deswegen spielt es auch keine Rolle was man kauft.

Geeignet wäre keiner von genannten da die Zeit zur Kommunikation bei allen viel zu groß ist.


Was zum Beispiel wirklich funktioniert haben wir heute schon : Superskalarität mit Out of Order.

Beispiel : ein Core 2 Duo schafft es aus jedwedem Programm, das nicht auf multicore ausgerichtet sein muss, bis zu 4 Befehle gleichzeitig zu berechnen.

Das klappt, weil die Ergebnisse dieser Operationen zeitig zur Verfügung stehen werden.


Bei verschiedenen Kernen klappt diese Parallelität auf Instruktionsebene nicht, weil die Zeit für die Kommunikation schon größer ist als die Berechnungsdauer an sich.

Man kann also höchstens bereits aggregierte Werte übertragen, z.b. indem man mehrere völlig unabhängige Schritte berechnet.


Das sind eben die 3 Stufen :

1 - rein sequentiell : wird auch in Zukunft nicht parallelisiert werden können, egal was kommt

2 - parallel auf Instruktionsebene : superskalarität und ähnliche Ansätze (rekonfigurierbare Strukturen etwa)

3 - unabhängig parallel


Derzeit erreichen wir eben nur das dritte und das ermöglicht einfach nur einen geringen Teil aller Probleme zu lösen.

Insbesondere betrifft das Probleme die wachsen. Beispielsweise ein doppelt so schweres Problem in der gleichen Zeit mit 2 Prozessoren zu berechnen.

Ein gleichschweres Problem jedoch in der halben zeit zu berechnet gelingt damit sehr oft nicht.


Stufe 2 erreichen wir zu einem gewissen Teil. Was die Zukunft bringt wird sich zeigen. Bulldozer von AMD verspricht hier viel und auch Torrenza könnte hier extreme Fortschritte bringen wenn es sich mal durchsetzt.

Stufe 1 ist wie gesagt unerreichbar.
 
Zuletzt bearbeitet:
Na dann ein Hoch auf die Engines die richtig von 4 Kernen profitieren...haben die jungs ja ne wahre Meisterleistung abgegeben. ;)
 
Kann man so nicht sagen.
Entweder es funktioniert oder es funktioniert eben nicht.

Wer ein wenig sich damit beschäftigt hat erkennt die Situationen ganz gut und kann daraufhin auch arbeiten.

Das bedeutet im Umkehrschluss aber nicht das ein Spiel das nichtmal von einem zweiten Kern angemessen profitiert schlecht programmiert sein muss.


Wenn der limitierende Teil der Berechnung nicht parallelisierbar ist, dann ist das eben so.

Hier besteht höchstens die Möglichkeit diesen Abschnitt ungenauer oder garnicht zu berechnen.

Macht z.b. Physx -> es ignoriert die Kollision in vielen Titeln komplett.

Nur um mal ein beispiel für sowas zu nennen.
 
Zurück
Oben