Grafiklimitierung und CPU

Decker

Cadet 2nd Year
Registriert
Dez. 2008
Beiträge
22
Was mir in letzter Zeit immer wieder auffällt ist, dass eigentlich alle Spiele durch die Grafikkarte limitiert sind. Quadcores bringen derzeit kaum einen Vorteil, der i7 ist für Spieler absolut sinnlos, theoretisch könnte man die meisten Spiele auch mit einer hochgetakteten Singlecore CPU spielen. Gab es eine derartige Entwicklung schon immer? Ich habe das Gefühl das ganze hat sich erst in den letzten Jahren so extrem in diese Richtung verschoben.
Die Frage ist nun, was bringt die Zukunft? Hinken die Grafikkarten immer weiter hinterher? Das würde in Zukunft ja bedeuten, dass die Leistungssteigerung neuer Hardware immer geringer ausfällt, wenn nur noch die Grafikkarte entscheidende Verbesserungen liefert. Das könnte im Endeffekt zu einer Stagnation im CPU Bereich führen, zumindest was den normalen Desktop-PC angeht. Das wäre für den Fortschritt natürlich nicht so gut.

Was kann man dagegen tun? Ist es eine Sache der Programmierung? Sind derzeitige Spiele und Anwendungen einfach noch zu schlecht auf Multicores optimiert? Ist es überhaupt möglich eine entscheidende Verbesserung durch Programmierung zu erlangen? Oder ist es vielleicht sogar die Architekur des PCs, die einfach an ihre Grenzen gestoßen ist? Wäre es vielleicht sinnvoller in Zukunft Prozesse wie Grafikberechnung und Physikberechnung mit auf die CPU auszulagern, da diese eh nicht komplett ausgenutzt wird...

Fragen über Fragen, ich hoffe es entwickelt sich eine kleine Diskussion, ich muss zugeben mir fehlt auch einfach das komplette Fachwissen, ich hoffe jemand kann damit dienen. Schreibt ruhig mal eure Meinung dazu!
 
Die Spiele sind zunehmend schlampig von den Konsolen portiert.

Für mich persönlich liegt die Limitierung weder im Geld, noch in der Leistung. Es ist für mich der begrenzende Faktor der Stromverbrauch.
Klar würde ich mir gerne einen Quad und eine fette GTX280 hier hinstellen. Aber das Ganze möchte ich irgendwie leise kühlen.
Das hört für meine Begriffe schon fast bei einem aktiven Netzteil auf.
Da ein aktuelles Highendgespann sich aber 500 Watt tatsächlicher Leistung einzuverleiben mag, muss ich halt immer auf Shrinks und kleinere Pendants ausweichen.

Die Software ist - nicht nur bei der Unterhaltung - teilweise 1-2 Schritte der Hardware hinterher.
 
Die Software ist - nicht nur bei der Unterhaltung - teilweise 1-2 Schritte der Hardware hinterher.

Oder auch voraus. Siehe extrem hardwarehungrige Spiele wie Crysis.
 
Zwirbelkatz schrieb:

Schon mal über eine Wasserkühlung nachgedacht? ;)
Außerdem lässt sich fast alles leise Kühlen - spätestens, wenn man anfängt einen IFX-14 auf die GPU zu schrauben...stets getreu nach dem Motto "Was nicht passt, wird passend gemacht." :D
 
Zuletzt bearbeitet von einem Moderator:
Crysis ist ne Grafikdemo ohne Inhalt für mich.

Auf was ich abziele sind Office Anwendungen. Berufliche Software, CAD oder Grafik meinetwegen. Die sind teilweise oder waren teilweise nicht in der Lage, Quads tatsächlich auszunutzen.
Der i7 wird diese Tatsache wohl nicht verbessern.

Außerdem lässt sich fast alles leise Kühlen - spätestens, wenn man anfängt einen IFX-14 auf die GPU zu schrauben.
# Wakü ist mir zu freakig und kompliziert.
# Ich verwende µ-ATX. Sonst wäre es ja einfach ;)
 
Zuletzt bearbeitet:
Die Software war schon immer der Motor der Hardware-Industrie. Sonst würden wir jetzt noch an 486er sitzen. Gott wie hat damals WingCommander auf meinem 386SX16 geruckelt.
 
Zwirbelkatz schrieb:
Die Spiele sind zunehmend schlampig von den Konsolen portiert.

komischerweise profitieren zum teil gerad diese konsolenspiele von den vier kernen. ok das macht gta iv nicht wirklich zu einer besseren portierung, allerdings zeigt das, dass eben doch software kommt, die die hardware fordern wird. assassin's creed ist hier zumindest ein technisch schöneres beispiel: gute portierung und deutlicher nutzen aus aktueller hardware (auch wenn ein dual core hierfür natürlich immer noch reicht).

Decker schrieb:
Hinken die Grafikkarten immer weiter hinterher?
dem kann ich auch nicht ganz zustimmen. wenn man sich mal anschaut, was man aus einer grafikkarte so alles rausholen kann, dann liegt das problem eher daran, dass spiele die hardware einfach nicht ganz ausreizen. ich meine hiermit den vergleich zur grafik der spielekonsolen. hier wird immer noch aktuelle grafik in "hd" geboten und das mit eigentlich veralteten modellen (die xbox hat glaube ne ati aus der x19xx ära und die ps3 eine nvidia aus der gleichalten gforce 7xxx zeit). ok natürlich ist die grafik nicht mehr ganz so top wie es manche spiele wie crysis zeigen, aber es zeigt auch was in vermeintlich veralteter hardware so drin steckt. wenn man dann noch darüber nachdenkt, wozu die gut vier mal schnelleren aktuellen grafikkarten zu leisten im stande wären, würde man sie denn nur mal richtig ausreizen...

also wie zwirbelkatze schon meinte, hier hinkt die software einfach hinterher. was bei pc spielen aber wohl an der vielfältigkeit der systeme liegt, für die spiele konzipiert werden. wenn man nur die high end system fördern würde, wohl die masse der pc spieler nicht mehr wirklich mitmachen. klar werden die neuen spiele immer anspruchsvoller, aber ich meine halt dass es für kein pc-system der welt je ein spiel geben wird dass die hardware maximal ausreizen wird, im gegensatz zu konsolen.

Decker schrieb:
wenn nur noch die Grafikkarte entscheidende Verbesserungen liefert. Das könnte im Endeffekt zu einer Stagnation im CPU Bereich führen, zumindest was den normalen Desktop-PC angeht.
wie du schon sagst würde das wenn dann nur auf die desktop modelle zu treffen. und das zur weiteren einschränkung nur, wenn spiele denn auch hier das allerwichtisgte thema wäre. aber ob dus glaubst oder nicht, es gibt noch andere fordernde aufgaben für eine cpu als nur die besten fps aus einem spiel zu kitzeln. zb videobearbeitung, bildbearbeitung, renderaufgabe... und hier ziehen die aktuellen programme schon deutlichen nutzen aus der parallelisierung (auch wenn hier inzwischen dank cuda und co auch grafikkarten eine rolle spielen).
aber da die dekstop modelle meist eh direkte verwandte der servermodelle sind und hier wird ebenfalls ständig nach steigender leistung gefragt, wird es nur wegen der spieleleistung sicherlich nicht zu einer stagnation kommen. du brauchst halt einfach nicht mehr das schnellste modell kaufen, wenns dir nur um spiele geht, was deinem geldbeutel zu gute kommt ;).

und auch hier stimme ich zwirbelkatze zu, es wird in zukunft immer mehr um die energieeffizienz gehen. mehr leistung für höchstens den gleichen verbrauch, besser noch weniger.
 
Zuletzt bearbeitet:
Hi,

denke das Problem was Softwarehersteller haben ist eine zufriedenstellende Skalierung hinzubekommen.
Wenn Sie konsequent auf Quadcores setzen würden minimiert sich der Nutzerkreis zu stark bzw. die DualCore User beschweren sich über schlechte Performance.
Crysis war da ein gutes Beispiel. Zumal viele nicht einsehen wollen das ein Spiel nicht umbedingt immer mit den extremst möglichen Einstellungen gespielt werden muss.

Finde den Ansatz von GTA 4 nicht schlecht zusagen wir haben noch Reserven nach oben für zukünftige Hardware. Was die schlechte Portierung nicht beschönigen soll.

greets
 
Zurück
Oben