Fireplace Motiv 1 Neu

Wofür diese brachiale Leistung?

Haudrauff

Admiral
Registriert
Okt. 2007
Beiträge
8.788
Hallo,

ich verfolge in letzter Zeit sehr viel die Prozessoren- und Grafikchipentwicklung. Nun steht dem Casualspieler ja mit dem i7 (bei AMD kenn ich mich nicht aus) und GraKas ab GTX280 und der neuen 58xx von ATI ja ware Monster zur Verfügung.

Jetzt hab ich schon relativ lange einen C2D E6600 der bei mir mit ner Wasserkühlung wahlweise zwischen 3,6Ghz und 3,8Ghz läuft. Vor 3 Monaten kam ne GTX275 hinzu und seitdem spiel ich so gut wie jedes Spiel in 1920x1200 und hohen Settings.

Durch Benchmarks und Tests lesen und vergleichen kann ich mir Pi mal Daumen ausrechnen wieviel Mehrleistung ich haben würde, wenn ich besagte CPUs und GPUs kaufen würde. Nur wozu? Für welches Spiel, für welche Anwendung? Nein bleiben wir bei Spielen, da kenn ich mich besser aus. Also zur Kernfrage um die es sich in diesem Tread drehen soll.

Entwickeln die Hardwarehersteller an den Spieleentwicklern vorbei?

Eine ähnliche Situation war ja auch damals bei den Quadcores festzustellen. Tolle therotische Leistung, nur im Endefekt verpufft die an mangelden Anwendungen bzw Spiele.
Ich spiele zwar nicht jedes Game welches auf dem Markt kommt. Aber ich teste doch vieles zumindest an. Mir fallen auch nur sehr weinige ein, in denen meine Harwar schlapp macht.
Allen voran natürlich X3 sobald man mal 100 Stationen im Sektor hat und diese mit seiner Flotte besuchen will. Oder das ewige Crysis.
Dazu muß ich sagen, ich spiel Shooter relativ häufig mit AA auf 2x oder 4x. 8x probiere ich gar nicht erst aus. Nicht weil ich befürchte, dass es dann ruckeln könnte, sonder weil sich für mich da kein großer Unterschied auftut. Auch möchte ich aus irgendeinen Grund (nennen wir es Mitgefühl) meine GraKa niemals bis zum Ultimo belasten.

Also wofür ist jetzt ein i7/5870 Gespann gut? Nur für die Computer-Nerds die ihren 30"Monitor standesgemäß mit 8x AA und maximaler Auflösung bewundern möchten?

Ich weiß ja auch, dass viele von euch eine i7 Cpu haben. Und teilweise lese ich auch schon von vielen 5870 GraKas. Da möchte ich gerne wissen, was hattet ihr vorher? Es gibt ja auch Leute die von einer GTX 285 auf die neue ATI-Reihe umgestiegen sind. Was hat sich bei denen geändert? Ich rede jetz vom wahrnehmbaren Bereich, nicht vom meßbaren.

Ich hoffe, ich habe eine ordenliche Diskussiongrundlage geschaffen. Ich jedenfalls kann bei der aktuellen Hardwareleistung nur noch den Kopf schütteln. Zumal ich eben jedes Spiel in prachtvollen Settings und hohen Auflösungen spielen kann. Oder bin ich nur bedingt durch meine C64-Zeit zu anspruchslos?

MfG
 
Ich fahre mit meinem System auch noch gut, va. weil die C2D ja wahre Übertaktungsmontser waren.
Ein i7 bringt da bei Spielen einfach nichts.

Bei den GraKas ist es von vielen wahrscheinlich einfach nur das Hobby immer das neuste drin zu haben, gibt aber auch ein paar, die Leistung zwecks 30" Monitor immer brauchen können (wie du ja schon geschrieben hast).
 
es kommen bald bestimmt games die solche leistung brauchen werden
 
<--- seine alte 280GTX bricht auf einem 30" in 2560x1600 gerne mal ein. Und das schon bei 2xAA :-)
Durchgehend 60 FPS-VSYNC ist mein Ziel.
 
Zuletzt bearbeitet:
Ich denke nicht dass die Hardwareentwickler an den Spieleentwickler vorbei entwickeln. Die Spieleentwickler entwickeln an den PC-Spielern vorbei. (so nun aber genung vom wickeln :D)

Solang es die limitierenden Faktoren wie Xbox und PS3, Spieleentwickler die nur auf Profit aus sind gibt, wird die PC Hardware nie voll ausgelastet, höchstens durch schlechte Umsetzungen auf den PC (GTA4). Der PC-Spieler wird zunehmend verarscht und auf die Konsole verdrängt. Klar es gibt auch gute PC-Umsetzungen aber man merkt dass es ursprünglich ein Konsolenspiel war.

Ich will wieder mehr Spiele die Primär für den PC sind und auch das maximale aus dem PC herausholen. Aber für die Entwickler ist es natürlich einfacher für die PS3 und XBox zu programieren da es hier eine einheitliche Hardware gibt.

Fazit: PC-Spiele könnten schon viel schöner aussehen ohne PS3 und XBox.

Meine Meinung!
 
Ich denke, spielemäßig kann man solche Monster nur für wenige Titel gebrauchen - Crysis und Stalker fallen mir jetzt spontan ein.

Dass man diese Leistung wirklich braucht, außerhalb dieser zwei Spiele, wage ich stark zu bezweifeln - meine 88GT tut es bei 1920x1200 mit 4AA schließlich auch noch, und die hinkt mittlerweile meilenweit hinterher.

Dazu muß ich sagen, ich spiel Shooter relativ häufig mit AA auf 2x oder 4x. 8x probiere ich gar nicht erst aus. Nicht weil ich befürchte, dass es dann ruckeln könnte, sonder weil sich für mich da kein großer Unterschied auftut. Auch möchte ich aus irgendeinen Grund (nennen wir es Mitgefühl) meine GraKa niemals bis zum Ultimo belasten.

Deine Graka produziert soviele Frames, wie sie schafft. Es sei denn, Du aktivierst Vsync.

Ich weiß ja auch, dass viele von euch eine i7 Cpu haben. Und teilweise lese ich auch schon von vielen 5870 GraKas. Da möchte ich gerne wissen, was hattet ihr vorher? Es gibt ja auch Leute die von einer GTX 285 auf die neue ATI-Reihe umgestiegen sind. Was hat sich bei denen geändert? Ich rede jetz vom wahrnehmbaren Bereich, nicht vom meßbaren.

Da ist offenbar einfach zuviel Geld vorhanden. :p Ich bin bis heute bei der 88GT geblieben, weil mir der Unterschied zur GTX-Reihe einfach zu gering, bzw. preislich bei den stärkeren Karten zu hoch war. Zur 5870 würde ich rüsten, ja. Da lohnt sich das leistungsmäßig deutlich.

@HisN:

Mit der Auflösung fällst Du aber unter einen Anteil von unter einem Prozent. :p
 
Jeder muss eben selbst entscheiden wie viel Leistung er braucht.

Für mich kann eine CPU zb. nie schnell genug sein, da so ein HD-Encode gute 30h auf meinem Q6600@3,2Ghz dauert. Meiner mum reicht zB. ein P4 2,6Ghz weil sie eben andere Interessen hat (Office, Internet,...).
So ist das eben die einen Brauchen mehr Grafikleistung die einen eher mehr Arbeitsspeicher usw.
 
Das ist evtl so ähnlich wie bei Porsche, BMW & Co...brauch man sowas, Nein. Will man sowas haben? Ja, wenn man es bezahlen kann, manchmal auch wenn man es nicht kann. :freak: Die meisten werden das also nicht wirklich brauchen, es gibt sicher ein paar Ausnahmen, aber die fallen mir im Privatbereich auch nicht ein. :confused_alt:
Es ist eben so wie mit vielen Dingen, es geht nicht ums brauchen es geht um das besitzen. :king:
Denke ich jedenfalls oft....
 
@Heretic Novalis

Ich weiß um diese Diskussion. Nur kommt mir die neue CPU/GPU Generation doch viel zu früh, als das man sie wirklich brauchen könnte.
Dennoch gibts viele, die es gekauft haben. Nur frage ich mich, wozu?

Und die Kernfrage bleibt ja meinerseits: Entwickeln die Hardwarehersteller an den Softwareschmieden vorbei? Wissenschaftliche Anwendungsgebiete möchte ich ausschließen. Oder sind die Gamer gar nicht mehr die Hauptzielgruppe leistungsfähiger GraKas?

€dit: Ja, Hisn und seinem Monsterbildschirm hatte ich da auch im Gedanken. Aber wie Marcel^ schrieb: unter 1%
 
Zuletzt bearbeitet:
Wofür diese brachiale Leistung?
Einfach SSAA an und die meisten(alle) Karten brechen ein bei der Auflösung von einem 22". Entweder aus VRAMmangel oder nicht genug Rohleistung.
 
Die Core2Duos reichen ja noch gutt, seit doch froh ;).
Selbst mit meiner GTX260 laufen fast alle Spiele super, bis auf Company of Heroes mit HD Skins. Denn sobald ich da die Kameraperspektive so ändere, dass ich das halbe Schlachtfeld sehe (auf einer riesemap), habe ich noch 5fps, und ich bin nicht mal auf ultra, bei den Grafiksettings.

Einfach SSAA an und die meisten(alle) Karten brechen ein bei der Auflösung von einem 22". Entweder aus VRAMmangel oder nicht genug Rohleistung.
Company of Heroes mit Mods, kann locker mal 2gb verschlingen :(,...
 
Die Hardware ist doch seit Urzeiten der Software überlegen.

Erst erscheint die Hardware, dann die Spiele, die diese Hardware auslasten können.
 
Haudrauff schrieb:
Und die Kernfrage bleibt ja meinerseits: Entwickeln die Hardwarehersteller an den Softwareschmieden vorbei? Wissenschaftliche Anwendungsgebiete möchte ich ausschließen. Oder sind die Gamer gar nicht mehr die Hauptzielgruppe leistungsfähiger GraKas?

Die Software-Schmieden waren die letzten 20 Jahre der Hardware immer Voraus.
Und wenn man überlegt das selbst 2 Jahre alte Kamellen wie Crysis die aktuellen Grakas immer noch einbrechen lassen ..... (und nun erzählt mir nicht dass der Trend von Full-HD irgendwie an euch vorbeigeht^^)
 
ich gebe dir recht - wir sind leider an einem punkt angekommen, an dem es "zu viel leistung" gibt.

ich selber habe einen 30" monitor, aber nur eine 9300 (onboard) und spiele damit Day of Defeat Source bei 1680x1050.

da ich selber aber ansich NUR dieses spiel spiele, und dann auch noch recht selten, reicht es mir voll und ganz.

Leider geht der schuss der "zu viel leistung" nach hinten los. spiele werden garnicht mehr richtig optimiert. So haben schon spiele die ansich ganz wenig rechenleistung bräuchten, lausige frameraten, weil man sich einfach sagt, "warum optimieren, hat doch jeder die leistung". (Audiosurf z.b.)

desweiteren wird heute fast nurnoch für die konsole entwickelt, die grenzen der hardware werden garnicht ausgelastet, und wenn sie es werden, dann nur duch schlampige portierungen (GTA4).

ich denke mal, wenn die nächste konsolen generation kommen wird, werden wir dankbar sein, dass die entwicklung im PC sektor doch so schnell war, das es entlich wieder spiele geben wird, die nach was aussehen.

Denn ich bin es fast leid, dass jedes dritte spiel die Unreal engine nimmt, und fast alle gleich aussehen -,-

Nvidia hat das ja erkannt, und verlagert sich mehr und mehr in den professionelleren bereich (GPGPU).

Geht man nun in andere bereiche, wie CGI, dort sind in dne letzten paar jahren riesen sprünge warzunehmen.
2000 kam es groß in den medien, das man nun einen film, nahe dem realismus nachempfinden konnte, und dleu personen fast realistisch aussehen würden (Final Fantasy) - heute bewirbt man das noch nicht mal mehr, und lässt die realität mit der virtuellen welt verschmelzen (Benjamin button ist ein gutes bsp - oder zuletzt Avatar).
Dort bringt die mehrleistung viel mehr mittlerweile als im spielesektor, wo die techniken aufgebaut wurden.

Ich warte auf die nächste Konsolengeneration, und bin gespannt, wie die spiele dann aussehen werden ;)
 
@Haudrauff

Du hast es sowas von richtig erkannt - nach meinen Maßstäben. Für die "eine Anwendung/Spiel" brachial aufzurüsten obwohl man zum größten Teil mit einem System wie du es aufgeführt hast locker "dabeisein" kann.

Manche werden erst später klug und andere nie. Mit meinem Sys spiel ich auch nahezu alles in tollen Einstellungen und sollte ich unbedingt mal was hardwarehungriges haben fahr ich die Einstellungen geringfügig herunter - und siehe da: Ich muss immer wieder feststellen es sieht trotzdem blendend aus... keine Ahnung wieso manche ums verrecken 1920 X 1080 mit 8 fach AA oder mehr ? oder was weiß ich benötigen..

Die besten Spiele waren sowieso häufig die bei denen die Grafik zweitrangig war ! Aber wer kommt heute noch auf den Trichter...


Mfg

FL
 
rony12 schrieb:
Leider geht der schuss der "zu viel leistung" nach hinten los. spiele werden garnicht mehr richtig optimiert. So haben schon spiele die ansich ganz wenig rechenleistung bräuchten, lausige frameraten, weil man sich einfach sagt, "warum optimieren, hat doch jeder die leistung". (Audiosurf z.b.)

Dieses Argument ist schon damals wo die Entwickler angefangen haben von ASM auf Höhere Programmiersprachen wie C umzusteigen gebracht worden. (C64/Amiga .. sorry ich bin älter^^).

Optimierung/Entwicklung kostet Geld und Zeit .. wenn der Entwickler sich das sparen kann (aus welchen Gründen auch immer) wird er es sich sparen.
 
Und die Kernfrage bleibt ja meinerseits: Entwickeln die Hardwarehersteller an den Softwareschmieden vorbei? Wissenschaftliche Anwendungsgebiete möchte ich ausschließen. Oder sind die Gamer gar nicht mehr die Hauptzielgruppe leistungsfähiger GraKas?

Ich denke, dass sie es zum Teil machen. Deshalb wird ja auch immer mehr auf GPU-Computing gesetzt, damit diese Monster auch alltagstauglich sind.
 
Zurück
Oben