Limitiert CPU XYZ die Graka ABC?

HisN:
Du sagtest auf einer der ersten paar Seiten einmal als Begründung warum du auf kleiner Auflösung testest,
dass der CPU immer die gleiche Datenwahl verarbeitet und an die Grafikkarte gibt, also sozusagen bedeutet das das die Grafikkarte schlummert und nicht der Flaschenhals ist da sie nicht viele Bildpunkte berechnet, und dadurch die FPS vom CPU limitiert werden.
Das ergibt erst einmal Sinn für mich, jetzt hast Du aber rein die 0 und 1 Bit gesehen welche verarbeitet werden, aber was ist mit der Engine?

Sie trifft doch entscheid welche Daten geladen werden, und es gibt in den Daten je nach Qualitätsklasse doch etwa andere Auswahl oder?
Denn sonst kann ich mir das real zu messende Ergebniss in spielen nicht erklären, bei denen ich merke das mein CPU (siehe Sig.) auf vollen Anschlag läuft und die FPS nicht zufriedendstellend hoch sind:
Ich habe hohe Qualität eingestellt und somit viel zu verarbeiten, stelle ich aber alles auf niedrig in niedriger Auflösung schaufelt mein CPU trotzdem nicht auf 100% und errechnet mir damit abertausende FPS!

Die Software ist auf jedenfall noch entscheidend für die Priorität und Intensität der Arbeit und deshalb denke ich kann man nicht sagen, das es ein CPU selbst im ungünstigsten Falle die GPU nicht limitieren würde, wohl eher ist es durch die Anbindung an die Grafikakrte (deren Anbindung an den GDDR) ein riesen Potential vorhanden was der CPU lange nicht ausschöpfen kann und man daran sieht das es sich schon bewahrheitet das (um einfach mal eine Vermutung zu nennen) ein moderner Quadcore mit 2GHz oder mehr für moderne Mittelklasse Grafikkarten nötig ist um diese vollständig "zu füttern" (auf Standardqualität).


Gruß
 
Danke an HisN für diesen investigativen Thread und alle fleißigen Benchmarker bisher. Man kann nur hoffen das er auch wirklich gelesen wird und zum Nachdenken anregt, und nicht gleich mit TLDR quittiert wird.

Habe selber im Thread zum i5 760 Test schonmal was zum CPU- und GPU-Limit geschrieben, ergänzend dazu und zu den bisherigen Benchmarks hier im Thread noch eine Anmerkung:

Die CPU bereitet die Levelgeometrie für ein Frame auflösungsunabhängig für die GPU auf, erst die GPU transformiert diese Daten in die Zielauflösung und bemalt dann die Dreiecke (;)), soweit so gut.

Die CPU-Belastung ist jedoch abhängig vom Seitenverhältnis und FOV, da bei einer Widescreen-Auflösung die CPU logischerweise mehr Levelgeometrie für die "Ränder" erzeugen muss als bei einer 4:3 Auflösung.

Wenn also mit 16:10 Auflösungen wie 1680x1050 oder 1920x1200 etwas verglichen werden soll, dann nur in 640x400 oder in 800x500, da nur in diesen Auflösungen die dargestellte Bildfläche und somit die Menge der zu erzeugenden Levelgeometrie identisch ist; alles andere verfälscht nur die Messwerte.
 
guter Hinweis.
 
wie bitteschön kriegt man 10, 8 gb mit ram voll? Des geht doch fast garnicht!!!!
 
Ich tippe auf 8GB Ramdisk. Und ich bekomme meine 24GB auch locker voll (sonst hätt ich sie mir wahrscheinlich nicht gekauft). Hängt immer von der Software ab die Du benutzt und Deiner Arbeitsweise.
 
was haste da alles offen, so viele Sachen kann man als Mensch doch gar nicht gleihzeitig machen!
 
Zuletzt bearbeitet: (Und Außerdem" ich tippe" du hast es doch geschrieben also musst du es auch wissen)
Nur Photoshop, mit ein paar Bildern aus meiner Digicam jeweils mit mehreren Ebenen (und ganz vielen Undo-Schritten^^). Ein Glück gibts die 64-Bit-Varianten.
 
ja gut, mir reichen 6 gb ram, schöner artikel übrigens, meine 1 gb meiner xfx hd 5870 sind momentan nur in gta4 zu wenig(wusste beim Kauf noch nicht wie viel des schluckt)!
( das sollte eigentlich unter deinen Artikel vram usage aktueller Titel, irgendwie verwechselt)
 
Zuletzt bearbeitet:
Hallo,
ich als Leie beurteile das Thema mal objektiv wie folgt.
Bei meiner Konfig. hat das OC des Prozessor und der Grafikarte sehrwohl einiges gebracht. Wobei ich sagen muss das Prozessor OC den meisten Nutzen brachte. Meine Lieblings Games sind Ego Shooter. Schnell muss es gehen.

Das ist mein Senf dazu.

MfG

Lindy
 
Zuletzt bearbeitet:
Möchte mich auch bedanken, eine sehr gute Erklärung für den der es sich durchlesen will...
Ich schau mal, ob ich diese Verhältnisse in eine Grafik bringen kann.

@audoph1le auf Seite 1 und alle anderen die behaupten die SuFu werde nicht genutzt:
Vielleicht wird sie benutzt, aber sie liefert einfach nur den reinsten F***, habe jedes Wort des Titels einzeln eingegeben, stichworte, die HAARGENAUE Zeichenabfolge, und alles was ich bekommen habe, waren andere Threads über SSDs usw, und schlimmer noch, bei der genauen Zeichenfolge: KEINE ERGEBNISSE!

Einzelfall? Mitnichten, und nicht nur in diesem Forum. Schreibt nicht immer, dass andere die SuFu benutzen sollen, wenn diese einfach nichts brauchbares ausspuckt!
 
Bei 3-Buchstaben Wörtern im Titel tatsächlich schwierig.
 
sollte unerheblich sein bei exakter Zeichenfolge, außerdem finde ich diesen Thread auch nicht wenn ich nach Stichwörtern suche.

Zum eigentlichen Thema: Kurz mit Crysis Warhead getestet, GTX 560 mit Xeon WP3565:

1080p mit 16x QA 30 Frames
800x600 ohne AA 140 Frames

CPU Auslastung bei hoher: ca 30% bei ca 8 Gegnern die mich alle entdeckt haben.
 
Toller beitrag sehr schlüssig erklärt.
Thread habe ich abonniert, falls man denn auf anhieb nicht mehr findet.
 
Zuletzt bearbeitet:
Es gab doch damals diesen Werbe-Slogan als die erste Geforce released wurde: "High Performance, egal welche CPU".

Damals hat sich ein Kumpel von mir so ein Teil gekauft und es war tatsächlich so. Das Teil konntest mit jeder Gurken-CPU verwenden und alles lief flüssig. T&L hieß glaube ich damals das Stichwort, das Auslagern bestimmter Funktionen von CPU auf GPU. Nennt man die Dinger nicht seitdem überhaupt erst GPU? Bei der Riva wurde doch noch von einem Chipsatz gesprochen.

Ich weiß, ist etwas ab vom Thema aber irgendwie hatte ich gerade eine nette Erinnerung daran. Als wir damals im Laden standen und mein Kumpel noch etwas überlegt hat, ob es ihm die 1000,- DM wert ist, schaute der Verkäufer ihn nur an, grinste und meinte: "Na, da biste jetzt geil drauf, wa?"

Zack, gekauft! ;)

PS. Schöner Thread.
 
Jop, da wurde das Transformieren der Geometrie und die Beleuchtung auf die GPU ausgelagert. Seit dem sind CPUs fürs zocken immer unwichtiger geworden, abseits von Strategiespielen und Ausnahmetiteln (GTA 4).

Gott, man stelle sich vor, Shader-Orgien wie Crysis oder Metro 2033 müssten ihre Beleuchtung auf der CPU ausführen, die gerade mal 100 GFLOPs schafft. Wahrscheinlich würde man nichtmal 1fps hinkriegen :D

Im Prinzip sollte man noch weitere Sachen auf die GPU auslagern, Anno 2070 z.B. rendert bestimmte Spezialeffekte (die Wasserkaustiken z.B.) nun per Compute Shader auf der Grafikkarte. Ne Gute Sache wie ich finde, da solche Sachen auf der Graka viell. 5 ALUs benötigen, speziell bei Radeons wäre der Impact wohl gering und die CPU wird gut entlastet. Die hat bei Anno ja eh schon viel zu tun.
 
Mein ihr ein Phenom X4 9950 wird die Geforce 880gts 640MB zum beispiel bei GTA IV oder world in conflict limitieren?
 
Du hast es in der Hand.

Stell die Grafik bei GTA4 auf max und die Graka wird gnadenlos zusammenbrechen.
Wirst Du aber nicht machen, ist ja klar .... Du wirst einen Kompromiss zwischen FPS und BQ suchen. Also ein Gleichgewicht. Das ist doch das was ich versuche zu erklären.

Nebenbei .. in 640x480 wird die CPU eher limitieren als in 2560x1600.
 
Zuletzt bearbeitet:
Danke für die Info!
sarah-0
 
Würde mein AMD Athlon II X2 245 (2x 2,9 GHz) eine Nvidia GeForce GTX 560 bzw. AMD Radeon HD 6870 stark ausbremsen? Danke schon mal für die Info.
 
Hängt von Deinen Settings und Deiner Software ab. Es gibt keine Pauschal-Lösung.
Auch Du hast es in der Hand.
Wählst Du hohe Grafik-Settings wird eher die Graka zusammenbrechen. Spielst Du auf einem Winzig-Monitor in Ultra-Low-Settings limitiert die CPU.
 
Zurück
Oben