Bericht Bericht: Nvidia ForceWare 163.67

Also ich für meinen Teil muss CB herzlich dafür danken diesen Test gemacht zu haben. Ansonsten hätte ich mir den Treiber wohl installiert und gar nicht bemerkt, dass meine Shaderdomäne auf einmal nicht mehr übertaktbar ist. Solange es also kein Tool gibt, dass beide Domänen getrennt übertakten kann werde ich vorerst nicht mehr updaten.

Gibt es wohl eine Chance, dass der Rivatuner doch noch einmal ein kleines Update diesbezüglich erhält? Soweit ich weiß wurde dessen Entwicklung ja eingestellt oder liege ich da falsch?
 
Ich habe es noch nicht getestet.

Ich dachte die Entwicklung des Rivatuners wurde eingestellt und als letzte Änderung gab's nur noch den Vista support. Sollte danach die Entwicklung nicht gestoppt werden? So hatte ich das jedenfalls in Erinnerung und ich bin von daher ausgegengen, dass es gar keine neueren Versionen mehr gibt.


//EDIT:
Ich lese gerade im Changelog vom 2.04:
Now RivaTuner is the only third party overclocking tool supporting new independent shader domain clock adjustment interface too and able to overclock it with these drivers
Danke, dass du mich darauf hingewiesen hast. Dann kann ich den Treiber ja jetzt installieren und hoffen, dass der in Crysis wirklich einen kleinen Vorteil bringt. Zumindest kann ich meine Karte jetzt besser ausreizen.
 
Zuletzt bearbeitet:
Meinst du Crysis wird besonders stark von einem hohen Shadertakt profitieren?

mFg tAk
 
die Skalierung mit 22' funktioniert immer noch nicht, super!
 
tAk schrieb:
Meinst du Crysis wird besonders stark von einem hohen Shadertakt profitieren?

mFg tAk
Keine Ahnung. Wahrscheinlich nicht mehr als andere Spiele auch, aber der Treiber soll schon einige Crysis-Optimierungen enthalten. Deswegen würde ich ihn gerne installieren.
Natürlich nur, wenn dadurch mein Shadertakt nicht wieder auf den Standadtakt sinkt. Da es aber mit dem Rivatuner zu gehen scheint werde ich das em WE mal ausprobieren. Momentan funktioniert das allerdings nur über Umwege. Es gibt noch keine getrennten Schieberegler für den Core- und Shader-Takt. Stattdessen kann man aber das Core/Shadertakt Takt-Verhältnis ändern.

Das Eine oder Andere Frame werde ich auf die Art vielleicht noch rauskitzeln können. Mal sehn. Es kann auf jeden Fall nicht schaden, da die Shaderleistung der GTS ja nicht nur durch die geringere Anzahl der Shader sondern auch durch den geringeren Shadertakt deutlich hinter der einer GTX liegt.
Durch das Übertakten liege ich beim Coretakt zwar über einer GTX Ultra aber der Shadertakt liegt immer noch unterhalb einer normalen GTX. Das Verhältnis ist also etwas unausgeglichen, würde ich sagen. Von daher kann ich mir gut vorstellen, dass es bei shaderintensiven Spielen wie Crysis doch noch etwas zusätzliche Leistung bietet, wenn ich den Shadertakt noch etwas pushen kann.
 
Ich würde den 163.69 auch gerne benutzen, aber leider hab ich massive Probs bei Stalker. Das schmiert spätestens nach 15 mins aber und es hilft nur ein Computer-Reset. Gibt wohl noch andere die das Problem haben. Schade eigentlich, da ja der neue extra für Crysis optimiert ist.
 
Auch ich hab total Probleme mit dem 163.69 Forcewaretreiber. Company of Heroes im DX10 Modus (alles Ultra) stürz es mal beim Laden mal nach 1h Spielzeit ab. Rivatuner funktionier mit dem Treiber erst recht nicht, was ja aber auch an Vista 64bit liegen kann. Hab alles wieder auf den 163.44 zurückgesetzt.
 
Was wirklich genial wäre, wenn ihr die Auflösung 2560x1600 mit in eure Benchmark Ergebnisse einbeziehen könntet.

Ich meine jetzt nicht nur beim Treibervergleich, sondern allgmein. Dann kann man immer erkennen, wieviel Luft man sich verschaffen kann, indem man die Auflösung runter schraubt.

Der Test ist ansonsten wie immer perfekt.
 
Bei High-End-Kartentests nutzen wir eigentlich auch immer 2560x1600. Da dies aber selbst für eine GeForce 8800 Ultra ein harter Batzen ist, haben wir uns entschieden, diese nur bei den High-End-Karten beziehungsweise schnellen SLI/CF-Systemen zu nutzen.
 
Ist auch sicher eine sehr gute Entscheidung! :)
 
Ich hoffe jetzt mal, dass ich nicht auf der Schleimspur von LordZ ausrutschte......... ;)

Aber für 30" Besitzer ist sowas schon interessant. Aber solange ihr die "Extra HD" Auflösung bei High End Karten testet ist es ja in Ordnung.
Ich fände es nur interessant, ob sich bei den FPS was tut in der hohen Auflösung mit einem neuen Treiber.
 
Zuletzt bearbeitet:
Mich würde mal interessieren, warum Lost Planet, Oblivion & Bioshock im Prinzip richtig billig aussehen, aber nur Frameraten hergeben, welche jenseits von Gut und Böse sind. Die Texturen sind mies, die Optik sieht als Ganzed total öde aus, ruckelt aber wie verrückt = schlecht programmiert?
Vergleicht mal Prey mit Bioshock!

Ich hab die Bioshock, CM Dirt & Lost Planet Demo gehabt und ich muss sagen, es gibt Spiele, die obwohl sie 10-mal besser aussehen trotzdem viel besser laufen. Liegts am DX10 oder Vista? Weil unter Vista spiel ich auch nicht, zu schwache Performance.

MFG

McDaniel-77
 
Zuletzt bearbeitet:
Das ist zwar offtopic, aber ich finde es gibt sehr verschiedene Engines und Geschmäcker. So finde ich persönlich auch Engines wie UT3 oder die von Bioshock (Unreal 2.5!?) nicht sonderlich attraktiv ins Verhältnis gesetzt zur performance.

Ganz anders die Half Life 2 Engine. Die läuft und läuft und läuft und sieht einfach nur gut aus. Die irre übertriebenen Shader und Bump Mapping Effekte in vielen Engines verleihen allen Oberflächen völlig unnatürlich aussehende glitschige oder plastische Eigenschaften und kosten massig Leistung. Außerdem werden die darunterliegendenen Texturen dann optisch irgendwie verwaschen und matschig. Ich denke, dass ist einer der Hauptunterschiede.

Ein weiterer ist, dass Engines, die auch auf Konsolen laufen dazu tendieren allgemeine häßlichere Texturen zu haben (Bioshock, Rainbox Six: Vegas, etc.). Während reine PC-Spiele deshalb schöner aussehen, weil die Texturen von Anfang an für PCs erstellt wurden (HL2, Crysis).

Grüße

FatBaron

PS: Stimmt. DIRT war noch so ein Negativbeispiel für eine Engine. Grafik total matschig. Auf XBOX 30fps, auf High-End Rechner gerade so 40fps. Und dann die news des Tages: Operation Flashpoint 2 wird mit der DIRT-Engine realisiert. Große Außenareale in Postkarten-Qualität ----- also 3 Postkarten pro Sekunde. :-)
 
Zuletzt bearbeitet:
@FatBaron

Gute Grafik liegt ja auch im Auge des Betrachters. Bei Dirt sind sich aber viel mehr User darüber einig, als bei allen aktuellen Spielen, die auf der UE3 basieren, dass die Grafik sehr gut ist. Nur die Performance ist natürlich eine Frechheit, was aber imho nicht an der Engine liegen muss, den Dirt ist ja generell recht buggy.

@Andy_O

WTF? Man wird einem CB Mitarbeiter doch noch ein Feedback geben können? Sei es positiv oder negativ ...
 
@ LordZ:

Calm down. Er hat ja auch ein ";)" dahinter gesetzt.

Wirklich viel werden die neuen Treiber auch in höheren Auflösungen nicht bringen.

mFg tAk
 
Na okay ^^
 
Zurück
Oben