nvidia und die Optimierungen...

Carsten

Commodore
Registriert
Juli 2001
Beiträge
4.590
Da ich gerade meine GF6800 als Quadro laufen lasse, was nebenbei bemerkt, erstaunlich gut zu funktionieren scheint, bis auf die gewohnten Qualitätseinstellungsschalter im Treiber, dachte ich mir, ich könnte doch mal einen Durchlauf im 3DMark05 machen.

Nur so zum Spaß.

Treiber war der 71.24, meine GF6800 kann in der Signatur eingesehen werden (Treiber aktuell 71.24, 16-6 Pipelines und 350-350 MHz Taktrate).
Drei Durchläufe mit der GF als normale GF6800 generierten default-Ergebnisse von 3350-3420 3DMarks.

Ein Durchlauf mit Strap-Driver und Geräte-ID "Quadro" erbrachte dann noch gnädige 2830 Punkte (zwei weitere Durchläufe verfizierten dies).

Toll gemacht, nVidia. :| Wie soll da der arme 3DMark noch seine Funktion als Leistungsindikator für moderne Games erfüllen? ;)
 
Das könnte auch mal jemand mit einer FireGL machen!
 
Carsten schrieb:
Ein Durchlauf mit Strap-Driver und Geräte-ID "Quadro" erbrachte dann noch gnädige 2830 Punkte (zwei weitere Durchläufe verfizierten dies).

Toll gemacht, nVidia. :| Wie soll da der arme 3DMark noch seine Funktion als Leistungsindikator für moderne Games erfüllen? ;)
Aber worauf willst Du jetzt mit dem Vergleich hinaus?

Ich dachte, es sei eine allgemein akzeptierte Tatsache, dass eine Quadro zwar Leistung hat, aber nicht im Gaming-Bereich. Somit verifiziert dies der 3DMark doch auch korrekt und bestätigt seine Funktion als Leistungsindikator erfolgreich.
 
Quadro und GeForce-Chips sind identisch. Der GeForce fehlen einige Features, die per BIOS und Treiber blockiert werden, wie bsw. AA-Lines mit Hardwarebeschleunigung.
Die "fehlende" Geschwindigkeit der Quadro in Games kommt daher, daß hier viel weniger Optimierungen (legale und evtl. illegale?) aktiv sind.
 
da wär mal ein vergleich in euerm optimierungs artikel interessant
obwohl die "verbesserungen" der quadro wohl nicht bei af liegen sondern im allgemeinen
 
Also Ihr könnt mich bestimmt für verrückt halten! Mir ist auch etwas aufgefallen was mir schon länger im Magen Bauchschmerzen verursacht und ich mir nur mit Schummeln von Nvidias Seite her erklähren kann! Mal sehe ob Ihr dafür eine andere Erklährung findet!

Ich habe einen alten Belinea 19" Monitor der z.B. bei 1024x768 nur 100MHz beherrscht und nicht mehr! Als ich die neuen 70er Treiber aufspielte viel mir auf, dass die Spiele insgesamt flüssiger liefen als vorher! Dabei hatte ich doch sogar HighQuality im Treiber eingestellt! Da fällt mir bei Everest auf, dass mein Monitor pötzlich angeblich 115MHz beherschen würde! Dies ist aber technisch nicht möglich! So bin ich in den Nvidia Treiber und habe dort einmal (obwohl mir max bei den Monitorsettings 100MHz angeboten werden) manuell den Treiber auf 115MHz gestellt und siehe da diesmal keine OUT OF RANGE Meldung von meinem Monitor! Sondern jetzt habe ich die Games nochmal angeworfen und alles wirkte plötzlich etwas träger als vorher!

Kann es sein, dass Nvidia dem PC vorgaukelt 85MHz seien 100MHz und der Karte damit die Berechnung von 15Halbbilder pro Sekunde erspart und somit ein flüssigeres Spielgefühl zuvermitteln? Ist das Möglich? Ich habe noch nie gehört, dass man durch einen Neuen Treiber die MHz Zahl an seinem Monitor erhöhen könnte! Das ist mir NEU!

Gruß Dilandau

EDIT: Insgesamt ist das mir bei 3 Rechner aufgefallen! Einer mit ner 440 MX, einer mit ner G2 GTS und mein Rechner 6800GT!
 
Zuletzt bearbeitet von einem Moderator:
Carsten schrieb:
Quadro und GeForce-Chips sind identisch. Der GeForce fehlen einige Features, die per BIOS und Treiber blockiert werden, wie bsw. AA-Lines mit Hardwarebeschleunigung.
Die "fehlende" Geschwindigkeit der Quadro in Games kommt daher, daß hier viel weniger Optimierungen (legale und evtl. illegale?) aktiv sind.
Die Frage bleibt, was Du mit folgendem Zitat nun aussagen wolltest:
Carsten schrieb:
Ein Durchlauf mit Strap-Driver und Geräte-ID "Quadro" erbrachte dann noch gnädige 2830 Punkte (zwei weitere Durchläufe verfizierten dies).

Toll gemacht, nVidia. :| Wie soll da der arme 3DMark noch seine Funktion als Leistungsindikator für moderne Games erfüllen? ;)
Das wusstest Du doch vorher und um Dich beim Worte zu nehmen, sicher hat nVidia das toll gemacht. Schließlich stellt sich heraus, dass 20 % mehr Leistung durch Optimierung erzielt wurden. 3DMark verifiziert dies lediglich und verliert deswegen doch nicht seine Funktion als Leistungsindikator.
Oder spricht hier der Wunsch nach einem qualitätsunabhängigen Benchmark heraus, welcher einen NV40 ungeachtet seines BIOS und der installierten Treiber auf Leistung prüft?
 
Dilandau schrieb:
Kann es sein, dass Nvidia dem PC vorgaukelt 85MHz seien 100MHz und der Karte damit die Berechnung von 15Halbbilder pro Sekunde erspart und somit ein flüssigeres Spielgefühl zuvermitteln? Ist das Möglich? Ich habe noch nie gehört, dass man durch einen Neuen Treiber die MHz Zahl an seinem Monitor erhöhen könnte! Das ist mir NEU!


Mir waere es neu, dass die Refrehraten von Monitoren (die im uebrigen absolut gar nicht mit berechneten Frames zu tun haben, die Antwort auf deine Frage lautet also NEIN) im MHz Bereich liegen. Meiner macht nur 100Hz.;)
 
Könnt mich gerne korrigieren... ich dacht immer das nicht nur die Auflösung sondern auch die Frequenz durchaus Einfluss auf die Performance hat oder hat sich das geändert? Wenn der Monitor darauf keinen Einfluss hat warum macht man sich dann die Mühe die Einstellung Vsync zudeaktivieren um besser Frameraten zu erziehlen?

Also bei Vsync AN muss die Karte auf das neue Zeichnen des Bildes warten bis der Monitor das vorherige Bild komplett dargestellt hat und das OK für das nächste gibt => die Karte wird von dem Monitor somit ausgebremst, wenn sie in der Lage ist mehr Bilder zuzeichnen als der Monitor hergibt... hier hat die Frequenz des Monitors direkten Einfluss auf die Leistung der Karte...

Bei Vsync AUS kann die Karte zwar mehr Bilder darstellen und erreicht bessere Benchwerte - es kommt aber zu dem bekannten Zeilensprung/Zeilenbruch bei schnellen Bewegungen... der Monitor ist nicht mehr in der Lage die gezeichneten Bilder darzustellen und so kommt es zu Überlagerungen einzelner Bilder...

Wahrscheinlich bring ich da grad was durcheinander... klährt mich doch bitte mal auf... habe mich zugegeben mit dem Thema noch nicht so auseinander gesetzt...

...mein Gedanke war nur, dass Nvidia die Karte weniger Bilder (auf Monitor) zeichnen läßt als nötig und die eingesparte Rechenleistung in die Berechnung des nächsten Frames fließen läßt
 
Zuletzt bearbeitet von einem Moderator:
Dilandau schrieb:
Könnt mich gerne korrigieren... ich dacht immer das nicht nur die Auflösung sondern auch die Frequenz durchaus Einfluss auf die Performance hat oder hat sich das geändert?

Nein, das hat sich nicht geaendert, der Einfluss ist aber aeusserst gering und kommt nur dadurch, dass der RAMDAC oefter auf den Speicher zugreifen muss, waehrenddessen kann der Grafikchip nicht auf das RAM zugreifen.

Dilandau schrieb:
Wenn der Monitor darauf keinen Einfluss hat warum macht man sich dann die Mühe die Einstellung Vsync zudeaktivieren um besser Frameraten zu erziehlen?

Das ist ein anderes Thema. VSync beschneidet die Frameraten auf die Wiederholrate des Monitors um eben nur ganze Frames wiederzugeben (kein Tearing wie bei Vsync off).

Dilandau schrieb:
Also bei Vsync AN muss die Karte auf das neue Zeichnen des Bildes warten bis der Monitor das vorherige Bild komplett dargestellt hat und das OK für das nächste gibt => die Karte wird von dem Monitor somit ausgebremst, wenn sie in der Lage ist mehr Bilder zuzeichnen als der Monitor hergibt... hier hat die Frequenz des Monitors direkten Einfluss auf die Leistung der Karte...

Richtig, die Karte muss warten und tut nichts, wenn sie schon das naechste Bild fertig berechnet hat, das vorherige aber noch nicht komplett auf dem Monitor ausgegeben wurde.

Dilandau schrieb:
Bei Vsync AUS kann die Karte zwar mehr Bilder darstellen und erreicht bessere Benchwerte - es kommt aber zu dem bekannten Zeilensprung/Zeilenbruch bei schnellen Bewegungen... der Monitor ist nicht mehr in der Lage die gezeichneten Bilder darzustellen und so kommt es zu Überlagerungen einzelner Bilder...

Absolut korrekt. Die Zeilenspruenge nennt man auch Tearing (aus dem Englischen).


Dilandau schrieb:
Wahrscheinlich bring ich da grad was durcheinander... klährt mich doch bitte mal auf... habe mich zugegeben mit dem Thema noch nicht so auseinander gesetzt...

...mein Gedanke war nur, dass Nvidia die Karte weniger Bilder (auf Monitor) zeichnen läßt als nötig und die eingesparte Rechenleistung in die Berechnung des nächsten Frames fließen läßt

Du glaubst, dass NVidia die Bildwiderholrate absenkt um mehr Leistung zu erzielen? Das funktioniert heute praktisch nicht mehr (siehe auch Punkt 1 meiner Antwort), die vom RAMDAC verbrauchte Bandbreite ist viel zu gering im Vergleich zur Gesamtbandbreite des RAMs.
 
Carsten, gib mir mal bitte nen Tipp.
Da meine Neugier geweckt wurde wollte ich auch mal nen Quattro Treiber antesten um zu schauen was passiert. Nur leider ist im Rivatuner unter "Low-Level System Settings" -> "NV Strap Driver" das Einstellfenster für Graphics Adapter Identification auf determined by Hardware und das ganze ist grau hinterlegt. Ich kann also keinerlei Einstellungen vorhehmen. Geht das überhaupt bei meiner 6600GT ? Warum sollte es nicht gehen ? Hab ich was nicht beachtet ? Muss ich erst den Treiber installieren ? Kann ja nicht sein oder ?
 
?

Ich weiß nicht genau .. mag mich Irren? Aber kann es sein das man nicht Vorher da beim NVStrap driver auf Reinstall klicken muß bevor diese besagten weiterführenden Optionen nutzbar werden?
 
kisser schrieb:
Du glaubst, dass NVidia die Bildwiderholrate absenkt um mehr Leistung zu erzielen? Das funktioniert heute praktisch nicht mehr (siehe auch Punkt 1 meiner Antwort), die vom RAMDAC verbrauchte Bandbreite ist viel zu gering im Vergleich zur Gesamtbandbreite des RAMs.

Stimmt! Habe mich mal gestern etwas eingelesen... bei den heutigen Karten fällt das in die Katigorie der Messungenauigkeit... haben auch meine Benches ergeben... die Abweichung war dar, aber zu gering um als Ausagekräftig zu gelten...

Finde es trotzdem merkwürdig, dass ich bei 3 unterschiedlichen Rechnern mittlerweile 115MHz einstellen muss um 100MHz am Monitor zu bekommen... vieleicht handelt es sich dabei auch nur um einen Bug im 76.45...

;) ...war nur ein Gedanke...

Vielen lieben Dank kisser für die Infos! Sowas macht mir Spaß... nennt man galub ich: Learning by doing!

Gruß Dilandau
 
Ich habe hier jetzt,schon ein paar Threads über qaulity gelesen.

Finde ich auch alle ganz gut.

Wer eine geforce 6800 hat kann ja mal Halflif 2 Mit nem 61.72 und nem 71.89 zocken,
und vielleicht mit der directx version 9.0a oder wass das spiel selber verlangt,9.0b.

Probiert es einfach mal aus.

Weil ist schon merkwürdig warum ab 66.93 alles etwas flotter läuft.

Gruß R2D2 :cool_alt:
 
Zuletzt bearbeitet:
sebbekk schrieb:
Das wusstest Du doch vorher und um Dich beim Worte zu nehmen, sicher hat nVidia das toll gemacht. Schließlich stellt sich heraus, dass 20 % mehr Leistung durch Optimierung erzielt wurden. 3DMark verifiziert dies lediglich und verliert deswegen doch nicht seine Funktion als Leistungsindikator.
Oder spricht hier der Wunsch nach einem qualitätsunabhängigen Benchmark heraus, welcher einen NV40 ungeachtet seines BIOS und der installierten Treiber auf Leistung prüft?
Letzteres ist der Fall. :)
 
Ich persönlich denke mal,das die Hersteller mal mehr auf Bildqälität achten solten.

Und nicht nur auf speed,oder aufteilen für Leute die auf Servern zuhause sind,oder die Leute die ein aha Erlebnis suchen.

Weil Nvidia und Ati könnten warscheinlich beides im Treiber realisieren.

Ich persönlich spiele lieber mit dem aha Erlebnis. ;)


So ein treber wie 61.72 mit Clamp Schalter wäre schon nett. :king:

Gruß R2D2 :cool_alt:

Entschudldigung das ich mich hier mal offiziell über die Bilqaulity beschwere.

Aber es geht auch anders. :cool_alt:

Ob whql im treiber steht oder nicht,wer setzt hier den masstabb!

Windows oder erlaubt directx von version zu version mehr optiemierungen im Treiber. :freak:

Ist halt schon ungehwönlich,vorher 41 Frames und danach 60Frames. :evillol:

Oder ziehen da alle an einem Strang? :rolleyes:
 
Zuletzt bearbeitet:
siehts nun besser aus oder nich? ich meine , merkt man , dass die Optimierungen ausgeschalten sind, oder sehe ich das nicht. mach ichs oder nich?
 
sebush schrieb:
siehts nun besser aus oder nich? ich meine , merkt man , dass die Optimierungen ausgeschalten sind, oder sehe ich das nicht. mach ichs oder nich?
Das musst Du schon selbst ausprobieren. Ich persönlich kann das glaube ich nur sehen, wenn ich zwei Bildschirme mit dem selben Output, einmal von einer Quadro und einmal von einer GeForce generiert, sehen würde. Ein Aha-Effekt stellte sich jetzt bei mir nicht ein.

Hab gestern selbst meine 6800 zur Quadro gemoddet (RivaTuner und nVidia Treiber). Aber in ernsthaften Anwendungen hab ich, neben komplett eingeschwärzten Partien, richtig lustige Jamaica-Farben in der Darstellung bekommen, wie bei nem Winamp PlugIn - kurz darauf System Freeze.
Aber Spiele (UT2004) und Benchmarks kein Problem. Die Leistung der "Quadro" lag mit 16/6 Pipes und 350/800 MHz auf dem Niveau der Leistung einer 6800 mit 12/5 Pipes und 325/700 MHz.

Carsten schrieb:
Quadro und GeForce-Chips sind identisch. Der GeForce fehlen einige Features, die per BIOS und Treiber blockiert werden, wie bsw. AA-Lines mit Hardwarebeschleunigung.
1400 € mehr für ein anderes BIOS und Treiber? Naja, ich weiß nicht so recht. In einer entsprechenden Application schien sich doch die Spreu vom Weizen zu trennen!
Entweder man modifiziert die Hardware oder kauft sich ne Quadro, aber per Softmod... ich wurde davon überzeugt, dass das nicht so ohne weiteres geht.
 
Sei vielleicht noch Angeführt die Überlegung dass nicht jede GeForce zur Quadro sich eignet?

Zumindest bezogen auf ein Hardware Mod ist das so. Und Laut ID im Chip könnte ich meine Hardware mäßig Umlöten Lassen. Ich selber täte mir das nicht zu trauen, kenne aber jemanden der auch diese erforderliche fein Löttechniken beherrscht und entsprechende Geräte dazu hat. Nur bin ich da zögerlich, weil es sich im Endeffekt ja doch nur um eine 6800 LE Version Handelt (bei meiner Karte). Von der ich weiß das die 2 Deaktivierten Pixel Einheiten leider auch Defekt (nur Vertex sind alle heile). Von daher mag ja durch aus sein das sie dann als Hardware Quadro gar nimmer Laufen täte? Die Frage ist aber auch die, ob ich das Überhaupt brauche und will? Womöglich wäre die Karte dann Tatsächlich noch um einiges Langsamer in Games? Und vielleicht jetzt nur nicht so sehr viel lahmer weil im Grunde nur durch die besseren (qualitativ hochwertiger berechnen) Treiber halt ein schöneres 3D Bild gezaubert und geworfen werden muß?!

Und da wären wir schon, also ich Persönlich kann nur Sagen das da deutliche Unterschiede sowohl in der farblichen Brillanz (mag sein das das auf einem TFT nicht so durchdrückend rüber kommt?), als auch in der Qualität von AA & AF. Da ich kaum Zeit habe zum Spielen und wenn dann meistens UT2004 (Invasion) Zocke ... kann ich jetzt hauptsächlich auch nur von diesen Spiel berichten. Seit dem das Ding hier als Quadro läuft mit eben jenen Treibern, sind nicht nur gleich noch ein paar mehr Effekte zu sehen (etwa Spiegelungen etc . die zuvor vom normal Treiber unterschlagen) sondern sieht das Bild schon bei AA=2 & AF=4, wesentlich besser aus als zuvor bei AA=4 & AF=8 oder 16! Der hauptsächliche Unterschied ist auch das dessen in Bewegung so bleibt! Beim Normalen Treiber sah das Bild dann auch schon gut aus wenn man sich nicht Bewegte (von daher sind Bildschirmfoto vergleiche kaum aussagekräftig machbar). Aber sobald man in Bewegung verschwammen wieder die Texturen in unmittelbaren Sichtbereich und diesen besagten Effekt hab ich jetzt schon nicht mal mehr annähernd unter AF=4 bei den Quadro Treibern. Und UT2004 ist gerade für AF Dingens ein sehr gutes Testfeld, da hier oftmals sehr weitläufige Levels wo man schön in die Ferne Blickt.

Nun ja und was die Anwendungen betrifft, also denke mal das so Raytracer wie Cinema 4D schon eine ernsthafte Anwendung und benannte Problematiken konnte ich hier bei mir Persönlich nicht Feststellen? Aber von daher gibt es ja auch von unterschiedlichen Herstellen noch mal Treiber für die Quadros vielleicht?

Was ich mal hatte, dass das Bild auf einmal sehr komische Farben etwa im Aquamark 03 zum Schluss bekam. Aber das lag am Übertakten und ich wusste das es halt ne Nummer zu viel (auf die Dauer) ... dann jeweils hier und da 10 bis 20MHz weniger und alles war bestens. Wobei es mich verwundert hat das nicht so wie früher sich dann aufhängte oder so minimal bis stark Pixelfehler auftraten. Wo man dann genauer für sich ersehen konnte ob zu hoher RAM oder zu hoher GPU Takt?
 
Zuletzt bearbeitet:
Zurück
Oben