News XGI des Cheatens überführt?

@EvilTrunks

standard schreibt man mit "d" am Ende.;)

@wolf

tun sie doch. Die meisten Spiele sind so programmiert, dass sie im Normalfall, die Grafikkarte nie voll auslasten können. Was glaubst du, wieso AA und AFEinstellungen noch erhöht werden?

Um spiele zu spielen braucht man nicht 200FPS. Im Endeffekt sind es die Grafikkartenhersteller, welche die Gesellschaft dahin bewegt haben, anstatt auf die BQ zu achten, ihren Hauptaugenmerk darauf zu richten, die Geschwindigkeit zu messen. Der Markt manipuliert die Menschen mit Slogans, mit denen die Menschen nichts anfangen können, aber die zahlen so enorm hoch sind, dass sie sich denken, dass es sich um ein besseres Produkt handelt. bestes bsp. ti4600 mit fx5200 oder auch R8500 und R9000.

Die Spieleentwickler kommen doch gar nicht nach. Die Leistung die freigesetzt wird, maximal auszuschöpfen. Bestes BSP ist Doom3. Als man davon hörte, hieß es, dass grad noch eine GF3Ti500 deren Anforderungen gerecht sein würde. Jetzt spricht man schon von R9700 bzw.einer FX. Hier arbeiten die Puplisher langsamer, als die Hersteller neue Grafikkarten auf den Markt bringen. Und es können immer mehr Features eingesetzt werden, welche das Spiel besser aussehen lässt. Ich bezweifele, dass schon damals gedacht wurde, solche Komplexen Shader zu nutzen.
 
Zuletzt bearbeitet:
Ich will mal so sagen, solange sich die subjektiv wahrnehmbare Bildqualität nicht verschlechtert, habe ich nichts gegen Treiberoptimierung zu Gunsten der Framezahlen. Okay, vielleicht ein unpassendes Beispiel, aber was denkt ihr, was das Prinzip von MP3-Dateien ist?! Da werden auch bloß die für das menschliche Ohr nicht wahrnehmbaren akustischen Signale rausgefiltert und es kommt eine Datei heraus, die vielleicht ein 10tel so groß ist wie ein unkomprimierter CD-Track, wobei der Unterschied zwischen CD und Mp3 so gut wie nicht hörbar ist.

Dass jetzt alle über Nvidia herziehen, finde ich auch nicht okay...
Soweit ich das richtig verstanden habe, wollten Sie mit ihrer Treiberoptimierung nur beweisen, dass der 3DMark03 nicht als objektiver Vergleichsbenchmark heranzuziehen ist. War doch so, oder?!
Und wer weiß schon, ob nicht auch ATI in dieser Hinsicht "bescheisst"....
 
Zuletzt bearbeitet:
@4th Floor

les dir mal diesen oder auch diesen test mal durch. Und ati ist auch kein unbeschriebenes Blatt, hier die ati-filtertricks.

wenn es dich interessiert, dann lese dir alles mal durch, falls du es eh schon nicht getan hast.;)
 
die sache mit den optimierungen sehe ich auch nicht so schlimm.
xgi hat momentan ein problem die sind völlig neu am markt und haben nicht wie ati und nvidia schon seid jahren graka-treiber im repertoire, die sind doch zur noch damit beschäftigt, dafür sorge zu tragen das ihre karten auf allen systemen und in allen anwendungen läuft.
Dann kommt der marketing druck hinzu das man schon vor der veröffentlichung zeigen muss das die karte was kann, folglich werden einige anwendungen im treiber schnell zwangsoptimiert.
einiges der leistung die ati und nvidia aus ihren karten rausholen beruht auf den ausgereifteren algorithmen in deren treibern wodurch der karte arbeit erspart wird resultat mehr leistung, und bis xgi oder s3 da aufgeschlossen haben kann halt noch ne weile dauern.
ein weiteres problem wird ja allgemein darin gesehen das ati nicht alles trilinear filtert, das könnten sie, allerdings müssten dazu mehr transistoren auf dem "die" der gpu, was bei dem völlig ausgereitzten fertigungsverfahren (als die ersten karten in 150nm gefertigt wurden hatten diese knapp 20-30Mio transistoren die R-3xxhaben über 100Mio)nur schwer machbar gewesen wäre, ohne das die kosten für die chips deutlich steigen, was zu einem höheren preis der karten führen würde. ich bin nicht bereit mehr zu bezahlen für einen effekt der nahezu auswirkungen auf die bildqualität hat.

zu nvidia nur folgendes lest mal diesen artikel. ich weiß der ist lang aber es lohnt sich.
 
mir persönlich sind diese ganzen optimierungen egal. ich habe erst selten eine wand angeschaut und gemeint: sieht die schlecht aus. sie sieht halt aus wie sie aussieht. wirklich erkennen tut das keiner, und stören tuts schon gar nicht.
deshalb finde ich es auch i.O die optimierungen in benchmarks zu verwenden, da durch etwas nicht auffallendes, eine bessere 3d leitung aus den grakas herauszuholen ist.
 
Zuletzt bearbeitet:
Ich kann Bodylove nur zustimmen. Es sollte mehr Wert auf Bildqualität gelegt werden! Denn FPS sagen sogut wie garnichts aus. Ab 25-30 FPS läuft ein Spiel flüssig, da das menschliche Auge einfach nicht mehr als 25-30 Bilder pro Sekunde wahrnehmen kann. Also ob man ein Spiel jetzt mit 35FPS oder 24.975.736FPS spielt ist ein Unterschied, der zwar Meßbar, aber nicht wahrnehmbar ist.

Daher ist die Jagt auf höhere FPS für mich absolut unverständlich und einfach nur eine Marketingstrategie (ja fast schon Kundenver*****ung) der Grafikkartenhersteller.
 
Hmm, zwischen 30 und 60 FPS ist für den Hardcore-Quaker sicher ein größerer Unterschied zu bemerken. Danach wirds aber wirklich uninteressant.



Daher ist die Jagt auf höhere FPS für mich absolut unverständlich und einfach nur eine Marketingstrategie (ja fast schon Kundenver*****ung) der Grafikkartenhersteller.
Die machen nur das, was 80% der User auch wirklich wollen. Nämlich mehr Punkte im 3DMark. ;)
 
Zuletzt bearbeitet:
An alle die meinen, es wäre ja nicht so schlimm, wenn man es nicht wirklich sieht:

wo ist denn dann der Sinn von Benchmarks? Die sollen doch objektiv beurteilen, und dazu darf es keine Optimierungen geben. Besser wäre es, die Benchmarks würden mit voller Bildqualität laufen, dann wüsste der Benutzer was seine Karte wirklich kann. Und zu Hause kann er dann nach Lust und Laune die Bildqualität verringern, um noch ein paar Frames mehr zu bekommen.
Dieses Cheaten ist doch, als wenn Auto Bild die neuesten Modelle von Lamborghini und Ferrari vergleichen würde, Ferrari aber irgendwo einen kleinen Zylinder mit Lachgas versteckt hat. In den Disziplinen Geschwindigkeit und Beschleunigung würde der Ferrari dann gewinnen, der dumme Kunde wundert sich dann aber warum er von eben dem unterlegenen Modell auf der Autobahn abgehängt wird.

Gruß
Morgoth
 
PuppetMaster schrieb:
Hmm, zwischen 30 und 60 FPS ist für den Hardcore-Quaker sicher ein größerer Unterschied zu bemerken. Danach wirds aber wirklich uninteressant.
nicht nur für den "Hardcore-Quaker".
aber gerade bei der Quakeengine helfen bestimmte konstante fps schneller zu beschleunigen. und die besseren Werte liegen meist höher, also ab 120 fps wirds erst interessant. Da in aktuellen Spielen mit Quake3-Engine aber kaum ein System konstant diese Werte halten kann, kann man sich schwarzärgern. ;)
In ET sinken meine fps ja oft genug sogar auf unter 60(in Ausnahmefällen auch mal auf 20), was für mich äußerst nervig ja fast unerträglich ist. Und das obwohl ich inzwischen auch auf Lahmheit aka TFT umgestiegen bin.

@Haike: wenn du keinen Unterschied siehst, schätz dich froh. Brauchst immer nur Hardware von vor 3 Jahren kaufen. ;)
 
Zuletzt bearbeitet:
Berichtigt mich, falsch ich falsch liege, aber FPS (Frames Per Second) ist doch einfach nur die Anzahl an Bildern pro Sekunde, die eine Grafikkarte rendert.

Wenn ich nun einen sehr guten 17" Monitor habe, der mit 100Hz bei einer Auflösung von 1024x768 arbeitet (also 100 Bilder pro sekunde aufbaut) und Q***e 3 mit 120FPS spiele, dann müssten 20Frames im Frame-Nirwana landen und sind somit nicht nur biologisch vom Auge her, sondern auch rein technisch gesehen nicht wahrnehmbar....

Da FPS bei Grafikkarten ja nur durchschnitswerte sind und nie konstant laufen, ist es klar, das es schon etwas mehr als 25-30FPS sein sollten, damit keine kleinen ruckler auftreten.


Am Rande ein paar Vergleichswerte:
Europäische Fernseher (PAL) arbeiten mit konstant 25FPS
Kinoprojektoren sogar nur mit 24FPS
Da sieht man doch auch keine ruckler, oder?
 
Fernseh- oder Projektorbilder kannst du schlecht mit gerenderten Objekten vergleichen, da durch die Aufnahme eine Unschärfe (natürliches Motion Blur) mit aufs Band kommt, im Gegensatz zu den harten Kanten gerenderter Objekte.

Wenn du beispielsweise einen sich drehenden Flugzeugpropeller im Film als Standbild betrachten würdest, sähest du einen unscharfen Kreis.
In jedem einzelnen gerenderten Frame eines Spieles wäre dieser allerdings genauso exakt dargestellt wie ohne Bewegung. Dies wird vom menschlichen Auge dann auch viel eher als "unrunde" Bewegung aufgenommen als eine Kinoszene, die mehr dem richtigen Sehen entpricht. Deshalb sind schon ein paar Frames mehr von Nöten.
 
so wenn man es ganz genau nehmen würde müssten sogar 16+-1 FPS ausreichen um ein spiel flüssig zum laufen bringen, denn mehr kann das menschliche auge nicht aufnehmen das problem ist halt wie schon die konstannte darstellung und der zeitpunkt von welchem das auge ein volles bild ans gehirn liefert weshalb filme auch mit 24 FPS dargestellt werden. darum ist nicht ganz schlecht wenn ein spiel mit 60 FPS oder mehr läuft allerdings ist deutlich mehr wirklich nicht nötig.
 
Zuletzt bearbeitet:
@Haike:

Wenn du Quake III Arena mit 120 fps zockst, die Wiederholfrequenz des Monitors aber auf 100 Hz eingestellt ist, dann zockst du mit VSync OFF. Die Grafikkarte schickt die berechneten Frames an den Monitor und der zeigt sie an. Ist der Monitor jetzt noch mit dem Zeichnen des vorhergehenden Bildes beschäftigt und von der Grafikkarte kommt bereits das nächste, wird einfach mit diesem Bild weitergemacht. Somit kommt es zum Tearing, das sind horizontale Streifen an den Schnittkanten.

Bei VSync ON dagegen synchronisiert sich die Grafikkarte mit dem Monitor und dann zockst du bei 100 Hz mit max. 100 fps.

Ausführlicher findest du das Ganze hier.

/Edit: Übel, übel. Ich habe gar nicht gesehen, daß es da noch eine zweite Seite gibt. :volllol:

Bye,
 
Zuletzt bearbeitet:
Zurück
Oben