News ATi, nVidia, ATi...

M.o.D schrieb:
Ich finde wer cheatet sollte gekickt werden.. und bei wiederholtem cheaten gebannt^^ wie ich echten leben.....

naja bloß was hätten wir da dann vorne Graka wenn das jeder machen würde?

eine XGI oder S3? zum zocken nein danke

ich finde solange wie die Optimiereungen nicht extrem sind ok aber wenns so ist wie bei NVidia leztes Jahr wo ganze Planzen zum beispiel fehlten das finde ich dann schon hart
 
Dem ganzen Optimierungswahn sollte man am besten mit "Standard-Benchmarks" begegnen.

Die Benchmarks sollten Renderqualitäten vorschreiben (Texturenfilterung, AA-Verfahren, usw.). Ebenso sollten die Benchmarks in der Lage sein, die von der Grafikkarte berechneten Ergebnisse zu überprüfen, um versteckte Optimierungen aufzudecken. Vielleicht lässt sich das über eine Übertragung von der Grafikkarte zum Rechner per PCI-Express bewerkstelligen.
Der Benchmark sollte neben fest definierten Qualitätsmodi ebenfalls einen oder mehrere Performancemodi erlauben, in dem die Hersteller optimieren können wie sie wollen.

Anhand der Qualitätsmodi könnten die Rohleistungen der Karten verglichen werden.
Anhand der Performancemodi können sich die Tester ein Bild machen,
- ob evtl. Optimierungen wirklich _sichtbar_ Qualität kosten oder nicht
- eine persönliche Einschätzung vornehmen, ob sichtbare Änderungen akzeptabel sind oder nicht

Jetzt fehlen eigentlich nur noch Grafikexperten, die den Benchmark sinnvoll spezifizieren und umsetzen sowie die Bekenntnis der Grafikkartenhersteller zu so einem Benchmark.
 
@19
hier gehts nicht um AMD/Intel oder ATI/Nvidia, sondern ums cheaten! Und "zufälliger" Weise cheaten hier eben Ati und Nvidia!

Und dagegen muss man sich wehren...sonst kann ich ja bald meinen Monochrom-Bildschirm wieder aufbauen;)
 
@Toecutter:

Etwas blauäugig Deine Forderungen, wenn auch nicht ganz schlecht. ;)

Den Standardbench wollen wir doch gar nicht, dann werden die Treiber nur auf diesen optimiert ("echte" Optimierung - keine Tricksereien) und nicht mehr auf die von uns gespielten Games, kann ich gut drauf verzichten.

Zum anderen ist es ja gerade das hinterhältige das trotz gängiger Untersuchungsmethoden, der Schwindel bei ATI z.B nur ins Auge gestochen ist weil die berechnete max. Leistung der Grafikkarte übertroffen wurde, da er sich herkömmlicher Überprüfung mittels eingefärbter Mipmaps entzog. Ähnliches macht NV nun auch.

Da wird es nicht lange brauchen bis die Grafikschieden die Überwachungfunktionen des Benches ausgehebelt haben und das ganze Spiel von vorne beginnt.

Wie im übrigen PCIexpress bei dem entdecken von "Cheats" helfen soll bleibt mir verschlossen.
 
Toecutter schrieb:
Dem ganzen Optimierungswahn sollte man am besten mit "Standard-Benchmarks" begegnen.

Die Benchmarks sollten Renderqualitäten vorschreiben (Texturenfilterung, AA-Verfahren, usw.). Ebenso sollten die Benchmarks in der Lage sein, die von der Grafikkarte berechneten Ergebnisse zu überprüfen, um versteckte Optimierungen aufzudecken. Vielleicht lässt sich das über eine Übertragung von der Grafikkarte zum Rechner per PCI-Express bewerkstelligen.
Der Benchmark sollte neben fest definierten Qualitätsmodi ebenfalls einen oder mehrere Performancemodi erlauben, in dem die Hersteller optimieren können wie sie wollen.

Anhand der Qualitätsmodi könnten die Rohleistungen der Karten verglichen werden.
Anhand der Performancemodi können sich die Tester ein Bild machen,
- ob evtl. Optimierungen wirklich _sichtbar_ Qualität kosten oder nicht
- eine persönliche Einschätzung vornehmen, ob sichtbare Änderungen akzeptabel sind oder nicht

Jetzt fehlen eigentlich nur noch Grafikexperten, die den Benchmark sinnvoll spezifizieren und umsetzen sowie die Bekenntnis der Grafikkartenhersteller zu so einem Benchmark.


das ließe sich dadurch bewerkstelligen, daß das programm 3-4 screenshots macht (an zufälliger position) und diese dann vom benchmark erneut berechnet werden, halt nur direkt durch die cpu ohne zuhilfe nahme der gpu, dies ist zwar recht langsam aber wirkungsvoll, anschließend vergleicht der benchmark die bilder auf übereinstimmungen und abweichungen und spuckt eine procentzahl aus wie exakt die gpu gerechnet hat. das wäre ein benchmark!
 
@Leisetreter:

Natürlich kann man die Forderung als blauäugig bezeichnen, ich bevorzuge allerdings den Ausdruck "visionär" ;-)

Deine Anmerkungen finde ich berechtigt, ich erweiter mal mein Postulat :)

Bzgl. möglicher Optimierung der Treiber auf den "Standardbench":
Mir schwebt bei der Spezifikation des Standardbenches eine praxisgerechte, allgemeingültige Definition vor. Wenn die Testfunktionen so wie sie im Standardbench verwendet werden auch in Spielen sinnvoll eingesetzt werden können, dann würde Spiele doch ebenfalls von der Optimierung profitieren :)

Wichtig ist beim Benchen m.E., dass die Funktionen sinnvoll zu einem praxisgerechten Set kombiniert werden. NVidia hatte seinerzeit ja die Praxisrelevanz vom 3DMark2003 bemängelt. Die Funktionssets sollten sich daher an typischen Fusspuren der gebräuchlichen Engines orientieren.

Idealerweise sollten die einzelnen Berechnungsverfahren per DirectX und OpenGL streng vorgegeben werden. Damit sollte auf jeden Fall eine hohe Akzeptanz und "Allgemeingültigkeit" der Verfahren sichergestellt sein. Solch ein Schritt wird natürlich einige Zeit benötigen, aber das ist eigentlich bei jedem Standard so.

Zur Überwachung:
Eine Überwachung möglicher Tricks stelle ich mir grob so vor: Der Bench hält selbst ein "Sollbild nach Lehrbuch" vor, liest das berechnete Bild von der Grafikkarte aus und vergleicht es. Idealerweise müsste man 1:1 vergleichen können, praxisgerechter wäre wahrscheinlich ein ausgeklügelter Algorithmus, der entscheidet was eine sichtbare Abweichung ist oder nicht. Vielleicht lässt sich etwas bei den Videocodecs (MPEG2, DIVX) abgucken. Am Ende könnte auch ein Bild angezeigt werden, indem "grössere" (per Bench spezifizierte) Abweichungen markiert werden.


PCIexpress:
Wenn ich richtig informiert bin, ermöglicht PCIexpress nicht nur den Datentransport vom Hauptspeicher des PCs zum Speicher der Grafikkarte (wie bei AGP), sondern auch das Auslesen der Daten vom Speicher der Grafikkarte in den Hauptspeicher des PCs.
 
jetzt mal was Unterprivilegiertes von mir...

Wer cheatet hat nen ....... und ist ......
 
Was habe ich noch ein paar Tage vorher im Artikel über ATI gesagt?

War doch klar, dass das jetzt kommt.
 
son geblubber und es geht nur um eine "alte" FX , reifer vergleich oO
 
Leute freut euch doch lieber mal. Wenn jetzt ein Spiel nicht für diese Karten Optimiert wurde und der Hersteller von der Karte dann halt die Shader und Filterqualität und so optimiert, dass die auf dem Spiel laufen, ist das doch gar nicth mal so schlecht.
 
also ati hat ja net gecheatet, die haben nur nix über ihr top-feature gesagt. angeblich halt aus lizenzrechtlichen gründen, aber wohl auch um höhere benches zu haben, ist ja klar.

aber bei der ati sieht man nen unterschied nur in screenshots wenn man nen direkten vergleich mit einem weiteren screenshot hat.
im laufenden spiel ist es unmöglich so kleine unterschiede zu sehen.
von daher ist das von ati völlig ok. abschaltmechanismus ist ja net nötig, da es net sichtbar ist.

bei nvidia habe ich mir die bilder noch net angesehen, bezweifle aber auch das man es hier so stark sieht, denn das wäre einfach zu dämlich von denen.
 
@ Toecutter:
Die Idee ist zwar nicht schlecht, aber dummwerweise sind die Optimierungen in den Treibern ja nicht abschaltbar, also müssten nV und ATi (und natürlich jeder andere Grafiktreiberprogrammierer) da mitspielen. Und dann hätten wir endlich die Option auf normale Bildqualität im Treiber integriert und könnten sie auch wirklich nutzen! Das wäre nicht übel. :D Aber warum sollten sie das tun? Mit ein bisschen "optimieren" kann man doch so schön die Performancevorteile des Konkurrenten relativieren. Wenns rauskommt macht der Konkurrent halt dasselbe und es ist wieder was neues nötig! Juchu...
 
@whiteshark
hast du 'ne neue radeon oder ist das einfach eine behauptung von dir, dass man im spiel keinen unterschied sieht?
 
WhiteShark schrieb:
aber bei der ati sieht man nen unterschied nur in screenshots wenn man nen direkten vergleich mit einem weiteren screenshot hat.
im laufenden spiel ist es unmöglich so kleine unterschiede zu sehen.
von daher ist das von ati völlig ok. abschaltmechanismus ist ja net nötig, da es net sichtbar ist.

Schau mal hier: https://www.computerbase.de/2004-05/bericht-radeon-x800-und-die-texturen/

Deutlich ist zu erkennen, dass die R420-Karte inklusive der trilinearen Optimierung zusätzlich, und das konnten wir auf unserer Radeon 9600 XT bislang nicht entdecken (!), das LOD leicht anhebt, so dass ein auf Standbildern schärferes Bild erzeugt wird, welches in der Bewegung allerdings eher zum Flimmern neigen dürfte, denn umsonst wird der Nullpunkt beim LOD im allgemeinen nicht eingehalten. Durch diesen angehobenen LOD filtert man länger aus der hochauflösenderen Mip-Stufe, kommt dabei aber auch länger mit einer, im Verhältnis zum korrekten LOD gesehen, niedrigeren Anzahl an Textursamples bsw. bei anisotroper Filterung aus.
 
@Stormbilly:
Die Optimierungen müssten zumindest soweit abschatbar sein wie der "Standard" es vorgibt, darum kann der Standard natürlich nicht ohne die Hersteller gesetzt werden.

Standards sind in der IT aber eigentlich immer gefragt. Es gibt aber durchaus auch Themenbereiche in der IT, bei denen sich mehrere Hersteller an einen Tisch gesetzt haben und gemeinsam einen Standard festgelegt haben. Da jüngst Abstimmungen zwischen ATI und NVidia gescheitert sind, ist es (zumdest für mich) denkbar, dass Microsoft z.B. mit gewissen Vorgaben (z.B. im Rahmen einer der nächsten DirectX-Spezifikationen) die Hersteller fordert. Ebenso könnte das OpenGL Konsortium in gewissen Bereichen strengere Vorgaben liefern.

Bei einem Standardbenchmark reicht es auch nicht, diesen einmalig festzulegen. Die Technologien entwickeln sich weiter und so müssen auch Benchmarks weiterentwickelt werden. Momentan sind die Benchmarks (egal welche) jedoch meist nur innerhalb derselben Chipfamilie vergleichbar.
 
ich hab mir mal einfach den CB-Base Artikel geschnappt und es rauskopiert:

Um es aber auch in aller Deutlichkeit zu sagen: Bei Karten, für die der Gamer 400 Euro und mehr ausgibt, um neue und neueste Spiele in höchstmöglichen Einstellungen und damit höchstmöglicher Bildqualität zu genießen, kann es unmöglich im Sinne des Erfinders („The way it's meant to be played”) sein, nur mit angezogener Qualitätsbremse ins Spiel zu kommen („Get in the Game”)!

Optimierungen für flüssiges Spielgeschehen gern, aber im Treiber abschaltbar müssen diese sein. Das Argument, man wolle die Einstellungen möglichst übersichtlich halten, ist oberflächlich und an den Haaren herbeigezogen, denn all diese Schalter und Regler könnte man hinter einem einzigen „Expertenbutton” oder ähnlichem verstecken, so dass sie dem unbedarften Kunden, der mit dieserlei Geschichten nichts am Hut hat, nicht störend auffallen.

Wir appellieren an dieser Stelle noch einmal an ATi und nVidia, diese dauernden Senkungen der Bildqualität optional zu gestalten, denn die Leistung der High-End-Boliden ist mittlerweile so hoch, dass bis auf allerneueste Titel fast alle Spiele auch mit ordentlicher, trilinearer Filterung und wenig bis gar nicht optimiertem anisotropem Filter wunderbar zu spielen sind.

Ich fiinde das bringt es auf den Punkt und daran gibts nix zu meckern.....so!
 
b1ackbird schrieb:
@whiteshark
hast du 'ne neue radeon oder ist das einfach eine behauptung von dir, dass man im spiel keinen unterschied sieht?
ich habe ne ati, aber hätte ne nvidia wenn die zu dem zeitpunkt des kaufes besser/billiger gewesen wäre.

nur ist das nicht nur ne behauptung, sondern einfach tatsache. denjenigen der im spiel erkennt ob optimierungen aktiviert sind oder nicht möcht ich sehen.
also im laufenden spiel einfach unmöglich-
 
ehrlichkeit hin oder her, aber was wäre denn dann die alternative wenn nicht optimierungen (die imo keiner im spiel erkennt kann). noch mehr transistoren etc.? toll dann haben wir bald grakas mit 4 stromanschlüssen...
 
Zurück
Oben