Testredakteure und die "Bugs" im NV-Control-Panel

AW: "Von der Blödheit der Graka-Testredakteure" - Die "Bugs" im NV-Control-Panel oder...

Ich glaube hier sind immer noch so viele Fanboys unterwegs wie früher...
Also, Frage 1 an euch:
Wer von euch hat schonmal an 2 PCs, die nebeneinander standen, mit gleichem Grundgerüst, nur einmal ne neue Ati und einmal ne neue NVidia drin, sonst alles gleich, auch Monitor gehabt?

Frage 2:
Diese stelle ich euch, wenn ihr Frage 1 mit "nein" beantwortet habt:
Woher wollt ihr wissen, dass die Bildqualität unterschiedlich ist?

Also ich hatte das Vergnügen, 2 !relativ! gleiche PCs vergleichen zu können und kam auf den Schluss, dass die Bildqualität beinahe gleich ist und nur dann NV schlechter abschneidet, wenn man die Unterschiede auf Gedeih und Verderb sehen will...

Wir hatte das auf der letzten kleinen Homelan, wir haben dann eine Person als Tester genommen, der einen schrott PC mit ner alten Radeon 9600 hat, er hat nicht sagen können, wo hier die NV oder die ATI drinsteckt, er erkannte keinen Unterschied!

Natürlich muss man bei NV die Qualität dazu auf hoch stellen und erkauft sich die daraus resultierende Steigerung der Bildqualität mit ordentlichen Performaceeinbusen, aber die Karten sind schnell genug, dann immer noch eine flüssige Abfolge von Bildern darzustellen...
Einzig durch Techniken wie Winkelunabhängiges AF und AA+HDRR ist ATI in sachen Bildqualität noch führend...

Aber um gleich darauf zurückzukommen:
Schaut doch mal in den CB Test, in dem die X1800er gegen die GTX antritt, das Update in dem die ATIs den neuen Treiber haben, da schaut mal in das Kapitel "HDRR" und wer hier keinen Qualitätsunterschied zwischen NV und ATI sieht, ist wirklich blind...
hier klicken
 
AW: "Von der Blödheit der Graka-Testredakteure" - Die "Bugs" im NV-Controll-Panel ode

LordSierra schrieb:
Das Nvidia mehr Wert auf Performance legt und dabei auf die Bildqualität sch..... das sollte doch jedem mittlerweile klar sein.....:rolleyes:
NV legt weder auf das eine noch auf das andere Wert, sondern will nur so viele Produkte wie möglich an den Mann bringen. Und bei dieser Frage spielen Hardwaretests (gedruckt oder online) eine gewichtige Rolle bei der Kaufentscheidung des Kunden mit. Und da finde ich Feststellungen wie:"Deaktiviert man nicht einzeln alle "Optimierungen", bevor man auf HighQuality schaltet, sind sie unter OpenGL immer noch aktiv."(Zitat aus dem 3DCenter Artikel 1.Seite unten) schon sehr interessant. Wenn nämlich ein Grakatester die Reihenfolge nicht einhält und in dem guten Glauben bencht, in höchster Qualität zu testen, dann werden die Testergebnisse schon deutlich zugunsten von NV verfälscht. Natürlich kann das auch alles nur ein "Bug" oder "Zufall" sein, aber was wenn nicht?

Mein Vorschlag wäre, einmal mit höchster Qualität und einmal mit höchser Performance in realistischen Spielsituationen zu testen und am besten auch noch als FPS/Zeit-Verläufe darzustellen. Erstmal könnte man deutlich die Unterschiede zwischen beiden Modi erkennen und es wären FPS- und Quali-Freaks gleichermaßen mit Informationen bedient. Wobei sicher noch zu definieren ist, was höchste Qualität nun tatsächlich sei.
 
Zuletzt bearbeitet:
AW: "Von der Blödheit der Graka-Testredakteure" - Die "Bugs" im NV-Control-Panel oder

HugeXL schrieb:
Ich glaube hier sind immer noch so viele Fanboys unterwegs wie früher...
Also, Frage 1 an euch:
Wer von euch hat schonmal an 2 PCs, die nebeneinander standen, mit gleichem Grundgerüst, nur einmal ne neue Ati und einmal ne neue NVidia drin, sonst alles gleich, auch Monitor gehabt?

ich

6800gt vs x1800xl

6800 wurde bei mir gegen die x1800 getauscht.
erstmal nen imho großen schärfebonus erkannt(schriften waren um einiges besser lesbar in spielen)
dann ging die x1800 leider kaputt und ich musste die 6800 wieder einbauen.
als ich CoD2 gezockt hab, war ich um einiges schlechter, weil ich den gegner nicht von diesem lästigen texturflimmern unterscheiden konnte -.-
 
AW: "Von der Blödheit der Graka-Testredakteure" - Die "Bugs" im NV-Control-Panel oder

Soweit ich weiß, hatte bloß der G70 das Flimmern, welches auch durch Treiberupdate behoben wurde. Also von welchem Flimmern auf der 6800 sprichst Du nun?

Hat sich mal jemand den Artikel, der von HugeXL verlinkt wurde, durchgelsen und das zugehörige Bildmaterial angeschaut?

Also ich bin dafür, dass wir mal den Ball ein wenig flach halten, was das Runtermachen von nVidias Darstellungsqualität angeht, denn ganz objektiv betrachtet und das liest sich auch in den entsprechenden Passagen heraus, sehen "moderne" Bilder (also mit HDRR) auf dem G70 sogar besser aus. OK, hier wird auch von der wie ich sie nenne, technischen Qualität gesprochen, aber was zählt ist das Ergebnis und sowohl Performance als auch Qualität sind doch annehmbar.

Sowohl in Splinter Cell 3 als auch in Far Cry stellt der G70 geiler dar, oder sieht das jemand anders? Diese Frage ist nicht rhetorisch - langsam glaub ich, wir sehen nicht alle dasselbe, was wiederum kein Sarkasmus sein soll.

Und um es noch mal jetzt ganz deutlich zu sagen, ich kann mich nicht in einem Fazit aktueller CB Artikel wiederfinden. Da wird nur noch von der so überlegenen Qualität gesprochen, während Lautstärke und Leistungshunger in einem kleinen Nebensatz abgehandelt werden.

Diese so tolle Qualität wird man vielleicht mit AA/AF (und diesbezüglich vorgestellen Technologien) erkennen. Aber entweder knalle ich 500 € auf den Tisch, damit es auch damit noch flüssig läuft, oder ich besinne mich, ne Karte für 200 - 300 € zu kaufen und entscheide damit gleichzeitig weitestegehend auf AA/AF zu verzichten. Was bleibt ist der Blick auf die Performance, da dann die Quali annähnerd dieselbe sein wird. (unter HDRR auf einem G70 vielleicht sogar schöner ausgeleuchtet). Wie teilweise CB noch Subjektivität zugunsten nVidias in den Kommentaren unterstellt werden kann, ist etwas unverständlich.

Wenn wir schon beim Fazit und der Quali sind. Würde AA/AF nicht besonders auf nem Multi-GPU System Sinn machen? Scheiße nur, das X-Fire so gut wir gar nicht aus den Startlöchern kommt und vielleicht nie kommen wird.
 
Zuletzt bearbeitet:
AW: "Von der Blödheit der Graka-Testredakteure" - Die "Bugs" im NV-Control-Panel oder

sebbekk schrieb:
Soweit ich weiß, hatte bloß der G70 das Flimmern, welches auch durch Treiberupdate behoben wurde. Also von welchem Flimmern auf der 6800 sprichst Du nun?
Auf Quality flimmert auch jede Geforce 6, der GAU bei G70 war, dass das Flimmern anfangs nichtmal mit höchsten Qualitätseinstellungen abzustellen ging. Sagen wir, er hat noch nicht festgestellt, dass man das lästige Flimmern auf Geforce 6 noch deaktivieren kann. ;)

sebbekk schrieb:
Hat sich mal jemand den Artikel
Ja und am besten noch folgenden Satz verstehen, dann sehen wir, dass das gar nicht so eindeutig für nVidia wertbar ist wie du darstellst:
Positiv anzumerken ist dagegen die Möglichkeit, bei FP16-HDR auf einer Radeon X1800, X1600 oder X1300 Multi-Sampling-Anti-Aliasing hinzuzuschalten. Dies ist auf einem G70 im Gegenzug nicht möglich.
Das ist ein wichtiger Punkt, denn dem einen ist die bessere HDRR-Quali dem anderen das MSAA wichtiger. Deswegen kann man eben schlecht eindeutig sagen was besser ist.

sebbekk schrieb:
oder ich besinne mich, ne Karte für 200 - 300 € zu kaufen und entscheide damit gleichzeitig weitestegehend auf AA/AF zu verzichten....
Warum sollte man auf AA und AF verzichten, nur weil man eine Mittelklassekarte hat? Es gibt Leute die können ohne AA nicht mehr, da nehme ich mal mich selbst als Beispiel. Ich spiele immernoch auf einer Radeon 9700 und ich spiele damit FEAR am liebsten mit dem meisten auf Medium Details, manches auf Minimum, Volumetric Lights aus und 4x MSAA sowie 4x AF in 800*600 (da das nicht der schnellste Shooter ist reicht mir die Framerate dann aus), würde ich auf AA und AF verzichten, könnte ich auch die Details oder die Auflösung hochdrehen, aber ich finde das Ergebnis mit AA und niedriger Auflösung auf jeden Fall schöner. (man sollte den Performanceeffekt durch Mindern der Auflösung nicht unterschätzen, 1024*768 hat ~64% mehr Pixel als 800*600, 1280*1024 hat ~67% mehr als 1024*768) Wenn man also nicht unbedingt darauf angewiesen ist in 1280*1024 zu spielen kann AA und AF auf Mittelklassekarten für den ein oder anderen sehr sinnvoll sein. ;)
 
Zuletzt bearbeitet:
AW: "Von der Blödheit der Graka-Testredakteure" - Die "Bugs" im NV-Control-Panel oder

das stimmt imho sieht 1024 + 2xAA besser aus(oder gleich) als 1280 ohne AA
aber auf 800*600 würd ich ent gehn, da die texturen doch schon ein wenig leiden

aber hdrr würde ich erstmal aussen vor lassen
mir ist kein spiel bekannt mit vernünftigen hdrr
entweder ist es ein fake hdrr(source) womit AA geht
oder es werden nur dumme blendeffekte genutzt, statt vernünftig implementieteshdrr
auf diesen blendeffekt kann ich gut verzichten(natürlich nur meine meinung)
 
AW: "Von der Blödheit der Graka-Testredakteure" - Die "Bugs" im NV-Control-Panel oder

MountWalker schrieb:
Auf Quality flimmert auch jede Geforce 6, der GAU bei G70 war, dass das Flimmern anfangs nichtmal mit höchsten Qualitätseinstellungen abzustellen ging. Sagen wir, er hat noch nicht festgestellt, dass man das lästige Flimmern auf Geforce 6 noch deaktivieren kann. ;)

doch das habe ich schon lange vor dir gewusst, denke ich mal ;)
außerdem hats bei CoD2 net wirklich was geholfen so nebenbei...
 
AW: "Von der Blödheit der Graka-Testredakteure" - Die "Bugs" im NV-Control-Panel oder

MountWalker schrieb:
Auf Quality flimmert auch jede Geforce 6
Hast Du das irgenwo gelesen, oder weißt Du das aus persönlicher Erfahrung zu bestätigen? Ich seh da kein Flimmern!

MountWalker schrieb:
Ja und am besten noch folgenden Satz verstehen, dann sehen wir, dass das gar nicht so eindeutig für nVidia wertbar ist wie du darstellst: Das ist ein wichtiger Punkt, denn dem einen ist die bessere HDRR-Quali dem anderen das MSAA wichtiger. Deswegen kann man eben schlecht eindeutig sagen was besser ist.
Versteh Du lieber mal, dass MSAA fürn Popo ist, wenn ich nur 200 - 300 € für ne Karte hinblättere, denn die Merhzahl spielt heut zu Tage in 1280x1024 auf nem TFT, welcher leider abseits seiner nativen Auflösung nur noch Matsch darstellt. Deswegen macht es auch keinen Sinn in 800x600 zu spielen, weil Du da einfach qualitativ nichts gewinnst. Außerdem gibt es noch andere Shooter außer FEAR, wo der Gegner nur hinter der nächsten Ecke lauert - auf Entfernung sieht man bei 800x600 nur noch farbige Pixel, aber den Gegner wahrnehmen bzw. noch das eigentliche Spiel erleben wird man nur in einer höheren Auflösung.

Schön übrigens, dass Du so ausführlich den Performanceeffekt der Auflösung andiskutierst, denn wie gesagt spielt man heut zu Tage in der Standardauflösung von 1280x1024 (in der übrigens auch gebencht wird) und gerade weil da prozentual so viel mehr Pixel auf den Bildschirm prozessierst werden, bleibt AA/AF im Midrange utopisch.
 
AW: "Von der Blödheit der Graka-Testredakteure" - Die "Bugs" im NV-Control-Panel oder

nicht jeder hat nen tft ;)
und manchge tfts haben ne anständige interpolation, wo 1024 noch ansprechend aussieht
ausserdem wenn cih mir jetzt ne 7800gt kaufe ist damit fast überall AA möglich


und das mit dem gegenr nicht sehen ist mehr als lachhaft
früher haben fast alle progamer auf 800*600 gezockt(kene ahnung warum sieht doch scheisse aus ^^)
 
Klar, nicht jeder hat nen TFT, aber ich hab auch keinen Bock jetzt über 800x600 zu reden, denn das ist absolut uninteressant.
...Auch bei der Bildschirmauflösung der ComputerBase-Besucher hat sich im Jahr 2005 ein bedeutender Wandel vollzogen, denn seit Mai liegt die Auflösung 1280x1024 mit aktuell 42,07 Prozentpunkten vor dem ehemaligen Spitzenreiter 1024x768 (33,50 Prozentpunkte). Dimensionen von 800x600 und darunter werden nur noch von rund 2,5 Prozent der Besucher genutzt. Der Anteil der Leser, der mit 1600x1200 und darüber auf ComputerBase unterwegs ist, fällt sogar geringfügig (3,6 Prozent) höher aus.
Quelle: ComputerBase-Chronik 2005

Gute Interpolation hin oder her, es wurde hier viel über Qualität diskutiert. Meinst Du nicht, dass man dabei über ne Interpolation als letztes nachdenken würde bzw. verlässt Du lieber die native Auflösung, bevor Du auf AA/AF verzichtest? Diese Frage müsste man wohl mal 42,07 % der CB Leser stellen.
 
Zuletzt bearbeitet:
Hast Du das irgenwo gelesen, oder weißt Du das aus persönlicher Erfahrung zu bestätigen? Ich seh da kein Flimmern!

Dann bist du blind. Ich habe in den drei mitgemachten Generationswechseln von Gf3 zu Radeon9800 zu 6800 GT einen deutlichen Qualitätsabfall bemerkt. Was die 6800GT macht, kann man dabei wirklich nicht mehr als schön bezeichnen. Alle Treiber über dem 78.03 bringen eine unerträgliche Flimmerei und Bugwellen auch in high quality, besonders bei UT04. Interessangerweise hab' ich das bei fast jeder neuen Version moniert, aber nie Resonanz bekommen. Es scheint, dass die überwiegende Anzahl der Spieler keinen Wert auf Qualität legen.

und das mit dem gegenr nicht sehen ist mehr als lachhaft

Dann spiel mal so etwas wie Red Orchestra, wo Kimme und Korn nur wenige Pixel ausmachen, und die Gegner zwischem filigranem Laub auf große Entfernungen nur durch geringste Pixelbewegungen sichtbar sind. Mit Texturflimmern geht da gar nichts, Du könntest stundenlang spielen, ohne je einen Gegner zu Gesicht zu bekommen.
Bei schnellen Spielen wie UT04 stört das Geflimmere auch extrem, weil so ständig Bewegung im Bild ist, die von den eigentlichen Bewegungen ablenkt. Das kannst Du also kaum mit matschigen Texturen oder geringen Auflösungen vergleichen, die ja keineswegs ablenken, denn das menschliche Auge reagiert auf Bewegungen viel stärker als auf andere Dinge.

Ach ja, schon mal Gun gespielt? Ich weiß nicht, ob das ein Bug war oder ob Nvidias Optimierungen da voll durchgeschlagen haben, aber das war ein einziger flimmernder Horrortrip. Wenn euch so eine Grafik egal ist, dann kann euch auch keiner mehr helfen. Ich bezahle jedenfalls kein Geld mehr für Karten, die mir solche Ergebnisse liefern.
 
@sebbeck
was hat die desktop auflösung mit der auflösung in spielen zu tun?

und bei interpolation vs. AA kann ich dir keine antwort geben da ich selber noch nicht in der situation bin
wird wohl vom tft abhängen

@dahum
es ging um die auflösung nicht ums texturflimmern, ich hab mit keiner silbe texturflimmern erwähnt
 
dahum hat aber trotzdem recht ^^
selbiges ist mir auch aufgefallen...
eine ähnlich schlechte qualität ist mir noch nie untergekommen(außer vielleicht bei meiner creative pci-graka, die ich hier noch rumfliegen hab :freak: )
 
Darf ich nochmal darauf hinweisen, dass es beim 3DCenter Artikel erst in zweiter Linie darum ging NV Bildqualität (die "optimierte") runterzumachen. Sondern es ging darum, dass man diese "Steigerung der fps-Rate zulasten der Qualität" (Zitat 3DCenter Artikel) nicht, oder nur schwierig, in der Treibersoftware deaktivieren kann und damit bewusst oder unbewusst (3DCenter glauben, dass NV in voller Absicht handelt) Testergebnisse verfälscht werden. Es wird auch angeregt die Bildqualität kritisch zu hinterfragen, bzw. subjektiv zu beurteilen, da man den Treibereinstellungen offensichtlich nicht mehr so ohne weiteres glauben kann. Dieses gilt natürlich für ATI gleichermaßen wie für NV.

Das NV-ATI-Gezanke ist zwar recht niedlich zu lesen, bring den Fred aber nicht wirklich weiter. Insbesondere sebbeck scheint es ja für seine Mission zu halten für die NV-Bildqualität verbal ins Felde zu ziehen. Aber glaube mir, NV hat deinen Support nicht nötig und verdient ihn eigentlich auch nicht.
 
dahum schrieb:
Dann bist du blind.
Sorry, aber ich bemühe mich hier um sachlichen Dialog. Muss ich mir sowas vorwerfen lassen, dass ich blind sei? Ich zocke UT2004 sowohl mit ner 6800 als auch mit ner Ti4200 (und diese gilt so mit als eine der qualitaitv hochwertigsten Karten, mit denen man noch UT zocken kann) - ich sehe da keinen auffälligen Unterschied. Den würde ich erst sehen, wenn man mir die beiden PCs direkt nebeneinander an identische Bilschirme anschließen würde. Aber wenn es erst unter dieser Bedingung der Fall wäre, kann ich gut damit leben.

Noch dazu hat die 6800 die Ti4200 am selben Bildschirm damals abgelöst, aber in diesen Tagen war mir auch nichts weiter aufgefallen. Wie schon gesagt, ich ziehe es ernsthaft in Betracht, dass wir die Bilder verschieden wahr nehmen. Ich möchte Euch hiermit mal ein wenig um Toleranz bitten (und ich werde mich auch bemühen), denn ich versuche Euch hier keinen Bären aufzubinden, sondern bin davon wirklich überzeugt. Das hat auch nichts mit Verhalten eines Fanboys zu tun. Mein Avatar ist mein Avatar, weil ich den Mad Mod Mike lustig finde, wäre er von ATi, hätt ich damit auch kein Problem und ich hätte auch kein Problem damit für ATi zu argumentieren, würden sie die Dinge richtig machen, die mir wichtig sind. Allem voran Stromverbrauch, Geräuschentwicklung und halt Leistung bei natürlich annehmbarer Qualität.

dahum schrieb:
Dann spiel mal so etwas wie Red Orchestra, wo Kimme und Korn nur wenige Pixel ausmachen, und die Gegner zwischem filigranem Laub auf große Entfernungen nur durch geringste Pixelbewegungen sichtbar sind. Mit Texturflimmern geht da gar nichts, Du könntest stundenlang spielen, ohne je einen Gegner zu Gesicht zu bekommen.
Also da sind wir einer Meinung. Da spielt genau das mit rein, was ich auch schon meinte. Bei FEAR wartet der Gegner hinter der nächsten Ecke (kein Problem bei 800x600, aber bei UT oder besonders Far Cry sind die Entfernungen so groß, dass man in 800x600 nur noch farbige Pixel sieht, die alles mögliche sein könnten.
bensen schrieb:
@sebbeck
was hat die desktop auflösung mit der auflösung in spielen zu tun?

und bei interpolation vs. AA kann ich dir keine antwort geben da ich selber noch nicht in der situation bin
wird wohl vom tft abhängen
Die Frage musste ja kommen - Gegenfrage: Welcher Art von Monitor ist denn die Auflösung, die zu 42.07 % von den Lesern genutzt wird, ausschließlich vorbehalten? Und ich bin mir ziemlich sicher, dass selbst die beste Interpolation es nicht wert ist, wegen AA/AF die native Auflösung eines TFT zu verlassen. (Ich habe das schon auf einigen TFTs in 1280x1024 und auch auf einem widescreen 1680x1050 vergleichen können.)

abcd12 schrieb:
Das NV-ATI-Gezanke ist zwar recht niedlich zu lesen, bring den Fred aber nicht wirklich weiter. Insbesondere sebbeck scheint es ja für seine Mission zu halten für die NV-Bildqualität verbal ins Felde zu ziehen. Aber glaube mir, NV hat deinen Support nicht nötig und verdient ihn eigentlich auch nicht.
Ja, jetzt mal nicht so herablassend, ich fühle mich NV gegenüber auch nicht verpflichtet! Ich kann auch einfach den Mund halten und wir lassen den Fred hier im Forum versinken. Wenn NV den Support nicht verdient habe, dann möchte ich gerne wissen, warum ATi diesen verdient haben könnte. Sind es die neuen Rekorde in Sachen Stromverbrauch, oder gefällt Euch der laute Lüfter etwa so gut. Jeder hat seine Stärken und Schwächen und wir als user dürfen entscheiden, was wir bevorzugen. Es geht mir extrem gegen den Strich, wenn mir Qualitätsunterschiede nur nach längerer Betrachtung eines Screenshots auffallen, aber anderer seits ein zu lauter Lüfter, geringere 3D Leistung oder eine erhöhte Stromrechnug sofort ins Auge stechen - mir dann aber zwischen den Zeilen Züge eines Fanboy oder Blindheit angedichtet werden.


Und ja, Back To Topic (auch wenn ich glaube, dass da nicht viel kommen wird. Selbst Perfekt57! hat noch nicht viel gesagt. Glaube ohne hin, dass Er solche Threads gern aufmacht, um einfach mal mitzulesen und sich unterhalten zu lassen.)
 
sebbekk schrieb:
Ja, jetzt mal nicht so herablassend
Sorry, sollte nicht so wirken!
sebbekk schrieb:
aber zwischen den Zeilen Züge eines Fanboy oder Blindheit angedichtet werden.
Du tust allerdings das deinige diesen Eindruck zu erwecken, dazu bedarf es nicht "des zwischen den Zeilen Schreibens".
sebbekk schrieb:
Wenn NV den Support nicht verdient habe, dann möchte ich gerne wissen, warum ATi diesen verdient haben könnte.
Ham se nich, hab ich auch nicht behauptet.
sebbekk schrieb:
Und ja, Back To Topic (auch wenn ich glaube, dass da nicht viel kommen wird. Selbst Perfekt57! hat noch nicht viel gesagt. Glaube ohne hin, dass Er solche Threads gern aufmacht, um einfach mal mitzulesen und sich unterhalten zu lassen.)
Ist ja auch ein ersprießliches Thema mit viel Raum zum diskutieren. Ich glaube ich werde es jetzt auch so wie er machen.
 
nd ja, die CB Tests muss man anerkennen! Es ist klar zu erkennen, dass man sich um Objektivität bemüht, auch wenn mir das Fazit jedes mal gegen den Strich geht, warum ist hier evtl. schon etwas durchgeschienen. Da kommt dann noch Stromverbrauch etc. hinzu...
Aber was ist hier passiert? Wir müssen einen Parameter konstant halten, damit wir Rückschlüsse auf einen anderen ziehen können, hieß es eben.
Die CB Redaktion zeigte sich unbeeindruckt ggü. jeglichen Vorwürfen. Fakt ist, dass hier ebenfalls nicht objektiv verglichen wurde. Als Graka-Testredakteur hat man es schon nicht leicht.
Was ich mit diesem Hinweis zeigen möchte ist, dass man eine ATi in Form einer X800 so bencht, wie sie daherkommt - nämlich nur mit SM2.0b und vergleicht sie mit ner 7800 GS (SM3). Irreführung oder Objektivität? Man sieht hier jedenfalls sehr schön, dass Treibereinstellungen nicht alles sind, auch die von mir erwähnte technische Qualität zählt. Wem nicht auffällt, worauf ich hinaus will, die X800 ist in AoE3 schneller, obwohl sie es mit SM3 nicht wäre, bzw. ist hier zwar schneller, aber stellt nicht all das dar, was es darzustellen gäbe.

Ja, wir Grafikkartenredakteure haben es wirklich nicht leicht;)
AOE3 ist warlich ein heikles Thema, was Benchmarks betrifft. Man kann es wohl zur Zeit klar als das schwerste zu benchmarkbare (?^^) Spiel bezeichnen, was derzeit auf den Markt ist.
Auf Karte a funktioniert Feature b nicht, auf Karte b dafür Feature a nicht und auf Karte c geht einfach gar nichts. Am einfachsten macht man es sich natürlich, wenn man das SPiel aus dem Benchmarkparcours rauslässt.

Aber kann sowas sinn eines guten Reviews sein? Meiner Meinugn nach nicht. Und da die Defaulteinstellungen bei dem SPiel wirklich alles durcheinander bringen, die Bildqualität auf jeder Karte anders ist, kann man sich so das Benchen vergessen. Imo haben wir für die X1x00 und 7800/6800 recht brauchbare Settings gefunden. HDRR ist bei den Karten aktiviert, was von uns oftmals gefordert wurde (in früheren AOE3-Benchmarks war es dagegen aus, was aber vieles andere einfacher machte).

Nun ist es an, weswegen es beim AA Schwierigkeiten gibt. Entweder können wir auf das AA komplett verzichten (gibt Gemeckere) oder wir versuchen eine möglichst gleiche Bildqualität zu finden, was in AOE3 aber deutlich andere AA-Modi erfordert (gibt Gemeckere). WIr haben uns für letzteres entschieden, da es meiner Meinung nach sinnvoller ist. Natürlich, deswegen wird ein Hersteller bei dem Spiel deutlich bevorteilt, weil der andere in Feature nicht kann, was der andere dafür hat, aber ist das unser Problem? Die Bildqualität ist ziemlich (wenn auch nicht immer und überall) gleich, weswegen ich auch nicht den Protest einiger weniger Personen (z.B. ein lieber Gast aus dem 3DC-Forum) verstehen kann, der beide Karten in dem SPiel noch nie gesehen hat und deswegen die Kritik wohl kaum belegen kann. SSAA gegen MSAA, FP16-HDR gegen FX10-HDR; natürlich ist das nicht unbedingt fair, sieht aber fast gleich aus... auch wenn man es nicht glauben mag.
Und in dem von Sebekk verlinkten Artikel von uns haben wir AOE3 nachträglich aus dem Rating entfernt, um dort eine bessere Vergleichbarkeit zu gewährleisten!

Nun mal kurz was zum 3DC-Artikel. Die tollen Bugs von dem ForceWare-Treiber sind mir bereits längere Zeit bekannt, weswegen HQ auch wirllich HQ ist und nichts anderes. Wenn der Treiber bei einer Applikation unbedingt etwas anderes haben will als man selber, kann man kaum etwas dagegen unternehmen - leider. Genauso finden wir es sehr ungünstig, dass ATi nicht die "AF-Optimierungen" von den Applikationsspezifischen Optimierungen trennt. Dort hat man die Qual der Wahl, weswegen es dem Reviewer wirkliuch nicht leicht gemacht wird. Bencht man jetzt AI on oder AI off? Beides ist irgendwo unfair - doch erneut, was will man machen?

Das einzige was wir (Reviewer vor allem) machen können ist, dass wir die Bildqualität in dem Artikel abseits der Balken bewerten, kritisieren und auch loben. Und genau das versuchen wir zu machen! Es ist schön wenn eine Karte insgesamt 10 Prozent mehr Leistung bringt als die eine, doch was nutzt mir das, wenn dafür die Bildqualität schlechter ist? Gerade bei High-End-Karten kann man auf die zusätzlichen FPS gut verzichten. Darum sagt das Fazit auch oft etwas anderes aus, als die Balken vermuten lassen. Performance und Bildqualität ist nunmal das Wichtigste an einer Grafikkarte, weswegen wir beide Gebiete in dem Fazit immer mit absoluter Priorität behandeln.

Das das einigen Lesern und Herstellern nicht passt ist uns klar, aber ich sehe es für wichtiger, die Wahrheit zu vermitteln als irgendetwas schönzureden.
 
sebbekk schrieb:
... Ich zocke UT2004 sowohl mit ner 6800 als auch mit ner Ti4200 (und diese gilt so mit als eine der qualitaitv hochwertigsten Karten, mit denen man noch UT zocken kann) - ich sehe da keinen auffälligen Unterschied. ...
Und weil du persönlich ihn nicht siehst kann er ja auch für niemand anderen deutlich sichtbar sein? :hammer_alt: Ich teile Aths' Meinung, dass jeder, der gern Quincunx (Blurfilter) als AA nutzen will und dies als Vorteil sieht dies tun soll, nur soll er mir nicht befehlen Testergebnisse nur mit sowas zu bekommen, weil andere, die nicht er sind, es möglicherweise sehr wohl als deutliche Verschlechterung sehen. Richtiges AA macht das Bild schärfer und nicht unschärfer - geneuer gesagt verliehrt das Bild durch Aliasing an Informationen, da pro Pixel weniger Informationen enthalten und mit Anti-Aliaising schränke ich den Informationsverlust ein.

sebbekk schrieb:
... Bei FEAR wartet der Gegner hinter der nächsten Ecke (kein Problem bei 800x600, aber bei UT oder besonders Far Cry sind die Entfernungen so groß, dass man in 800x600 nur noch farbige Pixel sieht, die alles mögliche sein könnten.
Nö, könnten sie eben nicht, und mit 1024*768 @4xRGAA erkene ich die Form des Objekts in weiter Ferne sogar besser als mit 1280*960 @Kein-AA, weil mir bei ersterem mehr Informationen gegeben werden. Ich erkenne an, dass manche Leute diese Mehrinformation nicht mit ihrem Sehsinn auswerten zu können glauben und glauben es wäre unschärfer, deswegen sage ich ich erkenne die Form in dem Fall besser.

Es war kein Argument jeden dazu zu zwingen so wie ich zu spielen, sondern ein Argument gegen deine Pauschalisierung AA und AF wären für die Mittelklassekarten nichts. Auch heute noch ist es durchaus fraglich opb sich jeder Mittelklassekunde bei Neukauf eines Monitors einen TFT kaufen würde, denn Röhren kosten in gleicher größe immernoch die Hälfte und bios man den Preisunterschied über den Stromverbrauch ausgeglichen hat dauerts eine ganze Weile, insbesondere wenn man bedenkt, dass es heute 19" Röhren mit nur 70 W Verbrauch gibt.
sebbekk schrieb:
...Die Frage musste ja kommen - Gegenfrage: Welcher Art von Monitor ist denn die Auflösung, die zu 42.07 % von den Lesern genutzt wird, ausschließlich vorbehalten?
Man und diese 42% sind jetzt die deutliche Mehrheit? Das zeigt doch wohl eher, dass 57,93 % der Leser noch wie ich in die Röhre schauen... (jetzt mal brutal die 0,x % Maccies und XY % Notebook-User misachtet :D)

Und ja, auch Operation Flashpoint würde ich lieber bei 800*600 und 4x RGAA spielen als auf 1024*768 ohne AA, 1280*960 würde einen weit größeren Performanceunterschied ausmachen als 4xAA und steht deshalb nicht zur Diksussion: 1280*960 mit Medium Details wäre auf meiner Hadware in FEAR auch ohne AA nicht möglich, deshalb spiele ich FEAR in 800*600 mit 4x MSAA und nicht in 1024*768 in 4x MSAA. ;)

sebbekk schrieb:
...Es geht mir extrem gegen den Strich, wenn mir Qualitätsunterschiede nur nach längerer Betrachtung eines Screenshots auffallen, aber anderer seits ein zu lauter Lüfter, geringere 3D Leistung oder eine erhöhte Stromrechnug sofort ins Auge stechen - mir dann aber zwischen den Zeilen Züge eines Fanboy oder Blindheit angedichtet werden.
Es hat hier niemand gesagt Lautstärke würde nicht bewertet werden sollen, du hast nur schlicht zu akzeptieren, dass es nunmal Leute gibt denen beispielsweise das Flimmern sofort ins Auge sticht. Stell dir vor es gibt Leute die finden wegen Flimmern selbst HDTV 720p schöner als 1080i (das ist als Aliasing-Beispiel eigentlich auch ein Argzuument warum ich lieber mit niedriger Auflösung und 4xRGAA spiele als mit hoher Auflösung ohne AA). ;)
 
Zuletzt bearbeitet:
@sebbek:
Das du die Unterschiede zwischen 100 und 200fps "siehst" ist schlicht physikalisch unmöglich, da solltest du doch mal zum Arzt gehen und ihn nachgucken lassen, ob bei dir die Nervenbahnen hinter und nicht vor den Zäpfchen und Stäbchen verlaufen.

Du fühlst es schlicht mit der Maus, nicht mehr nicht weniger. Ich habe auch in CS gefühlt (das ich mittlerweile nicht mehr spiele) ob es 60fps (bei 60hz) oder 100fps (bei 100hz) waren.

Und wie schon gesagt, es muss mindestens einen Nenner geben, sonst ist es kein Vergleich!

Das sollte bei Grafikkarten immer die Bildqualität sein!

Man kann natürlich auch die Frameanzahl als Nenner nehmen und gucken welche Graka dabei die beste Bildqualität liefert, aber das ist ein wenig kompliziert.


Dass die nForce Treiber im Defaultmodus nicht die höchste Bildquallität liefern ist vollkommen ok, aber wenn man jetzt mit sehr hoher Qualität spielen will, dass AA, AF anmacht und im Treiber auf HighQuality stellt, dann haben die Optimierungen aus zu sein, weil es sonst nicht HighQuality und damit gelogen ist.
 
Zuletzt bearbeitet:
@MountWalker:
Ich danke Dir für Deine ausführliche Antwort. Letzten Endes bestätigst Du damit eigenltlich aber auch ein wenig das was ich sage, wenn auch ungewollt. Nämlich dass AA/AF nur in niedrigeren Auflösungen mit ner Midrangekarte vertretbar sind, sonst würdest Du nich auf 800x600 rumkrebsen!

Und deswegen ist es zwar nicht unwichtig, aber nebensächlich, wie schnell eine Midrangekarte in der Standardauflösung (!) von 1280x1024 unter AA/AF abschneidet, denn spielen würden die wenigsten damit, zumindest nicht Games, die FPS fordern (Shooter).

@v_1:
Hätte ich in Anführungsstrichen geschrieben, dass ich den Unterschied sehe, hättest Du mir also bedenkenlos zugestimmt. Ich sagte, dass ich einen Unterschied zwischen 60 FPS und über 100 FPS "erkenne" (nicht zw 100 und 200) und dabei bleibe ich. Ja, man kann sagen, dass man den Unterschied in der Maus fühlt. Letzten Endes reagiert man in der Bewegung schneller bei mehr FPS - auch dann wenn diese FPS-Zahl schon jenseits der statistischen Auflösung des menschlichen Auges liegt.

Wer sich mit numerischer Mathematik auseinander setzt, kann sich das auch über ein Fehlerquadrat erklären. Es setzt sich zusammen aus Wiederholfrequenz des Bildschirms, den durch die GraKa gernerierten Frames per Second und dem Auflösungsvermögen des menschlichen Auges. Bloß weil letzteres nicht mehr als 25 schafft, ist nicht damit genüge getan, dass die anderen beiden Parameter lediglich diesen Mindestwert erreichen - oder empfände hier irgendjemand 25 Hz als angenehm, oder 25 FPS als flüssig?
 
Zurück
Oben