Testredakteure und die "Bugs" im NV-Control-Panel

Nöe von 25hz oder 25fps habe ich nicht geredet, aber ich denke so ab 60fps ist mit dem Auge kein Unterschied mehr feststellbar.
 
aoe3 ist einfach ein grässlich programmiertes spiel.
wenn man mal vergleicht was valve in hl2:lc für arbeit gesteckt hat, ums auf möglichst vielen karten möglichst gut aussehn zu lassen.
klar, man kann sich nicht ewig auf alte hardware konzentrieren, aber n bloom wäre für sm2.0 doch drin gewesen?! die meisten hätten nichtmal nen unterschied bemerkt.
"hui, wie das glüht" reicht doch eigentlich ;)

@v_1: kommt auf die situation an. im rennspiel auf jeden fall. im action fps können mehr als 60 auch von vorteil sein (crt) oder sogar von nachteil (verschwimmen aufm tft)
 
Zuletzt bearbeitet:
v_1 schrieb:
Nöe von 25hz oder 25fps habe ich nicht geredet, aber ich denke so ab 60fps ist mit dem Auge kein Unterschied mehr feststellbar.

Also..... ob ich bei COD 2 beispielsweise an einer Stelle 60 fps habe oder an einer anderen Stelle um die 100 fps..... das merk ich aber ziemlich deutlich...... :)
 
sebbekk schrieb:
Nämlich dass AA/AF nur in niedrigeren Auflösungen mit ner Midrangekarte vertretbar sind, sonst würdest Du nich auf 800x600 rumkrebsen!

Und deswegen ist es zwar nicht unwichtig, aber nebensächlich, wie schnell eine Midrangekarte in der Standardauflösung (!) von 1280x1024 unter AA/AF abschneidet, denn spielen würden die wenigsten damit, zumindest nicht Games, die FPS fordern (Shooter).
moment mal er krebst mit ner 9700 rum
du redest von einer 200-300€ teuren karte
ergo eine 7800gt
damit würde ich nichts ohne aa zocken, warum auch?
 
Nochmal: Ich habe vom sehen gesprochen, nicht vom merken.
Ich merke auch ob 60 oder 100fps (mit der Maus), aber sehen tut man diesen Unterschied nicht mehr.
 
es kommt natürlich auch immer auf die engine an.
games auf basis der hl- oder q3-engine machen bei 60fps nur bedingt spaß. da merke ich sogar, wenn ich nur 80 statt 100 fps hab und zwar anhand vom zuckeln beim umdrehen. und was meinst überhaupt mit "merken und nicht sehen"? fühlen kann mans nicht, das muss man sehen und zwar in bewegung.
modernere engines verhalten sich da genügsamer.
 
da wären wir wieder bei dem problem das viele 1024 +AA zocken würden
und das viele bestimmt noch mehr zocken als nur die aufgezählten spiele
 
Ach bensen, wir drehen uns im Kreis.

1280x1024 ist mittlerweile Standard. In dieser Auflösung wird gebencht und nur weil einige user noch Quake3 oder UT classic auf einem CRT in 1024x768 oder weniger (:freak:) zocken, kann man doch gerade bei Erwerb einer neuen Karte nicht unter den Tisch kehren, dass moderne Games damit gezockt werden sollen und das womöglich in Verbindung mit der nativen Auflösung eines TFT. Und eine neue Graka muss ich mir primär deswegen kaufen, wenn letztere Faktoren beide oder zumindest einer dieser erfüllt werden - nicht aber weil Ihr gern andere Szenarien aufzeigen wollt, nur um davon abzulenken, dass ich mit einer modernen Midrangekarte für 200 - 300 € immer noch auf AA/AF größten Teils verzichten muss, wenn ich ein modernes Spiel in Standardauflösung flüssig spielen möchte.
 
v_1 schrieb:
..., aber ich denke so ab 60fps ist mit dem Auge kein Unterschied mehr feststellbar.
Dafür darf nicht ein einziges Bild länger als eine sechzigstekl Sekunde stehen bleiben, gerade in hektischen Ego-Shootern kannst du das mitunter selbst bei einer Avarage-Framerate von 100 fps noch vergessen.

Eine Auswertung für jedes einzelne frame bekommst du derzeit nur bei Battlefield 2 und dann schau dir mal das erste Diagramm hier auf dieser Seite des Speichergrößentest bei THG an - selbst beim grünen Graphen gibts noch Spitzen die bis deutlich unter 40 fps reichen, kurz vor Sekunde 3 (eigentlich kurz vopr Vollebndung der zweiten, aber THG fängt nicht mit 0 sondern mit 1 an) sackt die Framerate des grünen Graphen, also mit 2 GiB RAM, bei einem Frame sogar fast auf 20 fps, der blaue Graph (512 MiB) sieht noch deutlich schlimmer aus.

Die hohe Framerate brauchst du gerade bei besonders schnellen Kamera-Bewegungen und gerade bei denen sackt die Framerate extrem ab. ;)

P.S.
Außerdem glaube ich erzeugt man das optimale Gefühl in besonders schnellen Szenen erst mit 50-60 fps + Motion-Blur, aber das nur in wirklich besonders schnellen Szenen. Schließlich lebt der Mensch im ruhigen Wachzustand, dh. ohne Adrenalin (was die Wahrnehmung beschleunigt, weswegen man sich in extremen Stresssituationen wie in Zeitlupe fühlt) laut einer BBC-Doku in einem Rythmus von etwa 50 Momenten pro Sekunde und das Gehirn kann 50 Bilder/s leichter zusammenfügen, je besser sie ineinander übergehen, mit Bewegungsschärfe geht das also leichter, ist weniger aufwendig fürs Gehirn.
 
Zuletzt bearbeitet:
hm ich sehe das ganze so
nVideas kartengeneration hat eine schwäche ok wann hatte das mal keine karten generation
aber beim testen sollte man gerade um gleicheit herzustellen beide unter gleichen optionen laufen lassen (währe ja sonst wie wenn ich das fahrgefühl mit einem F1 wagen gegen einen merzedes vergeleiche und alles was ich sage "aber der formel 1 wagen ist scheller")
es ist leider schade das es noch keinen wirklich objektieven vergleich der qualität im verhältniss zu den fps gibt... aber wenn diese diskusion von CB erhört wird konnen die das sicherlich änder (ich höffe doch das sie noch ein modell einer niveda karte und eine vergleichbare ati da haben)

der einiziger der unter diesen dingen leidet ist wider mal der normal michel der denkt je mehr fps des do besser is das was ich kaufe (auch sm3 war für nvidea damals ein kaufargument aber leider nur für die die es wussten)

mfg loop'ei
 
Was mich mal interessieren würde:
Ein CB Test wie die bisher, aber die NV Karten auf "Qualität" statt HQ und dann mal die Frames, wie stark die Karten dann einbrechen bei AA+AF...

Ach ja, diese Bugwellen kann mal im Treiber bei Negativer LOD Bias ausschalten, in dem man da auf "Clamp" statt "Erlauben" stellt...
Und Performance kostet das auch net.
 
sebbekk schrieb:
Ach bensen, wir drehen uns im Kreis.

1280x1024 ist mittlerweile Standard. In dieser Auflösung wird gebencht und nur weil einige user noch Quake3 oder UT classic auf einem CRT in 1024x768 oder weniger (:freak:) zocken, kann man doch gerade bei Erwerb einer neuen Karte nicht unter den Tisch kehren, dass moderne Games damit gezockt werden sollen und das womöglich in Verbindung mit der nativen Auflösung eines TFT. Und eine neue Graka muss ich mir primär deswegen kaufen, wenn letztere Faktoren beide oder zumindest einer dieser erfüllt werden - nicht aber weil Ihr gern andere Szenarien aufzeigen wollt, nur um davon abzulenken, dass ich mit einer modernen Midrangekarte für 200 - 300 € immer noch auf AA/AF größten Teils verzichten muss, wenn ich ein modernes Spiel in Standardauflösung flüssig spielen möchte.

schau dir mein system an. ich zocke recht neue spiele(bf2, cod2 etc) und habe selbst nen 17" CRT...
kb auf pixelfehler, schlieren(mein auge ist bei sowas sehr empfindlich) und nen hohen preis...
 
Starkes System, aber dass Du das an solch veraltete Peripherie anbindest, kann man nur als unausgewogen bezeichnen.

Schlieren sind ja wohl kein Thema, wenn man sich vorher informiert. Beliebte 19"er ohne Schlierenbildung und mehr als ausreichenden Reaktionszeiten kosten 300 - 350 € und man kann bei Pixelfehlern ohne weiteres Gebrauch vom Rückgaberecht machen, oder noch besser seinen Bildschirm im Laden vor Erwerb anschauen.

Dein System war bestimmt nicht billig, deswegen erlaube mich mir mal zu behaupten, dass Du ein wenig am falschen Ende gespart hast.

Dein Fall wird aber sicher die Fachwelt nicht davon abbringen, 1280x1024 als die neue Standardauflösung anzusehen und wenn wir hier über Vergleichbarkeit, Objektivität etc. diskutieren, dann muss man auch wenn man selbst noch im Besitz eines 17" CRT ist, so konsequent sein und dies anerkennen.
 
öhm...
nein. ich habe NICHT gespart. mir wars der TFT nur nicht wert.

und zum thema schlieren:
du scheinst unempfindlichere augen zu haben als ich(s. 6800gt-flimmern, das du angeblich nicht siehst).
und 300-350€ für nen moni? ne danke. da reicht mir n 150€ samsung-CRT der ne bessere quali hat, als viele TFTs, die ich gesehen habe...
 
@sebbek
ich gebs auf du musst ja immer sofort alles ins extreme ziehen nur weils nicht passt

was meinst du wie viele gamer noch nen crt haben
und nur weil ich sage das die aufgezählten spiele eine minderheit sind musst du gleich mit q3 oder ut clasic anrücken

ut2004 ist auf meiner 6600gt bei 1280 und aa locker spielbar
genauso farcry
mit ner 7800gt auch viele neuere wie doom3 etc. sowie die meisten rollenspiel und strategeispiele

zu veralteter peripherie:
ich zock lieber auf meinem guten crt als auf einem billig tft
und gute tfts kosten schon einiges

aber ich gebs auf, bringt ja doch nichts mit dir
 
OK, sorry, ich möchte niemanden verärgern!

Lassen wir es lieber sein. Ich schätze Euch und Eure Meinungen - leider diskutiere ich gerne und auch scharf, wenn ich von etwas überzeugt bin. Aber es liegt mir fern, jemanden schlecht machen zu wollen.

Grafik ist ein komplexes und vom Auge des Betrachters extrem ahängiges und zugleich interessantes Thema.

Allein schon dass Du sagst, UT2004 sei auf ner 6600GT mit AA locker spielbar zeigt mir, dass wir nicht auf dem selben Nenner liegen. Ich empfinde es nicht mal auf ner 6800@GT flüssig mit AA!

Und extrem bin ja wohl nicht nur ich! Ich habe aktuelle Games genannt, die gerne gebencht werden. Wenn wir über moderne Qualitätsaspekte sprechen, müssen wir auch über entsprechende Games reden. Wenn hier sämtliche Standards aberkannt werden, auf welcher Grundlage sollen wir dann diskutieren?

Zum Thema billig TFT:Extrem beliebt unter Gamern und dennoch günstig. Ist es wirklich so, dass Ihr wenn Ihr die Wahl hättet, einem 17" CRT den Vorzug geben würdet? OK, dann ist das so.

Aber es bleibt nebensächlich, wie eine 7800 GT auf 1024x768 in UT2004 oder einem anderen Titel "von gestern" abschneidet. Eine solche Karte kauft man sich doch normalerweise eher, um höheren Auflösungen und den Ansprüchen von modernen Spielen gerecht zu werden.

3Dmark06 bencht nun in dieser Auflösung, CB bencht seit fast einem Jahr schon in dieser Auflösung und das natürlich mit aktuellen Spieletiteln. Ist es nicht sinnvoll unabhängig auf welches Bildformat man als Leser gerade seinen Blick richtet, auch über diesen Standard zu diskutieren?

Ich muss hier schon seit unzähligen Postings gegen Windmühlen kämpfen. Da glaubt jemand, dass dem menschlichen Auge in jeder Situation 25 Bilder pro Sekunde genügen, um sich verzögerungsfrei zu orientieren und dass Framezahlen über der Wiederholrate eines Bildschirms nicht im Spiel erkennbar seien. An anderer Stelle wird auf 800x600 ausgewichen und behauptet, dass das mit ner guten Interpolation auch kein Thema wäre - selbst auf großen Maps fänden Kimme und Korn immer noch einen gut erkennbaren Gegner.

Warum überhaupt, mussten wir über sowas diskutieren? Bin nur ich extrem, wenn was nicht in die Argumentationskette passt, oder beweisen auch andere hier extremen Einfallsreichtum?
  • Ja, man muss eine vergleichbare Qualität erzeugen, um 3D-Performance objektiv vergleichen zu können.
  • Ja, AA/AF sind wichtige und bei vielen beliebte Mittel zur Qualitätssteigerung, auch wenn diese mit FPS-Einbußen bezahlt werden müssen.
  • Ja, es gibt noch immer andere, vor allem geringere Auflösungen als den de Facto Standard, welche in PC-Games Anwendung finden.
Es möge jeder nach seiner Fasson glücklich werden und die Einstellungen treffen, die für ihn am meisten Sinn machen. Ich persönlich würde mich gerne als Diskussionsgrundlage an aktuellen Fakten orientieren wollen; zufällig finden sich meine Vorlieben und Erwartungen, was Auflösung und Benchmarktitel angeht, in den Grundlagen wieder, derer sich auch Computerbase und viele andere Referenzen bedienen.

Das waren meine vorerst letzten Worte zu dem Thema. Ich möchte wie gesagt niemanden verärgern - Eure persönliche Meinungen sind mir nicht egal und der freundschaftliche Umgang hier im Forum ist mir wichtiger, als das "Privileg" ermüdende Diskussionen wie diese hier für die eine oder ander Partei entscheiden zu können.

Gruß
sebbekk
 
Zuletzt bearbeitet:
sebbekk schrieb:
Ist es wirklich so, dass Ihr wenn Ihr die Wahl hättet, einem 17" CRT den Vorzug geben würdet? OK, dann ist das so.
Der CRT kostet einfach immernoch die Hälfte, das ist der Punkt, warum CRT auch weiterhin ihre Verbeitung haben werden. Günstig ist relativ, aber Fakt ist, wenn ich für € 169,- nen nicht schlechten 19" CRT bekomme, dann kostet der sehr viel weniger als ein Syncmaster 930BF. Ich habs auch schonmal gesagt. Und wenn ich den gar nicht unordentlichen 19" CRT habe, dann brauche ich niedrigere Auflösungen nicht interpolieren - PUNKT.
sebbekk schrieb:
Ist es nicht sinnvoll unabhängig auf welches Bildformat man als Leser gerade seinen Blick richtet, auch über diesen Standard zu diskutieren?
Ist es jetzt schon ein Standard, weil CB seit einem Jahr damit bencht? Hast du vorhin mal die Augen beim Lesen aufgemacht? Du selbst hast doch die Zahlen in den Thread gebracht, nicht einmal die Hälfte aller CB-Besucher surfen mit einer Desktop-Breite von 1280 Pixeln, das müssen nichtmal alles zwangsläufig TFT-User sein und dass die vielen CRT-Spieler immer grundsätzlich nur in ihrer Desktop-Auflösuing spielen würden ist absoluter Quatsch, denn bei denen ist auch heute noch ein Tool namens "RefreshForce" hoch im Kurs, das, anders als die Grafiktreiber-Config-Tools der IHV auch verschiedene Bildwiederholfrequenzen für unterschiedliche Auflösungen speichern kann und nicht nur eine für alle wie die RefreshFixer der IHV.

sebbekk schrieb:
An anderer Stelle wird auf 800x600 ausgewichen und behauptet, dass das mit ner guten Interpolation auch kein Thema wäre - selbst auf großen Maps fänden Kimme und Korn immer noch einen gut erkennbaren Gegner.
Interpolation ist für mehr als die Hälfte aller CB-Besucher kein Thema, weil sie auf einem CRT spielen. Und wenn du unfähig bist in Operation Flashpoint bei 800*600 mit 4x Multi-Sampling Ziele auf Entfernung vernünftig zu identifizieren verstehe ich nicht, warum du höhere Auflösungen willst - wenn du nichtmal 800*600 voll auswerten kannst? Zumal das nur ein Nebenpunkt war, eigentlich ging es darum am Beispiel FEAR, bei geringer Hauptkampfentfernung, zu zeigen, dass AA nicht pauschal für Midrange-Spieler ungeeignet ist und meine Radeon9700 ist mittlerweile, am aktuellen Markt gemessen schlechter als MidRange. Darüberhinaus ist eindeutig klar, dass ich in FEAR AA und AF abschalten kann wie ich will, deine "Standardauflösung" von 1280*1024 bekomme ich auch ohne AA/AF nicht flüssig. 4x MS und 4x AF kosten weniger und bringen mehr als eine Auflösungserhöhung um eine Stufe, also ist jawohl klar was zu bevorzugen ist - ja, das Ziel auf Entfernung kann man mit 800*600 4x MS besser identifizieren als mit 1024*768 ohne AA, wer das anders sieht schaut sich beim Spielen nicht den Inhalt an sondern sucht Pixelkanten und das ist nicht der Sinn von virtuellen Spielewelten - und in der Realität sucht man auch nicht nach Pixelkanten um Ziele zu identifizieren.
 
Zuletzt bearbeitet:
MountWalker schrieb:
Günstig ist relativ, aber Fakt ist, wenn ich für € 169,- nen nicht schlechten 19" CRT bekomme, dann kostet der sehr viel weniger als ein Syncmaster 930BF. Ich habs auch schonmal gesagt. Und wenn ich den gar nicht unordentlichen 19" CRT habe, dann brauche ich niedrigere Auflösungen nicht interpolieren.
Das kann man eigentlich nicht so stehen lassen, denn ein durchschnittlicher CRT verbraucht schon mal das dreifache an elektrischer Energie im Vergleich zum TFT, was mittelfristig den Kostenvorteil des CRT zunichte macht. Darüber hinaus ist für jeden der wenigstens manchmal den Rechner auch zum Surfen, Schreiben, Programmieren nutzt, der ergonomische Vorteil des TFT nicht von der Hand zu weisen. Ich bin z.B. sehr empfindlich was Bildwiederholfrequenzen angeht, und zumindest das Problem hat man beim TFT nicht. Ich persönlich würde den billigsten TFT jedem CRT vorziehen, aber das ist nur meine Meinung.

Jetzt zur Auflösung, ich pflichte Sebbekk bei, wenn er sagt, dass 1280x1024 eine Art Standard beim Benchen ist. Zum einen deshalb, weil die Anzahl der TFT-User zunimmt und zum anderen, weil man in niederen Auflösungen keine großen Unterschiede zwischen den einzelnen Grakas sehen würde. Man denke an die unzähligen Farcry-Tests wo alle Grakas aufgrund der CPU-Limitierung des Games etwa das gleiche Ergebnis erreichen.

Und wenn man dann so einen TFT besitzt, dann nutzt man keine andere als die native Auflösung (sofern analog angschlossen), die bietet nunmal das beste Bild. Und wenn jemand 100FPS zum flüssigen Spielen in dieser Auflösung benötigt, ist er eben gezwungen auf AA/AF zu verzichten, insofern verstehe ich diesen Standpunkt. Ich dagegen komme mit 40FPS aus (zocke halt nur offline und weniger Shooter) und spiele auch nicht so die grafiklimitierten Games wie Fear. Insofern kann ich von mir behaupten, dass ich praktisch nur mit AA/AF spiele und mir diese Features bei Grafikkarten extrem wichtig sind. Aus diesem Grund sehe ich auch "Optimierungen" die die Vorteile von AA/AF nachhaltig mindern sehr kritisch.
 
Zuletzt bearbeitet:
Zurück
Oben