ATi Radeon X1900 XTX und X1900 CF im Test: Der Angriff auf die GeForce 7800 GTX 512

 4/29
Wolfgang Andermahr
266 Kommentare

HQV-Benchmark Details

Der HQV-Benchmark (Hollywood Quality Video) von Silicon Optix liegt auf einer handelsüblichen DVD vor und soll die Bildqualität des Abspielgerätes anhand verschiedener Bildsequenzen testen – ein perfekter Qualitätstest für die Avivo- und PureVideo-Technologie von ATi beziehungsweise nVidia. Es gibt insgesamt 18 Testbilder beziehungsweise Testvideos, die man selber mit maximal 10 Punkten bewerten soll und schlussendlich ergibt die Addition der erreichten Punkte das Gesamtergebnis. Somit ist der HQV-Benchmark logischerweise etwas Subjektiv, da ein menschliches Auge nicht dem Anderen gleicht. Nichtsdestotrotz gibt der HQV-Benchmark einen guten Eindruck in die Wiedergabequalitäten einer Grafikkarte.

Der erste Test hört auf den Namen „Color Bar/Vertical Detail“ und zeigt ein Standbild mit mehreren unterschiedlichen Farbstreifen. Dieser Test soll ermitteln, ob der Video-Prozessor ein stehendes Bild von einem bewegten Bild unterschieden kann, denn diese werden von dem integrierten De-Interlacer unterschiedlich behandelt. Falls der De-Interlacer das stehende Bild korrekt erkennt, werden alle Streifen detailliert dargestellt. Falls jedoch nicht, flackern diese Streifen oder verschwinden gar bis zur Unkenntlichkeit.

Der zweite Test nennt sich „Jaggies Pattern 1“ und soll erkenntlich machen, wie gut der Video-Prozessor bewegende Objekte erkennen kann. Diese Sequenz besteht aus einem Kreis mit einem Zeiger, der sich um 360 Grad dreht. Dabei beginnt der Zeiger je nach Winkel zu flackern. Umso eher dieser zum Flimmern neigt, desto schlechter arbeitet der Video-Prozessor. Dieser muss, um das Flackern zu mindern, einige Pixel bei einem bewegten Objekt verwerfen. Je nach dem, welche Pixel ausgesucht werden, verstärken oder vermindern sich die Fehler.

„Jaggies Pattern 2“ knüpft an den vorherigen Test an. Es bewegen sich drei nahe beieinander liegende Balken abwechselnd nach oben und nach unten. Da dieses erneut in einem Kreis geschieht, verändern sich sowohl die Richtung als auch die Geschwindigkeit und der Winkel der Zeiger. Der Video-Prozessor muss erneut die Pixel zum Verwerfen und hinzufügen erkennen, da die Balken ansonsten flimmern.

Der Test „Waving Flag“ beinhaltet eine – wer hätte es gedacht? – wehende amerikanische Flagge mit einem Gebäude im Hintergrund. Diese Sequenz soll zeigen, wie gut der Video-Prozessor mit einem bewegtem und gleichzeitig einem stehenden Objekt zurecht kommt. Die eigentliche Problematik entsteht durch die vielen Streifen, die sich gleichzeitig in unterschiedliche Richtungen und Winkeln bewegen. Falls es in der Bewegungsphase zu sichtbaren Bildfehlern in Form von Aliasing-Effekten kommt, weist der Video-Prozessor eine Schwäche auf.

Die Sequenz „Detail Enhancement“ zeigt ein Bild einer Landschaft mit einer Straße, einer hohen Treppe sowie einer Brücke und stellt somit eine komplizierte Herausforderung für das Wiedergabegerät dar, da alle Objekte detailliert dargestellt werden müssen. Diese müssen nicht nur in der richtigen Schärfe, sondern auch ohne Kanten- und Flimmer-Effekte auf den Bildschirm gebracht werden.

„Noise Reduction“ soll genau das aufzeigen, was der Name bereits sagt: Bildfehler, die größtenteils durch eine schlechte Kompression oder minderwertige Bearbeitung entstehen. Häufig tritt dieses Problem bei Bildern mit einem hohen Farbspektrum auf, weswegen man es „Farbrauschen“ nennt. Das Testergebnis wird aus verschiedenen Bildern wie einem Sonnenuntergang oder einer gelben Blume im hellen Tageslicht gewonnen.

Der nächste Abschnitt namens „Motion Adaptive Noise Reduction“ stellt verschiedene „Noise Reduction“-Techniken auf die Probe (beispielsweise „Temporal Noise Filtering“). Dieser Filter arbeitet nach dem Konzept, dass wechselnde Pixel in einem stehenden Bild mit Farbrauschen gleichzusetzen sind und deswegen bearbeitet werden müssen. Jedoch erzeugt ein bewegendes Objekt in einem stehenden Bild ebenfalls wechselnde Pixel und bei Bearbeitung durch den Noise-Reduction-Filer würde das Bild „verstümmelt“. Aus diesem Grund muss jeder guter Video-Prozessor den Unterschied zwischen beiden Zuständen erkennen können.

Der Test „3:2 Detection“ soll unter anderem Bildfehlern wie dem „Moiré-Effekt“ auf die Schliche kommen. Die meisten Fernsehfilme werden mit 24 Bildern pro Sekunde aufgenommen. Bei der Portierung des Filmmaterials auf beispielsweise eine DVD müssen die Daten vom aktuellen Format in das Format der DVD umgewandelt werden. Eine dieser möglichen Techniken nennt man „3:2 Pulldown“, bei der ein zusätzliches Frame wiederholt wird. Dadurch können allerdings Bildfehler entstehen, die ein qualitativ hochwertiger Video-Prozessor erkennen sowie entfernen muss.

„Film Cadence“ zeigt mehrere solcher Methoden wie „3:2 Pulldown“, die je nach Filmmaterial eingesetzt werden. Diese muss der Video-Prozessor genauso erkennen können, da es ansonsten zu Bildfehlern kommt.

Die letzte Sequenz „Mixed 3:2 Film with added Video titles“ erzeugt einen horizontal sowie vertikal verlaufenden Text. Falls beispielsweise ein Film mit 30 FPS aufgenommen und dann in handelsübliche 24 Bilder pro Sekunde mit der „3:2 Pulldown“-Technik umgewandelt wurde, kann es schnell zu Bildfehlern bei scrollendem Text kommen, die ein guter Video-Prozessor verhindern sollte.

Nvidia GTC 2024 (18.–21. März 2024): ComputerBase ist vor Ort!