Bericht Bericht: Radeon HD 6800

Status
Für weitere Antworten geschlossen.
Auf den hier zum Download zur Verfügung gestellten Videos kann filterbedingtes Flimmern schon aus technischen Gründen nicht beurteilt werden, da die Bildwiederholrate der Videos mit derjenigen handelsüblicher Monitore Interferenzen bildet.

Copy & Paste aus Video: "FPS1 800x600 25.00fps [Stream 00]". Dazu stellt sich die Frage: was um alles in der Welt läuft bei dieser Auflösung auf einer der verwendeten Karten mit konstanten 25 FPS?

Zeichnet man mit FRAPS bei bei vorgegebener Aufzeichnungsrate von 25 FPS einen Mitschnitt auf, der im Original schneller läuft, ist das Flimmern und Flackern eine Funktion der jeweiligen Interferenzbildungen, die von der Bilwiederholrate des Monitors, der Bildrate des Spiels und derjenigen in FRAPS abhängt.

D. h.: diese Vorführung ist etwa so sinnvoll wie die per Kamera mit fester Bildrate abgefilmten Mikroruckler der PCGH-Redaktion, die man bei Youtube finden kann.
 
Hmm tja, da meine Sapphire 6850 noch nicht geliefert ist werde ich sie wohl stornieren und ne GTX460 Cyclone holen.
Ist ja grausam, wie das auf den Videos aussieht.

PS: Verhält sich das bei 120Hz immernoch so schlimm?

Und die Bugwellen sind ja eig unakzeptabel, wenn man CSS Surfmaps spielt...
 
Zuletzt bearbeitet:
Interessanter Bericht.

Ich bin kein "Fan" von irgendwelchen Marken, sondern entscheide beim Kauf nach der dann aktuellen Preis-Leistung und vorherigen guten/schlechten Erfahrungen mit Produkten der Marke, was mich in diesem Fall damals zur GTX460 geführt hat. Mit der Grafikqualität bin ich zufrieden, bezweifle aber, dass mir die schlechtere Qualität einer 6000er Radeon im alltäglichen Betrieb und ohne Vergleichsmöglichkeit stark auffallen würde.
 
Schaffe89 schrieb:
Fraps begrenzt die FPS Zahl bei aufnahme.


du hast doch ne HD6870 und merst du was an bildqualität schlecht oder gut.. in bestimmten games die du hast.
geht ein game nicht..wegen ruckeln.





wo issen des video? sind das die hier mit. Barts High Quality,Barts Quality,Cypress 109 AI Standard und so weiter...
 
Zuletzt bearbeitet von einem Moderator:
Das hängt ja nun von der Einstellung ab. Man braucht nun wahrlich kein Fachmann zu sein, eine so simple Software wie FRAPS zu bedienen.

Wenn man mit voreingestellter Rate von 25 Bildern pro Sekunde ein Spiel aufzeichnet, das mit 100 Bildern pro Sekunde läuft, nimmt man so nur jedes vierte Bild mit und verwirft alle dazwischen liegenden.

So entsteht je nach Auslegung der Filterfunktion ein virtuelles Flimmern, dessen Intensität nicht dem Original entspricht. Dabei schneidet schlechtes AF (Überfilterung durch Passfilter) automatisch besser ab als gutes AF. Ist die Bildrate des Spiels obendrein kein ganzzahliges Vielfaches, wird das Ergebnis geradezu ein Würfelspiel.
 
Ich sehe den Schritt den CB machen will als sehr gewagt und eher als nicht zielführend an.

1. Der altbekannte Autovergleich: Um zwei Autos zu vergleichen baue ich an das Auto A nicht extra einen Spoiler, damit es mit Auto B in Sachen Aussehen mithalten kann. Genauso wenig betreibe ich bei dem vermeintlich langsamerem Auto Chiptuning, um es auf ein "vergleichbareres" Niveau zu heben.

2. Seriöses Arbeiten in Bezug auf den Vergleich von Produkten verbietet es von vornherein überhaupt irgendwelche Änderungen an den zu vergleichenden Objekten vorzunehmen. Sonst ist es ja kein objektiver Vergleich mehr.

3. Die Beurteilung der Bildqualität ist ohnehin meist von subjektiven Wahrnehmungen geprägt. Man nimmt, durch diese Voreinstellung, dem Leser einfach die Möglichkeit die vermeintlich schlechtere Bildqualität der AMD Produkte tatsächlich wahrzunehmen. Er sieht höchstens, dass AMD leicht schlechtere Werte als nVidia in den Benchmarks aufweist und liest vielleicht noch in der Einleitung, dass bei den AMD Karten bestimmte, die Bildqualität steigernde, Einstellungen vorgenommen wurden. Er fragt sich beim lesen zwar noch warum!? Überliest dann aber gekonnt den Link, der diesbezüglich auf einen etwas ausführlicheren Artikel zu dem Thema hinweist. Am Ende stellt er dann fest, dass er eine Flimmerkarte gekauft hat und weiss doch nicht wie er das abstellen kann.

Ich empfinde den hier mittlerweile obligatorischen "Kasten" am Ende eines Reviews viel, viel wichtiger als das Setting der Karten zu verändern. Die Gegenüberstellung der jeweils positiven und negativen Punkte wirkt viel mehr als irgendein Hinweis im Fließtext, der abseits der FPS-Balken ohnehin kaum gelesen wird.

Unter diesem Kasten kann man dann noch zwei Vergleichsbilder oder -videos setzen, die das ganze verdeutlichen.

Objektiv kann man in diesen Kasten bei angeglichenen Settings nämlich am Ende nicht mehr hineinschreiben, dass die Bildqualität bei AMD schlechter ist.
 
Ich kann nicht verstehen das dieses Theater soll...
Viele schreiben hier, das sie ihre Aufträge stornieren weil ihnen die Bildqualität zu schlecht ist. Was soll das den bitte? Ich meine man kann sich doch Gefahrlos ein Bild über die Qualität machen indem man es zuerstmal ausprobiert. Notfalls kann man es immernoch reklamieren!?

Und wer eine ältere Grafikkarte als eine der 5K Serie hat sollte erst recht aufgeschlossen sein, da die AF / Allgemeine Bildqualität immernoch um Klassen besser ist als vor 2 Jahren!

Also bleibt erstmal crêmig und schauts euch an. Vielleicht gibt es ja auch eine Reaktion seitens AMD, die zumindest das Problem wahrnimmt und vielleicht sogar verspricht es zu beheben?

@ Blumenkind
Sehr schöner Post! Ich stimme dir voll und ganz zu.
 
Zuletzt bearbeitet: (Unvollstädnig)
danke CB; sehr guter test und in meinen augen die richtige wahl mit HQ. Man muss gleich aussehende qualität miteinander vergleichen und wenn die qualität abgesenkt wird, muss das abgestraft werden. Jetzt testen schon 3 große deutsche seiten mit HQ, dass sollte doch etwas druck auf amd ausüben und ihnen klarmachen so gehts nicht. Hoffe sie fahren die qualität bald wieder hoch. Das schlimmste wäre nämlich son qualitätsunterbietungsrennen wie früher mit den grausigen af einstellungen.
 
@ ELMOKO

Nein, merke ich nicht, denn die Videos sind a) mit Half Life gemacht worden, was seit jeher ein extremes Worst Case Szenario darstellt und selbst CB in ihrem Test erwähnt, dass die Flimmer Unterschiede nicht immer gegeben sind im Vergleich von Treiber default HD5k zu Quality bei der HD6k.

Desweiteren ist auch dieser Test von CB stark übertrieben im Fazit, was aber wohl ein Entrüstungsversuch gegen AMD sein soll um in der Hinsicht was zu bewirken.

Und wer jetzt meint eine HD6850 wegen dieses Tests abzubestellen, der macht sich lächerlich.
Wie wars damals mit der Bildquailität der HD3870 im Vergleich zur GTX8800gtx, der Unterschied war damals in den Tests noch viel größer wie jetzt, aber untersucht hatts fast keiner.

Mir kommt es ehrlichgesagt so vor, als würde jede Seite PCGH und auch CB absichtlich starkes Bashing betreiben um somit zu erzielen, dass AMD den AF Treiberstandard wieder verbessert.

Mit einem objektiven Test, hat das aber leider nichts mehr zu tun.
 
Zuletzt bearbeitet:
Also ich finde es auch nicht schlimm. Wenn man ein bischen übertaktet kann das in manchen Spielen auch mit NV vorkommen.
 
...drehen wir dann jetzt bei nV auch das AA immer eine Stufe höher als bei AMD, weil AMD das bessere AA hat? Echt, das ist albern...

Jetzt, wo nV die Felle mal davonschwimmen, zum ersten mal seit GF8, wird wie zuvor hier schon erwähnt, ganz offensichtlich nach dem berühmten Haar in der Suppe gesucht.
 
Den großteil der Gamer interessiert das sowieso net, ich finde die Quali auch net schlecht... bei vielen Games merkst nicht mal ob 2xaa an ist oder 4xaa...
 
Viele schreiben hier, das sie ihre Aufträge stornieren weil ihnen die Bildqualität zu schlecht ist. Was soll das den bitte? Ich meine man kann sich doch Gefahrlos ein Bild über die Qualität machen indem man es zuerstmal ausprobiert. Notfalls kann man es immernoch reklamieren!?

Natürlich, wenn man die Wahl zwischen 2 Karten hat, sich die "Werte" der Karten aber ändern muss man neu abwägen, welche man kauffen will.

Jetzt stehen eine bessere Bildqualität einem niedrigeren Stromverbrauch entgegen.

Leise müssen beide sein.
also die Sapphire 6850 gegen die GTX 460 Cyclone

Sie kosten beide genau gleichviel. Da muss man dann aber nicht gleich für angegriffen werden.
 
Von Q auf HQ umzustellen ist das einzige richtige, was CB für zukünftige Games macht. Wer das nicht so sieht, sieht einfach nicht weit genug nach vorne.

Denn sobald sich ein Produkt mit unfairen Mitteln dem Konkurrenzprodukt einen Vorteil verschafft, dauert es nicht lange, bis auch die Konkurrenz über solche Wege eine höhere Performance erreicht. Eventuell schaukelt sich dann das hoch, bis wir bei der grottigsten Qualität sind.

Ferner hat schon jemand etwas ganz wichtiges erwähnt: Nur bei gleicher Bildqualität kann man die Leistung einer Grafikkarte mit der einer anderen vergleichen.


Eine Analogie zu Autos zu bilden klappt nicht so ganz.
Seht die Grafikkarten eher als zwei Kinder, welche gegeneinander bei der Disziplin "Punkte auf einem Blatt per Stift miteinander verbinden" gegeneinander antreten (hoffe ihr wisst, was ich meine ^^):

Kind A gibt sich mühe und sorgt dafür, dass es IMMER exakt den Punkt trifft, bevor es zum nächsten geht.
Kind B hingegen nimmt's mit dem Treffen der Punkte nicht so genau, sodass es nie den Punkt exakt trifft, aber trotzdem zum nächsten Punkt geht. Dadurch ist es wesentlich schneller als Kind A fertig und gewinnt.

Es ist vollkommen klar, dass sich Kind B durch die Ungeaunigkeit einen haushohen Vorteil verschafft, aber kann man dadurch behaupten, dass Kind B mehr leisten kann als Kind A?
Einen Vergleich zwischen den beiden Kinder ist erst dann möglich, wenn bei beiden schlussendlich dasselbe Bild herauskommt.
 
Schaffe89 schrieb:
Wie wars damals mit der Bildquailität der HD3870 im Vergleich zur GTX8800gtx, der Unterschied war damals in den Tests noch viel größer wie jetzt, aber untersucht hatts fast keiner.
Doch, einer schon. Der wurde hier dafür gesperrt.

Und noch mal: Die Videos zeigen das sattsam bekannte Flimmern und Flackern der von alten Fernsehgeräten bekannten Bildrate von 25 Bildern pro Sekunde. Damit kann kein Mensch etwas anfangen.

Ich habe kein HL2 installiert, habe eine Karte, die fast drei Jahre alt ist, und ich habe ein solches Geflimmere und Geflackere wie es auf diesen Videos zu sehen ist, noch nie zuvor auf meinem Monitor gehabt.

Ich wüsste auch nicht, warum ich mir auf einem 60Hz-TFT ein Video mit 25 FPS ansehen sollte. Zumal bei HL2 in 800 mal 600 ein Video mit 60Hz wohl angemessener wäre.

In dieser Auflösung kann ich auf meiner uralten 3870 selbst Crysis noch mit 60 Bildern pro Sekunde mit FRAPS aufzeichnen. Warum also sind diese Videos mit 25 Bildern pro Sekunde erstellt worden?
 
Blumenkind schrieb:
1. Der altbekannte Autovergleich: Um zwei Autos zu vergleichen baue ich an das Auto A nicht extra einen Spoiler, damit es mit Auto B in Sachen Aussehen mithalten kann. Genauso wenig betreibe ich bei dem vermeintlich langsamerem Auto Chiptuning, um es auf ein "vergleichbareres" Niveau zu heben.

Autovergleich, wie ich sie liebe.

Mach wir mal eine anderen: Um die Fahrleistungen und den Verbrauch (außerhalb der unrealistischen Normzyklen) als ganzes zu bewerten, muss der Tester seine Kriterien ansetzen. Das heißt er erwartet eine bestimme Agilität, die er bei schwächeren Motoren (da es kaum exakt gleiche Motoren in den Autos gibt usw.) nur durch mehr Gas und viel Schalten erreicht. Obwohl der Verbrauch dadurch steigt und gleichzeitig im Vergleich das Auto schlechter da steht.

Dennoch würden beide Autos einen ähnlichen oder der kleinen eine besseren Verbrauch erreichen, wenn man ihn anders fährt. Das kommt auch auf die Testkriterien an, was der Test eigentlich will. Das er damit nicht jeden Typ Fahrer trifft ist auch klar.

Also, wie immer gibt es zwei Seiten der Medaille. Wenn aber klar ist, dass vielleicht 80% nur nach den Balken gehen, dann ist es sinnvoll die Qualität auf ein und dasselbe Niveau zu hieven. Was keineswegs Modifikationen an Hard- oder Software verlangt, sondern ein offizieller "Fahrmodus" ist, den der Treiber anbietet (und früher auch Standard war) um den "Verbrauch" auf ein vergleichbares Niveau zu hieven. Und ohne AA und AF spielt es keine Rolle, was an und was aus ist. Da kann man die Rohleistung vergleichen.

Ihr habt natürlich recht, dass das Fazit eigentlich die Hauptrolle spielen sollte und da erst das Urteil gefällt wird und nicht anhand von Balken. Aber leider wird das zu oft wahrgenommen und oft genug schlicht Unverständnis gezeigt, wenn die Balken am längsten sind, aber die Karten trotzdem Kritik erfahren.

NotNick schrieb:
Doch, einer schon. Der wurde hier dafür gesperrt.

JA genau, so wird es gewesen sein. :rolleyes:
 
Zuletzt bearbeitet:
Natürlich, wenn man die Wahl zwischen 2 Karten hat, sich die "Werte" der Karten aber ändern muss man neu abwägen, welche man kauffen will.

Jetzt stehen eine bessere Bildqualität einem niedrigeren Stromverbrauch entgegen.

Leise müssen beide sein.
also die Sapphire 6850 gegen die GTX 460 Cyclone

Sie kosten beide genau gleichviel. Da muss man dann aber nicht gleich für angegriffen werden.

Ich glaube du hast mich missverstanden. Bevor man sic auf das Wertesystem einer Externen Person verlässt sollte man sich immer eine eigene machen. Und das ist in diesem Fall gefahrlos möglich. Dieses bitter enttäuschte Rumgebrülle ist deswegen im meinen Augen nicht nachvollziehbar!

Natürlich muss man angegriffen werden!? Wenn man andere Menschen auf eventuelle Fehler nicht hinweißt lernen sie a) kein Kritikverständniss und denken b) das es gut ist was sie machen...
 
Da wir derartige Geschäftspraktiken im Jahre 2010 nicht unterstützen werden, haben wir uns dazu entschlossen, in Zukunft jede Radeon-HD-6000-Karte mit der etwa fünf Prozent langsameren High-Quality-Variante zu testen, sodass das Endergebnis mit der Standardeinstellung von Nvidia in etwa vergleichbar ist.
Top :daumen:
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben