Bericht Bericht: Radeon HD 6800

Status
Für weitere Antworten geschlossen.
Schaffe89 schrieb:
Dass dafür das 10 jahre alte Half Life herhalten muss und das das einzige Video ist ist äußerst mager.
Daran sieht man wie lächerlich alt dieses Thema ist. AMD ist sich dennoch nicht zu schade hier noch mehr zu sparen, geradezu lächerlich das bei all den Transistoren keine Leistung für Zeitgemäße Filterung übrig ist. Nein Quatsch, die Leistung ist da, man gibt sie nur nicht frei, sondern kastriet die Qualität künstlich weiter.

Wenn du schon am relativieren bist, deine Aussage zum 5870 Launch ist endgültig hinfällig, das sich das AF im Vergleich zu HD2-4 gebessert hat.

Warum verteidigst du diese Sauerei?
 
y33H@ schrieb:
Gut, also immer schön weiter cheaten, mehr als einen kleinen Minuspunkt im Fazit gibt's ja nicht. Hauptsache lange Balken. Das ist der falsche Weg!

Sag mal wo liegt der Unterschied in dem Half Life 2 Video von Barts HQ zu Q im Flimmern?
Ich habs mir jetzt 20 mal angesehen und sehe überhaupt keinen Unterschied, zu Nvidia hingegen schon.

Also wieso testet man dann Barts HQ und nicht Q, wenn doch zumindest beim CB Artikel kein Unterschied wahrzunehmen ist?

Nvidia flimmert gerinfügig weniger in der Praxis, wenn man mit den Augen am Boden klebt und das sollte auch in einem vernünftigen Bericht oder test stehen.
CB und auch PCGH vergessen das Relativieren, deswegen ist es auch völliger Blödsinn AMD und Nvidia nicht mit default zu benchen.

@y33H@

Dass du dich gegen jeden Ansatz der Diskussion beispielsweise von Pilstrinker sperrst ist nur wieder ein Zeichen deiner Befangenheit bwzüglich dieses Themas.
An Objektivität von PCGh´s Test und an der Objektivität an CB´s Test fehlt es leider sehr sehr weit und das wisst ihr selbst gut genug.

Das ganze allerdings derart aufzubauschen und keinesfalls zu relativieren ( beim praktischen Zocken nicht in Half Life an den Gleisen!!) kaum sichtbar, was auch der Fall ist.
Man sollte sich zudem auch mal Gedanken machen für wen man eigentlich diese Tests verfasst.
Mir kommt es so vor als tue man das einfach nur für sein eigenes Ego.

Ich frage nochmal an dieser Stelle.
Wo ist hier bitte die Relativierung?? Und es flimmert contentabhängig beispielsweise in Mafia 2 kaum sichtbar mehr als bei Nvidia.

Es werden tausende Spiele getestet und gebencht, aber es wird nur 1 Video gepostet, um diesen Misstand aufzuzeigen.
Wenn ich objektiv etwas untersuche, dann muss ich mehrere Spiele testen.
Außerdem dazuschreiben, dass das getestete Worst Case ist und mich mit subjekiver Befangenheit demetsprechend zurückhalten und trotzdem kritisieren, aber nicht in dem Ausmaß.

Das das y33H@ und eventuell unter anderem auch CB nicht verstehen können, kann ich mir nicht erklären.
Wo ist bitte bei Computerbase die Relativierung, wie es früher in den Tests war?
Woher kommt diese Kehrtwände?
Wolfgang hat früher in den Tests nichts von dem etwas stärkeren flimmern angemerkt, nicht mal im Fazit, aber jetzt muss ein Bericht her, der übertrieben und vernichtend auf AMD einschlägt.

Es ist wirklich traurig. Wo sind hier online noch vernünftige Leute?

Unyu schrieb:
Daran sieht man wie lächerlich alt dieses Thema ist. AMD ist sich dennoch nicht zu schade hier noch mehr zu sparen, geradezu lächerlich das bei all den Transistoren keine Leistung für Zeitgemäße Filterung übrig ist.

Ich frage mich wirklich, warum ich auf deinen Kommentar überhaupt antworte, aber anscheinend sind hier im Thread nur Übertreiber und Polemiker.
Mir geht es um ein Worst Case Szenario, welches anscheinend ohne Mucken als einziges Beispiel genommen wird und deswegen den Testfazit sehr salzig und fad macht, das ist nicht objektiv und dem muss deswegen auch jeder Zustimmen.

Gehe doch wenigstens auf meine starken bedenken ein, bevor du wieder die Keule schwingst, aber das ist von dir nicht zu erwarten.

PS: Bei Nvidia flimmerts im Half life Beispiel auch, nur nicht so stark wie bei AMD und das ist als Negativer Punkt in einem Fazit zu bezeichnen, welcher relativiert gehört und nicht hier in so einem Kindergarten Test plakativ ausgeschlachtet werden soll.

y33H@ schrieb:
Wird es leider immer noch von einigen (Unbelehrbaren)

Unbelehrbare gibt es nicht, ich selbst sehe, dass es bei AMD mehr flimmert.
Es gibt nur vernünftige Leute, welche es anders bewerten und einen objektiven Test wollen und keinen unüberlegten Angriff und Denunzierung und bevorzugung eines anderen Herstellers.
 
Zuletzt bearbeitet:
Die Bilder im Test sind eigentlich überflüssig, man kann zwischen AMD und Nvidia absolut keinen Unterscheid erkennen. Das heißt, die Bildqualität ist bei beiden Herstellern gleich gut.

Die anisotropische Filterung ist bei AMD 'etwas' schwächer, das ist richtig. Aber hier wird ein Worst-Case-Szenario (Half-Life 2) als Maßstab gesetzt und ist meiner Meinung nach als suboptimal einzuschätzen.
Es werden mehrere Spiele auf FPS usw. getestet aber lediglich Videos von einem einzigen Spiel (!) werden in den Test mit einbezogen.
Wie schon geschrieben, die Bilder haben in anbetracht auf die anistropische Filterung rein keine Aussagungskraft.
Der Test ist sehr informativ und gelungen, aber meiner Meinung nach nicht vollständig, da Vergleich-Videos zu anderen Spielen fehlen.

Ebenfalls ist es nicht günstig Videos mit 25FPS ins Netz zu stellen und diese als Standard zu setzen. Ab einer Frequenz von 60 Hz ist jedes Flimmern/Flackern vom menschlichen Auge absolut nicht wahrnehmbar, dahingegen unter 30 Hz deutlich.

y33H@ schrieb:
Der Test ist schon fast 2 Jahre alt -> Veraltet.
 
Zuletzt bearbeitet:
dlux schrieb:
Die anisotropische Filterung ist bei AMD 'etwas' schwächer, das ist richtig. Aber hier wird ein Worst-Case-Szenario (Half-Life 2) als Maßstab gesetzt und ist meiner Meinung nach als suboptimal einzuschätzen.

Deswegen ist der Test auch schlecht und gehört vom Netz.
Wenn ich schon etwas teste, dann richtig und dazu gehören.
a) Ein vernünftiger Tester
b) vernünftige BQ Vergleiche
c) Relativierung im Sinne eines nicht auf den Bodenguckenden Haf Life 2 Worst Case AF Untersuchers

Deswegen ja auch der Beitrag von FormatC, der das alles sehr bedenklich findet, lediglich seine echte Meinung dazu gar nicht äußern will/kann.
So ich bin jetzt raus, mir langts.
 
Schaffe89 schrieb:
Mir geht es um ein Worst Case Szenario, welches anscheinend ohne Mucken als einziges Beispiel genommen wird und deswegen den Testfazit sehr salzig und fad macht, das ist nicht objektiv und dem muss deswegen auch jeder Zustimmen.
Wenn man AMD weiterhin mit Samthandschuhen anfässt passiert genau das, was gerade mit 10.10 passiert ist.

CB war alles andere als grob zu AMD, es gibt diesen einen Artikel, etwas Aufklärung und in Zukunft wird weiterhin mit der üblichen Qualität getestet, nur das dies jetzt HQ genannt wird.
 
Iscaran schrieb:
Da jedoch 90-99% der User Default treibereinstellungen verwenden wäre es IMHO sinnvoller beide mit default zu benchen und lieber auf die Unterschiede als Pro/Contra einzugehen.
Vollkommen richtig. Alles andere ist schlichtweg unseriös.


y33H@ schrieb:
Vll sollte man der HD 5870 auch mehr TMUs einbauen und die Filterung auf Höhe von NVs HQ bringen und dann mal schauen, was diese zusätzlichen Einheiten bzw. Transistoren an Strom fressen. Und wenn wir schon dabei sind, dann gleich noch die Tessellation-FFU verdreifachen, damit die HD 5870 halbwegs mit der GTX 480 mithalten kann. Du erkennst die Problematik?
Klar, nur deswegen ist Fermi so stromhungrig. :rolleyes:

y33H@ schrieb:
Fps lassen sich nur bei gleicher BQ vergleichen. Denn die Leute sehen idR eh nur die Balken und länger ist (vermeintlich) besser.
Und wie soll das gehen? Gleiche Bildqualität gibt es nicht, wie wir festgestellt haben. Als nächstes vergleichen wir dann nur noch bei gleicher Leistungsaufnahme oder wie? Ach nee, mehr Strom aus der Steckdose zu ziehen, was höhere Kosten verursacht und die Umwelt mehr belastet, um auf mehr FPS zu kommen, ist ja kein Cheaten. Nur Unterschiede beim AF, die 99% aller User in 99% aller Spielszenen nicht wahrnehmen, ist Cheaten. :rolleyes:


Schaffe89 schrieb:
Sag mal wo liegt der Unterschied in dem Half Life 2 Video von Barts HQ zu Q im Flimmern?
Ich habs mir jetzt 20 mal angesehen und sehe überhaupt keinen Unterschied, zu Nvidia hingegen schon.

Also wieso testet man dann Barts HQ und nicht Q, wenn doch zumindest beim CB Artikel kein Unterschied wahrzunehmen ist?
Das habe ich auch schon gefragt. Wieso werden solche Fragen ignoriert, CB?
 
Perfekt. Wir haben die gesammelte "Fachkompetenz" in ein und demselben Thread anwesend, und sie glänzt nach Kräften, diskutiert ihren technischen Sachverstand gleich mit dem Hersteller höchstselbst, und weiß den Laien dadurch schwer zu beeindrucken.

Nun betrachten wir doch mal den jeweils ersten Frame zweier Videos etwas genauer:


(linke Seite Barts HQ, rechte Seite GF100 HQ, beide als Bitmap unkomprimiert gespeichert)

Das Histogramm zeigt, was ein gutes Auge auf Anhieb sieht. Das AF ist annähernd gleich, bei Nvidia, wie schon seit Jahren, objektiv schlechter, wenn auch nur noch in Nuancen und nicht so katastrophal wie noch bei G80/G92 festzustellen war. Treiberseitig unterschiedliche Farbbalance und Kalibrierungseinstellungen (die Histogramme sind für Leute eingeblendet, die sowas nicht mit bloßem Auge sehen) lassen die durch das AF zu mildernden Abstufungen im Detailgrad durch andere Farbkontrastgrade unterschiedlich in Erscheinung treten. Bei NV sind es eher leicht aufgehellte Linien.

Mit anderen Worten: Es ist gar kein Flimmern, und nicht das AF.
 
Zuletzt bearbeitet:
lächerlich.

Also von beiden... AMD sowie CB
 
Was heißt hier Samthandschuhe? Ich will einen fairen Vergleich und der exisitiert nur wenn ich mehr Videos hochlade und nicht nur ein Worst Case Szenario.
Dass man schlechteres AF auch als Negativ Punkt im Fazit bennenen darf ist völlig legitim und gehört auch getan aber nicht in diesem Ausmaß. Das ist ja schon fast Firmenschädigend, was hier betrieben wird.

Und dass man im Gegesatz zu früher jetzt am Treier rumspielt, anstatt diese vom hersteller vorgesehenen default Einstellungen zu nutzen, kann wenig zielführend sein, wo bleibt da denn noch die Vergleichbarkeit?
 
NotNick schrieb:
Mit anderen Worten: Es ist gar kein Flimmern, und nicht das AF.

Die Videos hast du dir aber angeschaut?

Zu sagen "Es stört mich nicht" ist das eine - kann man ja noch akzeptieren, da es bei vielen Games nicht auffällt. Aber ernsthaft behaupten, da flimmert nichts ist nun wirklich lächerlich. Und dann mit einem Histogramm als "objektiven Test" :rolleyes:


@Schaffe89:

AMD spielt an den Defaulteinstellungen herum, nicht CB. Warum sie das tun ist offensichtlich: Balkenlänge. Denn darauf schauen die Konsumenten primär.
Man muss das Ganze schon zu Ende denken: akzeptiert man die geänderte Defaulteinstellung, wird die Konkurrenz bald folgen. Sowas darf schlicht nicht sein.
 
Zuletzt bearbeitet:
Ich habe mal eine Frage. Wenn die bestmöglichen Einstellungen bei den AMD Karten die gleiche Bildquali aufweisen, wie die NVIDIA Karten im Default Modus, dann kann ich doch letztendlich eine bessere Bildquali auf der NVIDIA erreichen, wenn ich deren Einstellungen hoch setze, oder?

Habe seit 2 Jahren ne 4850 und war immer zufrieden, aber bei einem baldigen Neukauf möchte ich lieber eine sehr gute Bildqualität, als 5 FPS mehr.
 
@CB schreibt bitte bei jedem Test rein mit welchen Treibereinstellungen ihr testet ansonst ist das Testresultat nicht mit anderen Seiten vergleichbar.
 
Schaffe89

Wenn AMD die Qualität senkt müssen sie damit rechnen, das nicht alle Magazine ihnen einige Prozent längere Balken als mit 10.9 ermöglichen.
Gerade die Magazine, die schon früher bei Qualitätssenkungen reagiert haben, tun gut daran dies jetzt ebenfalls zu tun, um ihre Objektivität zu wahren.

Was willst du eigentlich? AMDs Taktik durchgehen lassen, neuer Treiber = mehr Leistung, egal wodurch diese entstammt?
Was willst du relativeren? Der neue Standard ist so gut wie die alte Qualität. Die alte Qualität ist schon nicht so toll.
 
Zuletzt bearbeitet:
-sheep- schrieb:
Ich habe mal eine Frage. Wenn die bestmöglichen Einstellungen bei den AMD Karten die gleiche Bildquali aufweisen, wie die NVIDIA Karten im Default Modus, dann kann ich doch letztendlich eine bessere Bildquali auf der NVIDIA erreichen, wenn ich deren Einstellungen hoch setze, oder?

Das ist richtig. NV HQ liefert vom AF her die beste Bildqualität.
 
@Schaffe89

Du sagst wie es ist!

Das AMD mehr flimmert sehe ich, aber bitte, haben wir jetzt schon Bildniveau auf CB und PCGH?!?! Es wurde nur 1 Spiel getestet? Und wie so solche Uraltschinken? Zeigt bitte BC2, CoD, L4D2 (gleiche Engine wie HL2) etc, meinetwegen auch DAO oder wie wärs mit ArcaniA Ghothic, ArcaniA hat mit die besten Texturen seit langem.

Tut mir Leid CB gute und objektive Berichterstattung sieht anders aus. Macht den Test mit mindestens 3 weiteren aktuellen Spielen, das wäre das Mindeste.

@NotNick
Du hast recht, die Filterung sieht mit dem Bart besser aus, ich sehe ein schärferes Bild beim Bart ist aber minimal. Man sieht es schon am Anfang der Kieselsteine.
 
Zuletzt bearbeitet:
@Unyu
Da kannst du genauso mit dem AMD Pressesprecher diskutieren. Ihm geht es nicht um einen objektiven Test. Es geht um seine AMD Fanboywürde. :lol:

Natürlich wird ein Worstcase Szenario genommen, um die Unterschiede deutlich zu zeigen. Bei der GTX 480, und ihrem durchaus hohen Stromverbrauch, hat hier auch jeder AMD Fanboy die realitätsfernen Werte von Furmark genommen. Aber bei AMD Karten ist das natürlich wieder was ganz anderes...
 
@Eggcake

Danke für die Info. Dann werde ich mir da mal einige Vergleiche ansehen müssen, um heraus zu finden wie stark mir diese Unterschiede auffallen.
 
Schaffe scheint zu stolz (auf was eig?) zu sein um zugeben zu können das AMD nur rumpfuscht und bei den Treibern rumtrickst für more FPS und längere Balken und selbst das bringt nix.

@ Topic
Da hat sich das also doch alles bewahrheitet und ihr habts ein weiteres mal schwarz auf weiß.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben