Bericht Bericht: Radeon HD 6800

Status
Für weitere Antworten geschlossen.
Schaffe89 schrieb:
Jupp, so siehts aus.
Und die ganzen Nvidia Trolle fühlen sich jetzt wieder bestätigt.
Allen voran unser lieber Y33H@.


Ganz ehrlich, ich lese hier mittlerweile schon ein paar Jahre mit und einer der wenigen User der wirklich immer versucht seine Meinung fundiert zu begründen ist Y33H@. Lest euch mal ohne voreingenommen zu sein seine posts durch und deine Antworten ... dann weiß man wer trollt.
 
Eggcake schrieb:
Die Videos hast du dir aber angeschaut?
Ich würde nur ungern auch noch eine Anleitung zum Lesen von Postings abfassen müssen. Woraus sind wohl meinem Beitrag nach die beiden Bitmaps entnommen, hm?

Eierkuchen schrieb:
Zu sagen "Es stört mich nicht" ist das eine - kann man ja noch akzeptieren, da es bei vielen Games nicht auffällt. Aber ernsthaft behaupten, da flimmert nichts ist nun wirklich lächerlich. Und dann mit einem Histogramm als "objektiven Test" :rolleyes:
Es geht um die semiotische Frage: Ist das wirklich ein Flimmern, oder was genau findet da eigentlich statt, und wodurch wird es verursacht?

Insbesondere als seit einiger Zeit eine seltsame Fraktion sich gegenseitig zitierender Foristen über Mängel am AF zu schimpfen weiß, die offenbar nicht genau weiß, was AF ist.

Die Analyse ist bei Bildabständen von 40 Millisekunden schon etwas schwierig. Ich habe hier beide Videos schon eine geraume Weile nebeneinander am Laufen, und sie sogar schon einzelbildweise durchgesehen. Soweit es bei Barts flimmrig wirkt, kann man es beim GF100 als leicht aufgehellte horizontale Eindellung sehen. Aufgehellt, weil beim GF100 die Farbwerte der Bodentextur enger beieinander liegen und der entscheidende Bereich leicht abgedunkelt ist. Deswegen eben auch die Histogramme.
 
Ich hab mal nen kompromissvorschlag ausgearbeit, ich finde der sollte alle seiten zufriedenstellen:
afwtoz.jpg


Dafür dann tests in Q, wie es manche wollen;)
 
@AffenJack
Ist völlig objektiv und entspricht scheinbar der Wahrheit.

Man müsste aber noch draufschreiben, "Nvidia benötigt bis zu 100 Watt mehr für die bessere AF Qualität!"
 
Wie wärs damit die ATI für den Test so weit zu übertakten, dass sie genau das Gleiche verbraucht wie eine vergleichbare nVidia, weil die ja auch so viel Strom verbrauchen darf und dies nur als kleiner Minuspunkt im Fazit auftaucht. Sonst kann man die beiden Karten ja gar nicht vergleichen.

Achtung, das war Ironie.
Aber wenn man die Standardeinstellungen ändert, die so vom Hersteller gewollt sind, selbst wenn sie ein Rückschritt sind, dann muss man auch so testen. Auf die nachlassende Qualität kann ja hingewiesen werden.
 
ROFL
Seit langer Zeit keinen so lustigen Therad mehr gesehen.
Tomsen78 hat schon Recht. Fair ist Fair. :lol:
 
Man müsste aber noch draufschreiben, "Nvidia benötigt bis zu 100 Watt mehr für die bessere AF Qualität!"

Nein, denn der Stromverbrauch beeinflußt nicht das Diagramm, das AF cheaten schon !

Immer vorausgesetzt wir werden durch mehr Beweise davon absolut überzeugt.
 
tomsen78 schrieb:
Man müsste aber noch draufschreiben, "Nvidia benötigt bis zu 100 Watt mehr für die bessere AF Qualität!"
Was nicht wirklich korrekt ist, da NV u.a. auch eine weit höhere Tessellation-Power bietet (was Transistoren und Strom verschlingt, auch wenn es nicht genutzt wird!). Nimm mal einen reinen Tessellation-Benchmark und schau dir mal dann das Performance/Watt-Verhältnis aus. So wie du es darstellst, ist's halt sehr engstirnig.
 
tomsen78 schrieb:
@NotNick
Du hast recht, die Filterung sieht mit dem Bart besser aus, ich sehe ein schärferes Bild beim Bart ist aber minimal. Man sieht es schon am Anfang der Kieselsteine.

Schärferes Bild != bessere Filterung. Das schärfste Bild erhälst du ohne Filterung.


NotNick schrieb:
Es geht um die semiotische Frage: Ist das wirklich ein Flimmern, oder was genau findet da eigentlich statt, und wodurch wird es verursacht?

Was dahintersteckt ist eine andere Frage. Das Flimmern der Textur ist das Resultat davon.
An was es liegt - wenn es dich wirklich interessiert - kannst du hier nachlesen:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8345338&postcount=1644
+ im dazugehörigen Thread
 
Pumpi schrieb:
Nein, denn der Stromverbrauch beeinflußt nicht das Diagramm, das AF cheaten schon !

Immer vorausgesetzt wir werden durch mehr Beweise davon absolut überzeugt.

Da hast du dich aber selbst wiedersprochen! Zapf mal 50-100 Watt der GTX480 ab, dann bin ich mal gespannt auf wieviel FPS die Karte noch kommt. ;)
War aber ironisch gemeint, schade das hier manche keinen Spass verstehen.


y33H@ schrieb:
Was nicht wirklich korrekt ist, da NV u.a. auch eine weit höhere Tessellation-Power bietet (was Transistoren und Strom verschlingt, auch wenn es nicht genutzt wird!). Nimm mal einen reinen Tessellation-Benchmark und schau dir mal dann das Performance/Watt-Verhältnis aus. So wie du es darstellst, ist's halt sehr engstirnig.

No comment! ;)
 
tomsen78 schrieb:
Zapf mal 50-100 Watt der GTX480 ab, dann bin ich mal gespannt auf wieviel FPS die Karte noch kommt.
Undervolten und einen gescheiten Kühler drauf verringert die Fps nicht ;-)
 
Numrollen schrieb:
Werden dann die Taktraten einer 480 dann so weit runter geschraubt das die Karte genau so wenig Strom frisst wie eine 5870 um dann die Performance gegeneinander zu stellen? Oder so weit runter damit die Lautstärke genauso laut ist? Es gibt doch überall NAchteile aber genau bei dem Punkt läuft bei euch das Fass über? Pff...

Auch wenns subjektiv ist: aber ob eine Grafikkarte gut oder schlecht ist, definiert sich bei mir zuerst über Qualität und Leistung.
Wer Strom sparen will oder rumheult, dass die Karte zu heiss wird, der wildert nicht im gehobenen Segment, sondert stapelt tiefer... Oben zählen FPS und Bildqualität.

Insofern ist es auch lächerlich, wenn einige meinen, Fehler bei AMD würden hier immer auf die Goldwaage gelegt, während man bei Nvidia-Tests ein Auge zudrückt. Wer das behauptet, ist entweder ein extrem verblendeter AMD-Fanboy oder hat die letzten 6 Monate Berichterstattung/Forenkrieg im Koma liegend verpasst.
Daher: weiter so, CB. Das ist für mich unabhängiger Journalismus. :)

Damit kein falscher Eindruck entsteht: bei mir werkelt gegenwärtig 'ne 5870, davor eine 4870X2...
 
Ich finds total lächerlich, wie hier manche die Kritiken ins lächerliche ziehen.

Da die AMD Anhänger hier offensichtlich ein perfektes Auge haben, und über allen zweifel einer Cheaterei erhaben sind, dann erklärt mir doch mal eines.
Wieso hat es AMD dann nötig, die Bildquali, einer HD5870 mit voller Absicht, eine Stufe runter zu schrauben.
Damit man keinen Unterschied zur HD6k Reihe sieht und sich somit über keine schlechtere Bildquali aufregen kann?
Nur einen plausiblen Grund, warum man etwas im nachhinein schlechter macht.
 
Wenn man nicht mehr verbrauchen wollen würde mit der GTX480 als eine HD5870, dann würde unter Umständen die Karte nicht mehr funktionieren, von daher hätte man auch keine FPS mehr oder man müsste heruntertakten was in eine niedrigere Leistung resultiert. Aber ok, ich sehe schon, meine Gedankengänge muss nicht jeder nachvollziehen. ;)

Da ich ein HD5870CF hatte und mehrere GTX480 muss ich sagen mir war es beim Untervolten nicht möglich die Karte leiser, kühler und vor allem weniger stromhungrig zu bekommen bei gleicher Leistung wie die HD5870. Bei 700MHz und 0.97v Spannung war absolut Schluss. Die meisten Karten benötigten über 1.00v Spannung um stabil unter Last zu laufen.

Aber du hast natürlich Recht, nur durch weniger Spannung bricht die Leistung nicht ein.
 
Zuletzt bearbeitet:
Eggcake schrieb:
Schärferes Bild != bessere Filterung. Das schärfste Bild erhälst du ohne Filterung.
Grundlagenwissen tut Not. Jede Verdoppelung der Entfernung halbiert die Anzahl der Bildpunkte auf einer entfernungsbedingt skalierten Fläche. Ohne AF würde nun entweder jede zweite Punktreihe entfallen (wehe, da war ein auf genau diesen Punkten basierendes Muster), oder man erhält eine Mischung. In beiden Fällen ist das Ergebnis eine Unschärfe bis hin zu einem Verlust der Bilddetails. AF verhindert dies.

Nähme man beim Halbieren der Bildpunkte einfach nur jeden zwoten Punkt oder bildete man einen Mischwert, wäre das ein isotropischer Filter. Kein Anisotroposcher Filter ist nicht etwa kein Filter, sondern ein isotropischer Filter.

Gar kein Filter wäre quasi 2D ohne Tiefe im Bild. Das wäre natürlich unheimlich scharf :D

y33H@ schrieb:
Undervolten und einen gescheiten Kühler drauf verringert die Fps nicht ;-)
Es erhöht sie sogar, weil weniger S(ekunden) bedeutet mehr F(rames). Die Lebensdauer untervolteter Grafikkarten ist ganz nach Mr. Huangs Geschmack. Manchmal ist Fachverstand mehr Lachverstand als Sachverstand :D
 
Zuletzt bearbeitet:
Mein Gott ist die Kritik an dem Test so schwer zu verstehen.

Es wurde kritisiert dass ein worst case Szenario (als einziges Video) herangezogen wurde. Die vermittelt den Eindruck als würde es bei AMD immer so flimmern was nicht stimmt. Schreibt ja auch CB selber:

"Es gibt zwar Spiele, die den Unterschied kaum zeigen, andere leiden dagegen intensiv an flimmernden Texturen, die den Spielspaß trüben."

Warum haben wir keine Vergleichsvideos von anderen Spielen wo es z.B. nicht so flimmert? Welches sind eigentlich Spiele wo es nicht so flimmert. Wie sieht das Verhältnis der Spiele aus (tendenziell?) Also sind es mehr Spiele die mehr flimmern oder sind diese in der Unterzahl. Wieso wird hier in keinster Weise darauf eingegangen?

Die meisten AMD User bestreiten doch gar nicht was sie in den Videos sehen. Jedoch gibt dieses Video nicht die Regel wieder. Wenn man einen solchen Test aufzieht dann bitte vernünftig mit mehr als nur einem Spiel. Auch wenn es Arbeit macht aber ganz oder gar nicht. Das ist doch keine Kritik die völlig aus der Luft gegriffen ist.
 
Zuletzt bearbeitet:
Unyu schrieb:
Was willst du eigentlich? AMDs Taktik durchgehen lassen, neuer Treiber = mehr Leistung, egal wodurch diese entstammt?

Das ist das Totschlargument deinerseits, wenn es mal etwas komplizierter wird.
Ich habe gefordert, dass man schlichtweg die schlechtere AF Leistung benennt und sie deswegen auch im fazit als Negativpunkt nennen soll, um den Hersteller darauf hinzuweisen. Und längere Balken werden wohl von AMD kaum der Grund dafür gewesen sein (etwa 3% im Schnitt).

Ich fordere nur Transparenz und einen fairen Vergleich der Bildqualität ohne Worst Case und ohne übertreibungsphrasen mit der ein oder anderen Relativierung.

Und nur weil ich dies fordere, lasse ich das etwas schlechtere AF der AMD Karten völlig durchgehen?
Das ist eine Unterstellung die keinesfalls korrekt ist.

Dai6oro schrieb:
Welches sind eigentlich Spiele wo es nicht so flimmert.

So ziemlich alle anderen.

Ausnahmen sind Spiele, welche auf der Engine der Half Life Spiele basieren (aber da auch nicht alle).
Und Crysis, zumindest laut PCGH.
Ferner werden für Nachweise aber nur Half Life 2 und Crysis hergenommen.
Half life bei PCGH und CB.
Crysis und Half Life bei PCGH.
Nur davon gab es Videos.

Das ist schon sehr traurig. Warum keine Videos von anderen Spielen raufgeladen werden wurde schon tausend mal gefragt, zumindest bei PCGH.
Bei CB kam da nie was.
Wahrscheinlich aus dem Grund, weil das Content in anderen Games nicht so flimmeranfällig ist und nicht für einen Vergleich herhält, da nicht ganu unterscheidbar.

Deswegen ja die Kritik, dass man es zu einseitig gestalltet.
Deswegen die Forderung an CB: Mehr Videos.

Wenn keine Zeit, dann mach ich mir die Mühe und Lade welche hoch, hab eh grade ne 8800GTX und ne 8800gt da und dann bin ich mal gespannt, wie der Unterschied aufällt.

Ich mach mich jetzt an die Arbeit, morgen früh gibts die Videos.
 
Zuletzt bearbeitet:
Schaffe89 schrieb:
lasse ich das etwas schlechtere AF der AMD Karten völlig durchgehen?
Das ist eine Unterstellung die keinesfalls korrekt ist.

Doch tust Du.
Du unterstellst sogar blanke Einbildung... jetzt aufeinmal nicht?
Lächerliche Argumentation.
Mach nur so weiter - bestätigt sich ja von Post zu Post immer mehr.
 
Hab mir jetzt die beiden Videos in HQ gezogen und die Unterschiede sind maginal.

Der Zaun und alles andere Flimmert bei beiden gleich stark.
Bis auf den Boden, da flimmert es bei der AMD leicht und bei der NV fast gar nicht.

Wenn das bei allen Games so ist, kann ich getrost auch zur AMD greifen.
Sollte es bei anderen Games doch stärker ausfallen, wäre ein Vergleich nicht schlecht.

Und ich bin schon sehr penibel vor allem was HD Quali bei meinem HTPC betrifft.
 
tomsen78
Was hat die Leistungsaufnahme hier zu suchen?
Sie wird klar kritisiert, auf beiden Seiten und in Balkenform präsentiert.

Schaffe89 schrieb:
Und längere Balken werden wohl von AMD kaum der Grund dafür gewesen sein (etwa 3% im Schnitt).
Sondern?

Du willst die längeren Balken stehen lassen. Punkt für AMD, Konzept ist aufgegangen.
Du willst Kritik im Fazit. Wirklich, in jedem einzelnen Radeon Test? Wir wissen beide, das Balken wichtiger sind, AMD weiß es auch, siehe 10.10. Wir wissen auch, das es nur eine Randnotiz sein wird, ein kleiner Minuspunkt ohne weitere Beschreibung.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben