Bericht Bericht: Radeon HD 6800

Status
Für weitere Antworten geschlossen.
Nvidia sollte den Treiberstandard gleich auf HQ setzen, bei denen bringt Q eh nicht viel an Performance.
Bezüglich AMD: Denke mal da hat sich das Transistor-sparen bzw. die size klein-halten bemerkbar gemacht, mussten halt die AF-Modi etwas leiden drunter :rolleyes:

GodCast schrieb:
könnte man nicht die Screenshots übereinander legen wie es z.B. auch schon bei PCGHW zu sehen war? Klick ins Bild => kommt jeweils das Gegenstück. Oder man stellt die Videos nebeneinander, Maxishine (Youtube) macht das bei Spielen sehr gern, da kann man dann sehr schön sehen wie eine 5970 immer gegen eine GTX480 baden geht obwohl sie schneller ist.

Auch wenn ich der GameStar nicht besonders zugetan bin (besonders in Sachen Hardware nicht), den HTML5-Bildvergleich haben sie gut hin bekommen:
http://www.gamestar.de/spiele/starcraft-2-wings-of-liberty/bildervergleich/43475.html
Nachmachen bitte@CB :king:
 
boxleitnerb schrieb:
Wolfgang:

Waren die AA Einstellungen für alle AF-Vergleichsbilder gleich? Wie sieht es mit dem LOD aus? Es ist komisch, dass NV-Q so unscharf ist, NV-HQ aber nicht mehr (bei Oblivion).
Was meinst du dazu?

Gut aufgepasst, das war unser Fehler =)
Ich weiß nicht mehr wieso, aber aus irgend einem Grund hat der Spieler in Oblivion "die Seuche". Der hat irgend eine Krankheit, die ihm nach und nach Lebenspunkte abzieht (erkennt man gut an den unterschiedlichen Lebenpunkten auf den Screenshots). Die Krankheit verläuft immer so ab, dass das Bild unscharf wird, dann einige sekunden lang langsam wieder an Schärfe gewinnt, bevor es ganz scharf ist. Nun habe ich bei dem Screenshot wohl etwas zu früh F12 gedrückt und dort war der Spieler noch nicht ganz erholt. Darum war das Bild unschärfer. Ist nun aber ersetzt :)

könnte man nicht die Screenshots übereinander legen wie es z.B. auch schon bei PCGHW zu sehen war? Klick ins Bild => kommt jeweils das Gegenstück. Oder man stellt die Videos nebeneinander, Maxishine (Youtube) macht das bei Spielen sehr gern, da kann man dann sehr schön sehen wie eine 5970 immer gegen eine GTX480 baden geht obwohl sie schneller ist.
Das mit dem übereinanderlegen geht technisch nicht, da dann das Bild nicht in der vollen Auflösung zu sehen wäre. Unser Tipp: Beide Bilder in unterschiedlichen Tabs öffnen und hin und her schalten. Klappt wunderbar :)
 
Schonwieder hart was hier für Kommentare abgegeben werden. Kaum gibts irgendein Kritikpunkt an den neuen AMD Karten und direkt kommen alle Nvidia Fanboys aus ihren Löchern und schreiben non stop Schwachsinn :P
Als neutraler Beobachter ist sowas echt amüsant zu beobachten.

Fakt ist: Jeder hat einen anderen Geschmack und nicht jeder schaut mit der Lupe irgendwelche Video oder Bildvergleiche an. Als wenn sich nun Nvidia oder Amd irgendwas nehmen würden. Die 6870 ist für ihren Preis eine Top Karte, das gilt genauso für die gtx260. Nun kauft sich halt jeder, was er für richtig hält.

Was dann immer diese "Haha alle die sich AMD kaufen sind total bescheuert." Kommentare sollen, ist mir echt ein Rätsel. Bei manchen glaub ich langsam wirklich, dass die als Kind einmal zu oft vom Wickeltisch gefallen sind ;)
 
Da wir derartige Geschäftspraktiken im Jahre 2010 nicht unterstützen werden, haben wir uns dazu entschlossen, in Zukunft jede Radeon-HD-6000-Karte mit der etwa fünf Prozent langsameren High-Quality-Variante zu testen, sodass das Endergebnis mit der Standardeinstellung von Nvidia in etwa vergleichbar ist.

[...]

Um weiterhin eine Vergleichbarkeit mit den GeForce-Produkten von Nvidia gewährleisten zu können, haben wir uns deswegen ferner dazu entschlossen, die Radeon-HD-5800-Karten bei Treibern ab dem Catalyst 10.10 mit abgeschaltetem Catalyst A.I. zu testen.
Finde ich sehr gut. Da heist es dann nämlich wieder: Performanceverbesserungen in diversen Spielen obwohl einfach nur die Quali runter gestellt wurde.
Ja ja, aber ihr lasst euch nicht lumpen. Find ich sehr gut!
 
Wolfgang:
Nvidia stellt in 99 Prozent aller Fälle kein verschwommeneres Bild dar. Es kann höchjstens sein, dass du den besser arbeitenden AF-Algorithmus als verschwommen ansiehst. Hört sich komishc an, aber in dem Fall ist verschwommen besser. Denn eben durch die Schärfe des AMD-Bildes flimmert es dort ganz gerne.

Wenn dem so ist, dann steh ich aber lieber auf das schärfere AF...ein verschwommenes Bild nehm ich subjektiv einfach viel stärker wahr als das flimmern. Ich kriege von verwaschenen Bilder kopfschmerzen - ja ich kann darin ATI und nVidia karten beim spielen unterscheiden. AMD keine Kopfschmerzen nach 1h, nVidia = kopfschmerzen (bei default AF). Auf mehreren LANs mit freunden getestet die nVidias haben.

Sehr seltsam und das obwohl die AMD karten flimmern (und ich das flimmern z.T. auch sehe wenn ich darauf achte).

Womit ich wieder bei dem Punkt wäre entweder alles in Standard zu testen und auf die Unterschiede eingehen oder alles auf maximum testen und trotzdem auf die Unterschiede eingehen. Offenbar sind die unterschiede eben stark subjektiv, schlecht "quantifizierbar" und zudem von Monitor-Qualität, Spiel, Treibereinstellungen etc. abhängig sodass es sich hier um die Diskussion handelt ob Rembrandt eine bessere Maltechnik hatte als van Gogh oder sollte man lieber dahingehend argumentieren dass beide eine leicht unterschiedliche Technik haben und einsetzen ?


Da jedoch 90-99% der User Default treibereinstellungen verwenden wäre es IMHO sinnvoller beide mit default zu benchen und lieber auf die Unterschiede als Pro/Contra einzugehen. Vor allem lernt man so etwas über die treibereinstellmöglichkeiten als neu-user.
Man sollte dabei auch auf die Wortwahl achten - allein die diskussion hier und an anderen Stellen im Internet zeigt doch dass die Unterschiede so gering sind, dass man darüber streiten kann inwieweit sie einen stören. Das allein sollte zeigen dass die BQ auf einer Skala von 1-100 bei beiden irgendwo in der Gegend von 99-100 sind.

Oder anders ausgedrückt, Nvidia hat meinetwegen in HQAF die Nase vor und ein subjektives 99,9 wohingegen AMD selbst mit HQ-Einstellungen nur auf 99,5 kommt...das normale Q von nV liegt dann eben bei 99 und AMD standard dann bei 99,2 oder so.
 
Wolfgang schrieb:
Gut aufgepasst, das war unser Fehler =)
Ich weiß nicht mehr wieso, aber aus irgend einem Grund hat der Spieler in Oblivion "die Seuche". Der hat irgend eine Krankheit, die ihm nach und nach Lebenspunkte abzieht (erkennt man gut an den unterschiedlichen Lebenpunkten auf den Screenshots). Die Krankheit verläuft immer so ab, dass das Bild unscharf wird, dann einige sekunden lang langsam wieder an Schärfe gewinnt, bevor es ganz scharf ist. Nun habe ich bei dem Screenshot wohl etwas zu früh F12 gedrückt und dort war der Spieler noch nicht ganz erholt. Darum war das Bild unschärfer. Ist nun aber ersetzt :)

Wusste ich es doch, dass da was faul dran ist.
So ein finsteres Bild nur wegen einer anderen AF-Einstellung hätte mich doch stark gewundert.

Andere Frage: Sind die AA-Grade von meinen bzw. euren Oblivion-Shots zwischen GF100 und Barts dieselben? Barts kommt mir da etwas arg kantig vor.
 
@Iscaran

Das Gleiche kannst du auch mit einer Nvidia erreichen, wenn du das LOD leicht ins Negative schiebst, wie es bei den Qualityeinstellungen bei den Radeons gemacht wird . ;)
 
@Iscaran

Da jedoch 90-99% der User Default treibereinstellungen verwenden wäre es IMHO sinnvoller beide mit default zu benchen und lieber auf die Unterschiede als Pro/Contra einzugehen.

Genau so sollte es auch sein.

Das wäre wenigstens seriös.
 
@bunker978

Wieso willst du nun beurteilen können ob ich neutral bin oder nicht? Weil ich eine AMD Karte im Rechner habe? Das ist meine zweite und davor hatte ich immer nur Nvidia. Ich kann also behaupten, dass ich mich nicht wirklich zu einer Seite mehr hingezogen fühle ;)
Ich kaufe das, was ich persönlich für richtig erachte und womit ich zufrieden bin.
Ich gehöre aber anscheinend zu einer aussterbenden Spezies. Ich kauf mir die Karte, bau die ein, stell bisschen AA und AF ein und spiele dann um Spass zu haben. Bei manchen hab ich immer das Gefühl, dass sie das Spiel starten, das Bild beurteilen und dann sofort in so einem Thread gehen würden, um uns mitzuteilen, wie scheisse doch alles aussieht.

Im Endeffekt kann es mir ja auch egal sein, aber ich wollte nur mal darauf aufmerksam machen, was manche Leute hier so von sich geben. Ich weiss, dass es mittlerweile an der Tagesordnung ist, einfach mal seine Gedanken in die Welt zu schreien ohne auch nur 3sek darüber nachgedacht zu haben, aber das muss ich ja nicht als positiv empfinden oder? ;)
 
Arbiter Elite schrieb:
Obwohl hier sehr viele kompetente User, immer und immer wieder, darüber berichteten, habt ihr es stets als Fanboygetrolle abgestempelt.
Wird es leider immer noch von einigen (Unbelehrbaren) :(
 
Moin,

finde es auch etwas seltsam, an der Quali der AMD Karten solange rumzudoktorn - bis sie mit Nvidia vergleichbar sind. Nicht umsonst steht das eigentlich in den Nachteilen im Fazit - jetzt wirds geändert und als Contra gesehen - doppelte Bestraffung!

Wie wäre es denn, wenn CB die Nvidiakarten so weit runtertaktet - das sie im Stromverbrauch vergleichbar sind - ah ne das geht nicht - warum nur?

Lasst es wie es ist und sagt - die Bildquali der AMD´s ist schlechter - PUNKT!

MfG
 
Also ich habe jetzt die Videos angeguckt und mal Barts HQ und GF100 HQ mit 2 geöffneten VLC Playern nebeneinander laufen lassen.


Ich sehe das Bart minimal mehr flimmert - es flimmern aber beide. Allerdings empfinde ich z.B. bei AMD die Texturen der Bahnschwellen z.B. einen Hauch schärfer und bei nvidia minimal "unscharf". (Das ist mein subjektives Empfinden daher muss mich jetzt niemand anpaulen es würde nicht stimmen.)
Auch nvidia hat ihre Schwächen, wie ich oft gelesen habe bei der Kantenglättung, was ja auch ordentlich Leistung frisst, daher würde ich ein schlechteres AA wohl auch als "cheaten" seitens nvidia sehen. Also wann kommt ein AA Vergleich?

Meine bescheidene Meinung: Beide haben irgendwo Bildschwächen, der eine hier, der andere da und beides sieht man erst deutlich wenn man immer und immer wieder genau hinguckt bzw wenn man weiß das es da ist. Doch seien wir ehrlich. Beim Spielen - wer achtet dadrauf? Ich empfinde den Artikel als etwas zu aufgebauscht.

Hier wird eher noch Benzin in das Feuer gekippt und aus einem kleinen Lagerfeuer ein Waldbrand entfacht. Das nennt sich dann auch populistischer Journalismus.

Wenn man einen solchen Artikel verfasst der sich um die Bildqualität dreht sollte er nicht nur einseitig auf einen Hersteller bezogen sein.
Es muss ein Gesamtbild geschaffen werden über die Vor- und Nachteile aller Hersteller. Ein Bild besteht nicht nur aus AF, sondern aus einem Ganzen.
 
Bei AMD ist ein klares Flimmerband zu sehen, bei NVs Q/HQ nicht!
PalimPalim schrieb:
Ein Bild besteht nicht nur aus AF, sondern aus einem Ganzen.
Die klassische MSAA-Implementierung ist identisch.
 
Phear schrieb:
@bunker978

Wieso willst du nun beurteilen können ob ich neutral bin oder nicht? Weil ich eine AMD Karte im Rechner habe? Das ist meine zweite und davor hatte ich immer nur Nvidia. Ich kann also behaupten, dass ich mich nicht wirklich zu einer Seite mehr hingezogen fühle ;)
Ich kaufe das, was ich persönlich für richtig erachte und womit ich zufrieden bin.
Ich gehöre aber anscheinend zu einer aussterbenden Spezies. Ich kauf mir die Karte, bau die ein, stell bisschen AA und AF ein und spiele dann um Spass zu haben. Bei manchen hab ich immer das Gefühl, dass sie das Spiel starten, das Bild beurteilen und dann sofort in so einem Thread gehen würden, um uns mitzuteilen, wie scheisse doch alles aussieht.

Im Endeffekt kann es mir ja auch egal sein, aber ich wollte nur mal darauf aufmerksam machen, was manche Leute hier so von sich geben. Ich weiss, dass es mittlerweile an der Tagesordnung ist, einfach mal seine Gedanken in die Welt zu schreien ohne auch nur 3sek darüber nachgedacht zu haben, aber das muss ich ja nicht als positiv empfinden oder? ;)


Man redet zu Missverständlich.

Viele Ehemalige ATI Besitzer ( 5850 ) so wie ich, die von dieser aufgrund diverser Probleme, wieder zu Nvidia gewechselt sind - und Wochen vor diesem Test hier, bereits das angeprangert haben, was heute hier bewiesen wurde, mit Unterstellungen von diversen Usern hier Konfrontiert wurden.... Unschärfe usw wurde als blanke Einbildung deklariert... als Fanboy klassisches rumgenörgel... weil man ja jetzt eine Nvidia besäße...

Jaja... genau das ist der Punkt, warum nun gerade diese Leute, diesen Test Lautstark unterstützen... weil es eben genau dieses bestätigt was vorher selbst immer gesagt wurde...

So sehr mir dieses Fanboy gequatsche aufm Sänkel geht, aber hier triffts wirklich zu, was sich manche ATI User gegenüber den Nvidia Usern erlauben ist blankes unsozialistisches Verhalten, und das ist für mich ein Fanboy, der ansichten anderer User nicht respektiert.

Wenn ein ehemaliger ATI User, zu Nvidia wechselt, und die unterschiede erzählt und was ihm störte und was er mag, dann ist das so - deswegen aber gleich als Fanboy betitelt zu werden, und man würde sich das ganze nur einbilden usw, diesem User ist wohl eher der ATI Fanboy Titel zu vergeben...

So lässt sich also wunderbar erklären, wieso nun einige dieser nvidia User, so reagieren.. weil auf Ihre Meinung und Erfahrung auf gut Deutsch geschissen wurde ( sorry dafür )
und man als sonstiges abgestempelt wurde, um im gleichen Worttakt gleich die ATI empfiehlt ohne dem Käufer (Kaufberatung) klar zu machen, wo die Unterschiede sind bei der Quallität... die von den Nvidia Usern die eine ATI besaßen mit Neutralen Argumenten Ihm gegenüber erzählt wurden.


Genau wie PalimPalim es schildert, ist es bei mir, mit der ATI Karte gewesen... ein ATI User hat daraufhin diese Schilderung außernander gepflückt, die aussage als Ganzes nur in Teilworten zerrissen und einem Einbildung unterstellt, und das dies nur Quatsch ist...nicht nett...

Zum schluss noch: Wer ne Karte in den Rechner knallt von 300€ oder mehr, aber vor nem Monitor hängt der für 120-150€ zu haben ist, darf sich nicht wundern nichts erkennen zu können.
Es gibt auch Leute die haben Monitore hoher Güteklasse vor sich wo jede kleinste Quallitätsunterscheidung/abminderung ( ATI ) bemerkbar macht - genaus wie es ein teurer guter Kopfhörer dem Hörer die möglichkeit gibt, Quallitäten und Fehler in einem Song Glasklar zu erkennen, wohingegen ein 100€ Headset, dafür nicht in der Lage ist.
 
Zuletzt bearbeitet:
ich kann da leider keinen unterschied erkennen zwischen 1xAA und 16xQRXGTSEVNPR-AA
scheinbar doch nicht so gut, oder noch besser, schreiben kann man viel ... bilder sagen mehr als worte aber diese screen's sagen mir null.
 
Wolfgang schrieb:
Gehen tut das schon, nur sind die Dinger krass groß: ~250 MB. Darum haben wir auch extra Videos in kleineren Auflösungen angefertigt.
Hm ist halt etwas schade, aber wenn's nicht anders geht sind die Videos besser als garnichts :)


Ich kann dir garantieren, dass die Screenshots die ihr seht zu 100 Prozent identisch mit den PNGs sind. Ich habe hier die Originale in PNG und man sieht genau null Unterschied. Das sind ja auch große und gute JPEG-Bilder, kann man nicht mit dem vergleichen was Paint ausspuckt.

Gutgut, dann will ich auch nicht weiter meckern.
 
Auch nvidia hat ihre Schwächen, wie ich oft gelesen habe bei der Kantenglättung, was ja auch ordentlich Leistung frisst, daher würde ich ein schlechteres AA wohl auch als "cheaten" seitens nvidia sehen. Also wann kommt ein AA Vergleich?

Wie kommst du darauf ?
Die Implentierungen sind die Gleichen. Zumal es bei Nvidia auch die komfortable Methode der AA bits über den Nhancer oder Inspector (übrigens halboffizielle Tools, die von Nvidia im Hintergrund supported werden ) gibt . Zweiteres hat sogar einen AA-bit Valueeditor mit dem man ordentlich optimieren kann (auf Leistungs bezogen ) bzw, sich funktionierende Bits zusammenbasteln kann.


Dazu kann man auch noch SLI Profile optimieren.
http://forum.nhancer.com/showthread.php?t=1736
 
Zuletzt bearbeitet:
also wenn man das Preis Leistungsverhältnis anschauen nehmen sich die Karten wirklich nicht mehr viel. Egal was man kauft, ich glaube viel falsch machen kann man mit den Karten nicht mehr.... wunderbar ;)

eventuell fällt ja mit den neuen HIGH End Modellen von Ati weiter der Preis dann schlag ich bei einer 470er AMP zu... brauch NV da ich sonst kein 3D über den DVI kriege ... leider
 
ich bin glaub ich schon zu alt....aber bei den Screens bezüglich der verschiedenen AF Modi sehe ich fast keinen Unterschied (wär mir im Zweifel absolut schnuppe ;) ).
 
PalimPalim schrieb:
Also wann kommt ein AA Vergleich?
Gibt's doch *hier*
CB schrieb:
Bei den reinen MSAA-Implementierungen gibt es, wie bereits erwähnt, zwischen ATi und Nvidia keine spürbaren Differenzen. Die Abtastmuster weisen dasselbe EER auf („Edge Equivalent Resolution“, beschreibt mit einem Zahlenwert die theoretische Qualität des Anti-Aliasing, wobei berücksichtigt wird, ob ein Sample mit einem anderen auf einer Linie angeordnet wird und somit die Kantenglättung nur marginal verbessert), einzig die Anordnung der Muster ist leicht verschieden. Somit sehen manche Winkel auf einer ATi- und andere auf einer Nvidia-GPU besser aus – im Schnitt geben sich beide Kandidaten nichts.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben