Bericht Bericht: Radeon HD 6800

Status
Für weitere Antworten geschlossen.
Phear schrieb:
Ich gehöre aber anscheinend zu einer aussterbenden Spezies. Ich kauf mir die Karte, bau die ein, stell bisschen AA und AF ein und spiele dann um Spass zu haben. Bei manchen hab ich immer das Gefühl, dass sie das Spiel starten, das Bild beurteilen und dann sofort in so einem Thread gehen würden, um uns mitzuteilen, wie scheisse doch alles aussieht.
Wenn sich keiner mehr Gedanken um die Bildqualitätsunterschiede der IHVs im Allgemeinen macht (oder das Absenken derer in zukünftigen Generationen) sind wir bald wieder bei G70- oder RV870-Niveau angelangt. Ich will in Zukunft Rennspiele und Shooter spielen, nicht den Segel Simulator 2012 ;)

Phear schrieb:
Im Endeffekt kann es mir ja auch egal sein, aber ich wollte nur mal darauf aufmerksam machen, was manche Leute hier so von sich geben. Ich weiss, dass es mittlerweile an der Tagesordnung ist, einfach mal seine Gedanken in die Welt zu schreien ohne auch nur 3sek darüber nachgedacht zu haben, aber das muss ich ja nicht als positiv empfinden oder? ;)
Schön, dass es dir egal ist. Nicht so schön ist, dass du teils Leute über einen Kamm scherst die sich beruflich wie privat bezügliches dieses Themas für die Enthusiasten-Community viel Arbeit gemacht haben.

suessi22 schrieb:
Moin,
finde es auch etwas seltsam, an der Quali der AMD Karten solange rumzudoktorn - bis sie mit Nvidia vergleichbar sind. Nicht umsonst steht das eigentlich in den Nachteilen im Fazit - jetzt wirds geändert und als Contra gesehen - doppelte Bestraffung!

Wie wäre es denn, wenn CB die Nvidiakarten so weit runtertaktet - das sie im Stromverbrauch vergleichbar sind - ah ne das geht nicht - warum nur?

Lasst es wie es ist und sagt - die Bildquali der AMD´s ist schlechter - PUNKT!

MfG

Dann haste in jedem zukünftigen Grafikkarten-Test die ganzen Blinden welche es bestreiten und mit "Matsch-AF" und "AA ist besser" ankommen. Besser man sieht zu eine gemeinsame Basis zu bilden und von dort aus Leistung, Stromverbrauch, Lautstärke, Featureset und Preis etc. zu vergleichen.

Btw. nur schwer Desillusionierte verbuchen den Stromverbrauch von 470 und 480 nicht auf der Negativseite. 460 ist nahe genug an den AMD-Gegenstücken dran in der Beziehung, einen 1:1 gleichen Stromverbrauch in derselben Leistungsklasse wirst du niemals finden. Nur eben die eben erwähnten Ausrutscher nach oben (oder in seltenen, positiven Fällen nach unten).
 
y33H@ schrieb:
Bei AMD ist ein klares Flimmerband zu sehen, bei NVs Q/HQ nicht!
Also ich sehe bei beiden ein durchgezogenes flimmern bei den Kieselsteinen an den Gleisen, sowohl nvidia als auch AMD. Bei AMD ist es minimal stärker, dafür sind eben meinem Empfinden nach die Gelisschwellen bei AMD minimal schärfer.
Es kommt auch auf die verwendete Engine an, es liegt auf genug daran das der Unterbau schon murks macht, da fällt mir die Unreal Engine spontan ein. Da kann man machen was man will, egal ob nvidia oder AMD.

Airbag schrieb:
Wie kommst du darauf ?
[...]
Weil man es oft genug liest? Nicht nur von irgendwelchen Leuten in Foren.
Irgendwelche Zusatztools wie der nhancer sind zwar ne nette Sache, aber das ist auch krummbiegen von Einstellungen durch Drittsoftware und was nur ein minimaler Anteil der Kunden nutzt. Ich denke wir können uns einig sein das eine "Hand voll" Forenuser nicht die Referenz sind und wir sollten uns auf das beschränken was der Hersteller uns zur Hand gibt. Alles andere sind nette "Gimmicks", die aber nicht zum Standardlieferumfang gehören.

y33H@ schrieb:
Ist das jetzt dein Ernst? Der Artikel ist ~2 Jahre alt und wer sagt das sich da nichts geändert hat? Nur weil nvidia sagt das sich nichts geändert hat?
Oder testest du bei der PCGH bei jeder neuen nvidia Treiberversion alles auf Herz und Nieren diesbezüglich? Ich habe meine Zweifel dran.

Airbag schrieb:
Die Leistungsaufnahme einer GTX480 als Negativpunkt zu betrachten, finde ich eigentlcih auch seltsam. Als wenn eine HD5870 genügsam mit 180W genügsam wäre ....
Man muss den Verbrauch einer GTX 480 nicht verharmlosen. 48% höherer Verbrauch bei gerade mal 12-20% (je nach Einstellung, Auflösung usw bei den neusten Treiber) mehr Leistung ist ein ganz klarer Negativpunkt.
Die Performance pro Watt muss bei nvidia deutlich verbessert werden.
Einzig und allein die GTX460 macht es richtig. Dennoch ist deren Chip noch immer zu groß im Vergleich zu einer HD68xx.
 
Mein Gott das Bild meiner AMD Graka ist so offensichtlich scheiße, dass ich jetzt keine Spiele mehr spielen will.

Wer Ironie findet darf sie behalten. AMD hat ein schlechteres AF und nun? Nichts was nicht schon lange vorher bekannt war. Stellt AF im CCC auf High Quality und alles ist wieder so wie immer. Immer noch schlechter als Nvidia aber wer was finden will findet auch was.

Mein Kumpel ist vor 2 Tagen von ner 9800GTX auf die 6870 umgestiegen. Wenn ihr den jetzt fragen könntet, der hätte keine Ahnung welche Karte ein besseres Bild wiedergibt. Subjektiv würde er sagen die AMD weil er schlicht und ergreifend jetzt alle Spiele @ max spielen kann und er somit ein klar besseres Bild erhält.

Kurz gesagt. Die Leute die besagtes flimmern wahrnehmen und es stört sollen sich Nvidia kaufen. Ich persönlich nehm es weder wahr noch störts mich. Da brauche ich auch kein Video mit einem worst case Szenario. Jedes Spiel und jede Spielszene ist anders und somit fällt auch das flimmern total unterschiedlich aus.

Vielleicht solltet ihr diesen Satz nochmal hervorheben

Zitat CB

"Es gibt zwar Spiele, die den Unterschied kaum zeigen, andere leiden dagegen intensiv an flimmernden Texturen, die den Spielspaß trüben."


Sonst glauben alle noch euer worst case Szenario ist die Regel!
 
Zuletzt bearbeitet:
PalimPalim schrieb:
Ist das jetzt dein Ernst? Der Artikel ist ~2 Jahre alt und wer sagt das sich da nichts geändert hat?
Das ist mein Ernst. Am MSAA hat sich seit GF 8800 und Radeon HD2k nichts geändert.
PalimPalim schrieb:
Oder testest du bei der PCGH bei jeder neuen nvidia Treiberversion alles auf Herz und Nieren diesbezüglich?
Der AF-Pfusch [Q, also Default, entspricht "AI adv."] etwa ist sofort aufgefallen, direkt beim ersten Crysis-Start ...
PalimPalim schrieb:
48% höherer Verbrauch bei gerade mal 12-20% (je nach Einstellung, Auflösung usw bei den neusten Treiber) mehr Leistung ist ein ganz klarer Negativpunkt.
Vorsicht: Du solltest die Fps und die Leistungsaufnahme in der gleichen Benchszene vergleichen! Und dann sieht es teils ganz anders aus. Wenngleich die Tendenz die gleiche ist.
 
Zuletzt bearbeitet:
@Airbag

Die Leistungsaufnahme einer GTX480 als Negativpunkt zu betrachten, finde ich eigentlcih auch seltsam. Als wenn eine HD5870 genügsam mit 180W genügsam wäre ....

Im Vergleich ist eine HD 5870 natürlich viel genügsamer als eine GTX 480.

So gesehen sind aber beide Karte unvergleichbar, denn wollte der geneigte Tester für ein vergleichbares Testresultat eine vergleichbare Leistungsaufnahme erzielen, müsste er die Taktraten und Treibereinstellungen der GTX 480 mit hoher Wahrscheinlichkeit auf ein so niedriges Niveau absenken, dass an ordentliche Bildqualität und für den Gamer interessante hohe FPS nicht mehr zu denken wäre.

Allerdings würde dieses Vorgehen der Logik der neuen CB-Testmethodik voll und ganz entsprechen.

Auch wenn die nVidia-Balken dadurch plötzlich ganz ganz kurz würden.

Schließlich kann es nicht angehen, dass nVidia einen möglichen Vorteil in der BQ usw. durch exorbitant hohen Stromverbrauch herbeiführt, während der Konkurrent die Leistungsaufnahme in engen Grenzen halten möchte - möglicherweise der Umwelt zuliebe. ;)
 
Ich finde die neue Generationen mit gemischten Gefühlen, ich kann es einfach nicht verstehen, wie man gute Produkte, in manchen Sachen hinmurks. Das gilt für beide Lager, meine Güte müssen den jedes verdammte Jahr Karten kommen, die mehr oder weniger neue Features besitzen und die meisten sehr schlecht am Ende sind.

Sollten sich mal ein wenig zurück ziehen und mal 2 Jahre Zyklen einführen, die aber dann auch ausnutzen.
 
@ Pilstrinker

Vll sollte man der HD 5870 auch mehr TMUs einbauen und die Filterung auf Höhe von NVs HQ bringen und dann mal schauen, was diese zusätzlichen Einheiten bzw. Transistoren an Strom fressen. Und wenn wir schon dabei sind, dann gleich noch die Tessellation-FFU verdreifachen, damit die HD 5870 halbwegs mit der GTX 480 mithalten kann. Du erkennst die Problematik?
 
Ich hab die HD 6850 seit heute in meinem Rechner:-)
Und dieser tolle Test von CB ist wirklich für mich nicht nachvollziehbar.
zuerst einmal ist die Karte, eine Sapphire, einfach nur Super- Im Zusammenspiel mit C i 7 860 und 8GB DDR3 auf einem Asus Board läuft diese karte wirklich sehr gut, zudem ist sie nicht zu hören, beim Spielen schon gar nicht, da ja der Ton vom Spiel auch noch da ist, aber die Sapphire ist wirklich sehr leise.
Ich habe Need for Speed Shift, Bioshock 2, A new Beginning und kung Fu Panda:-) angespielt, alles auf 2560x1600 und volle Details, alles auf Hoch in allen Spielen. keine Ruckler keine anderen Dinge wie flackern oder so. Mein Bildschirm, ein Dell 3008 WFP ist wirklich ein Top gerät mit einer Super Bildqualli, also ich kann das nicht bestätigen.
Vielleicht fällt mir bei nem andern Spiel mal was auf, aber ich hab noch ne GTX 275 da und ne HD 5770 oder ne GTS 250, aber ich bin mit der HD 6850 mehr als zufrieden und warum sollte man auf ne schlechtere Karte setzen nur weil CB ein Haar in der Suppe fand, das ich aber nicht bestätigen kann?
wer das macht sollte generell mal überprüfen wieviel eigene Meinung er eigentlich noch hat.
Die Karte ist einfach der Hammer, für 152,- Euro incl. Versand ist das nicht zu toppen.
Weiter so AMD, alles richtig gemacht, hehe!!
Ausserdem kann nur der etwas konkretes dazu sagen, der die Karte auch hat. das alles von einem von CB erstellten Video abhängig zu machen ist doch etwas schwach, oder.
 
Zuletzt bearbeitet:
Selbstverständlich.

Und daher argumentiere ich auch die ganze Zeit für den Erhalt der bisherigen Testmethode.

Die bietet mit Abstand den geringsten Anlass zur Beschwerde:

Man testet die Hardware mit ihren Default-Einstellungen und kann sich dann im Fazit über Vor- und Nachteile der Konkurrenten lang und breit auslassen.
 
@Wolfgang:
Das Anpassen der Treiber auf eine quasi gleiche Ausgangsbasis war anfangs auch eine Überlegung und Option, die wir für uns erwogen haben. Allerdings verfremdet dies die Vergleichbarkeit zu den vielen älteren Tests enorm, was auf Grund der bisher investierten Arbeit eigentlich sehr schade wäre. Ich denke mal, wir werden temporär den Aufwand treiben und die betroffenen Karten in zwei Einstellungsvarianten testen, wenn es wirklich auf eine konkrete Vergleichsaussage ankommt. Wobei die Default-Einstellung definitiv die primäre bleibt, weil ganz offensichtlich die meisten User nicht im CCC an den Einstellungen frickeln.

Ich habe mir mittlerweile mehrere Artikel zu Gemüte geführt und für mich einfach einmal rausgestrichen, was nach Abzug aller Emotionen und Entrüstungen an Fakten übrig bleibt. Wir warten auf eine Stellungnahme seitens des Herstellers und werden danach ebenfalls geeignete Konsequenzen ziehen, weil auch wir nicht akzeptieren wollen, dass derartige Marketing-Attacken auf dem Rücken der zahlenden Kunden ausgeführt werden. Bis dahin sollte man AMD jedoch auch eine Chance geben, sich eindeutig zu artikulieren. Ohne den dritten Beteiligten gehört zu haben, sind solche Threads wie dieser hier leider eher kontraproduktiv, da sich leider in der Mehrzahl nur diejenigen zu Wort melden, die freitags zwar gern bei Heise & Co. rumtrollen, aber noch nie eine ATI/AMD-Karte gesehen haben.

Man wird mir wohl als Letztem unterstellen können, dass ich ein AMD-Fanboy bin und wenn ich mich zurückerinnere, hatte ich auch schon mal die Rote Front nach einem Artikel in geballter Ladung mehrere Wochen lang gegen mich - aber eines hat mich das ganze Theater durchaus gelehrt: interne Kooperation und gesunder Druck an den richtigen Stellen bringen meist mehr, als pure öffentliche Bloßstellung. Ich hatte seinerzeit nach langem Tauziehen am Ende direkt Kontakt zum Treiberteam und wir haben das abschließend auf dem "kleinen Dienstweg" erledigen können/dürfen. Ohne ein gewisses PR-Führungspersonal in DE, welches sich mittlerweile ja selbst ins Abseits geschossen hat.

Warum ich das hier schreibe? Weil auch ich entnervt mitlesen muss, dass viele Diskussionsbeiträge nicht nur meilenweit am Thema vorbeizielen, sondern auch die Unreife des einen oder anderen Schreibers bloßlegen. Nur weil der eine oder andere Hersteller mal einen Fehler einbaut ist dies noch lange kein Grund, generell und pauschal zu bashen. Finger auf die Wunde legen: gern und notwendigerweise. Aber dann bitte auch das nötige Pflaster nicht verweigern, statt weiter blind aufs Opfer einzustechen. Exakt diese Diskussion haben wir uns erspart, indem wir erst dann berichten, wenn sich alle beteiligten Parteien geäußert haben. Unsere Leser sind nämlich leider auch nicht reifer ;)

Igor (Tom's Hardware)
 
Pilstrinker schrieb:
Man testet die Hardware mit ihren Default-Einstellungen und kann sich dann im Fazit über Vor- und Nachteile der Konkurrenten lang und breit auslassen.
Fps lassen sich nur bei gleicher BQ vergleichen. Denn die Leute sehen idR eh nur die Balken und länger ist (vermeintlich) besser.
 
Dai6oro schrieb:
Mein Gott das Bild meiner AMD Graka ist so offensichtlich scheiße, dass ich jetzt keine Spiele mehr spielen will.

Wer Ironie findet darf sie behalten. AMD hat ein schlechteres AF und nun? Nichts was nicht schon lange vorher bekannt war. Stellt AF im CCC auf High Quality und alles ist wieder so wie immer. Immer noch schlechter als Nvidia aber wer was finden will findet auch was.

Kurz gesagt. Die Leute die besagtes flimmern wahrnehmen und es stört sollen sich Nvidia kaufen. Ich persönlich nehm es weder wahr noch störts mich. Da brauche ich auch kein Video mit einem worst case Szenario. Jedes Spiel und jede Spielszene ist anders und somit fällt auch das flimmern total unterschiedlich aus.

Zitat CB

"Es gibt zwar Spiele, die den Unterschied kaum zeigen, andere leiden dagegen intensiv an flimmernden Texturen, die den Spielspaß trüben."


Sonst glauben alle noch euer worst case Szenario ist die Regel!


Genau wegen dieser Einstellung konnte 3dfx vernichtet werden :( Got sei ihrer Seele gnädig.
 
Fps lassen sich nur bei gleicher BQ vergleichen.

Das ist dein Ansatz.

Meiner hingegen ist - wie schon geschrieben - die unveränderte, unmanipulierte Herstellervorgabe.

Der Rest gehört ins "Fazit" eines Artikels.

Und da kann dann meinetwegen stehen, dass die BQ mit dem Treiberdefault des Hertellers A deutlich besser ist als die des Herstellers B.

Und das reicht doch.
 
@ Pilstrinker
Meiner hingegen ist - wie schon geschrieben - die unveränderte, unmanipulierte Herstellervorgabe.
Gut, also immer schön weiter cheaten, mehr als einen kleinen Minuspunkt im Fazit gibt's ja nicht. Hauptsache lange Balken. Das ist der falsche Weg!
 
y33H@ schrieb:
Bei AMD ist ein klares Flimmerband zu sehen, bei NVs Q/HQ nicht!

Dann würde ich mal zum Augenarzt oder die Videos sind einfach schlecht. Nvidia flimmert, sehe ich deutlich mit meiner neuen Brille! ;)
Aber bei AMD ist es deutlicher zu sehen, vergrößere mal die Videos dann sieht man es deutlich.

EDIT: Flimmerbänder sieht man 2 Stück bei den AMDs und das deutlich, wenn man genau hinschaut sieht man die auch bei Nvidia, aber deutlich geringer. Ok ich würd mich auch auf ein Flimmern einigen, die Bänder sind wirklich nicht so hart wie bei AMD.

Mich würden mehr Vergleiche interessieren, und jetzt nicht von Spielen wo es auftritt sondern von aktuelleren und stark frequentierten Spielen.
 
Zuletzt bearbeitet:
FormatC schrieb:
[...] Ich hatte seinerzeit nach langem Tauziehen am Ende direkt Kontakt zum Treiberteam und wir haben das abschließend auf dem "kleinen Dienstweg" erledigen können/dürfen. [...]

Für den kleinen Dienstweg gibts hier im Forum übrigens die Funktion "Private Nachricht".
So sehr mich die aufgeheizte Debatte auch stören mag, Ihr Beitrag über Ihre und die hier vertretene Leserschaft giesst eher noch Öl ins Feuer.
Wie war das mit dem Hammer aus Ihrer Signatur?:rolleyes:
 
Pilstrinker schrieb:
Meiner hingegen ist - wie schon geschrieben - die unveränderte, unmanipulierte Herstellervorgabe.

Das sehe ich genauso.
Man sollte in den Treiber defaults testen und im Fazit auf die jeweiligen Vor- und Nachteile eingehen, da nur ein kleiner Teil der User im CCC die Einstellungen bearbeitet.

Ich kann bei ATI sowohl bei Q und HQ deutliches Flimmern erkennen.
Bei nvidia kann ich kein Flimmerband erkennen.


mfg dorndi
 
Gut, also immer schön weiter cheaten, mehr als einen kleinen Minuspunkt im Fazit gibt's ja nicht.

Und?

Das ist dir nicht plakativ genug, womöglich zu wenig marktschreierisch, dass es auch wirklich alle hören können?

Damit's dann wirklich jeder kapiert?

Vom potentiellen Käufer kann ich wohl erwarten, dass er die Quintessenz eines Fazits richtig zu beurteilen weiss.

Alternativ könnten die störenden Balken auch weggelassen werden. :D
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben