Bericht Bericht: Radeon HD 6800

Status
Für weitere Antworten geschlossen.
Pilstrinker schrieb:
Im unteren Midrangesegment ist nVidia mit der GTX 460 doch ausreichend stark vertreten.

Die GTX460 ist Perfomance und nicht Midrange.


Dann hättet ihr gleiches auch bei der HD4k und HD3k machen müssen.

Wie denn auch, wenn im Treiber nicht mehr geht und AI off keine Optimierungen abschaltet und lediglich die Perfomance signifikant senkt :rolleyes: Pauschal 5% abziehen geht halt schlecht
 
Zuletzt bearbeitet:
@Wolfgang:

Seid ihr euch sicher, dass Barts-HQ mit Cypress-AI Standard komplett gleich ist, was das Flimmern angeht?

Ich hab mir die Videos von Barts HQ und Cypress AI Standard (beides 10.10) bestimmt 30x angeschaut und ich bin ziemlich sicher, dass Barts sogar etwas mehr flimmert. Es sind die gleichen zwei Streifen auf dem Boden, aber es ist intensiver bei Barts. Deutlich wird es, wenn man den Kieselstreifen links in der Nähe der Schienen betrachtet. Täuscht mich mein Auge da oder ist da was dran?

Sollte das stimmen, hieße das ja, dass man nichtmal ganz die alte Qualität erreichen könnte mit den neuen Treibern - egal welche Einstellung, egal welche Karte.

Ach und noch was:
Könnt ihr einen Unterschied zwischen Q und HQ ausmachen bei Barts? Trotz intensivsten Vergleichen sehe ich da keinen.
Man sollte natürlich AMD abstrafen, dass sie die Qualität gesenkt haben (sogar bei HQ?), aber wenn kein Unterschied sichtbar ist, macht es wirklich nicht soviel Sinn, mit HQ zu benchen.

Kann man bei den anderen Spielen, die ihr getestet habt, andere Beobachtungen machen und HL2 fällt aus der Reihe? Dann wäre das Beispiel für die Videos ungünstig gewählt.
 
Zuletzt bearbeitet:
jeder empfinde das anders :p

ok dann muss ich schauen wegen der 6950
also ich sag ma so soo derbst nervt mich das flimmern nit von daher ^^
Ergänzung ()

un ich hoffe un denke auch das AMD / ATI vll das ja auch mit treiben wieder hinbekommt^^
 
Die GTX460 ist Perfomance und nicht Midrange.

Wenn man Office-Karten in die Betrachtung mit einbezieht, vielleicht.

Was allerdings Gamer-Karten anbelangt - und die sind es, die hier im Wesentlichen interessieren - ist die 460er Midrange.
 
Schaffe89 schrieb:
Dann hättet ihr gleiches auch bei der HD4k und HD3k machen müssen.
Es wäre doch einfach nur schön, auch ein anderes Video hochzuladen, das nicht den Worst Case darstellt.

Ich verstehe nicht, warum Du hier ständig Haarspalterei einforderst.
Es gibt User, die sehen nichteinmal bei den worst case Videos Unterschiede.
Was sollen also weniger deutliche Videos bringen?

Im Test wird klar darauf hingeweisen, dass es von Spiel zu Spiel unterschiedlich stark auftritt.
Wenn also jemand schon beim worst case keinen Unterschied erkennt, kann er das Thema für sich persönlich ad acta legen.

Zu Deinem Punkt, CB hätte schon früher die AF Quali unter die Lupe nehmen müssen kann ich nur sagen, besser spät als nie.

@Pilstrinker

Performance ist die gängige Bezeichnung für Grafikkarten wie die GTX 460. Da ist es unnötig sie hier als Midrange zu bezeichnen, obwohl der Grossteil hier mit dem Begriff Performance etwas anfangen kann.
 
Zuletzt bearbeitet:
Schaffe89 schrieb:
Dann hättet ihr gleiches auch bei der HD4k und HD3k machen müssen.
Es wäre doch einfach nur schön, auch ein anderes Video hochzuladen, das nicht den Worst Case darstellt.
HD 3000 und HD 4000 hat ja nicht plötzlich mit einem Treiber eine schlechtere Qualität als mit einem alten Treiber bekommen. Bzw. die Qualität runtergeschraubt. Gib mir mit den Videos bitte noch was Zeit, ich habe auch noch ein Privatleben bzw. viel zu tun =) Und garantieen kann ich dir das nicht, die nächsten Wochen sind wirklich sehr stressig (und bestimmt spannend für einen Graka-Fan :))

Nein. Selbst bei PCGH steht im Fazit, dass es trotzdem eine positive Entwicklung ist und man dem User mehr freiraum bei der Qualität erlaubt.
Das flimmern von Barts High Quality ist gleich gut wie das beste von der alten Serie.
Ich glaube, du missinterpretierst unser Fazit, denn wir stimmen der Meinung der PCGH vollkommen überein.
Das Problem ist nicht, dass AMD die Qualität des AF großartig nicht angehoben hat. HQ ist ja ok (wenn auch nicht toll), eben weils mit den Vorgängern vergleichbar ist.
Wir regen uns beide drüber auf, dass AMD die AF-Qulität mit dem Treiberstandard verringert hat. Das ist das Hauptproblem :)

Seid ihr euch sicher, dass Barts-HQ mit Cypress-AI Standard komplett gleich ist, was das Flimmern angeht?
Kommt drauf an. In den meisten Fällen schon, aber nicht generell. Hängt also vom Spiel bzw. der Textur ab.

Könnt ihr einen Unterschied zwischen Q und HQ ausmachen bei Barts? Trotz intensivsten Vergleichen sehe ich da keinen.
Ja, da gibt es ein en Unterschied. Variiert natürlich auch von Spiel zu Spiel. HQ flimmert tendenziell etwas weniger.
 
wolfgang was meinste damit das nächstewoche spannent wird für graka fans???? jetzt bin ich neugierig :D
Ergänzung ()

P.s ich find eig auch noch voll ok es is nit besser un nit schelchter geworden von da her mir wurcht xP
 
Die nächsten Wochen.;)
Der Release von Atis 69XX Reihe und möglicherweise ne GTX 580 von Nvidia werden spannend.
 
mein ich doch :p:D also ich glaub i.wie nit dran das ne GTx580 jezt schon kommt und wenn denk ich nur das die vll nen bissel schneller wird als ne gtx 480
 
FormatC schrieb:
Igor (Tom's Hardware)
OMG ist die Smileyauswahl hier bescheiden.

Ich suchte einfach einen Zustimmenden Smiley, aber sowas wird hier wohl nicht benötigt.
 
Der Artikel hat das bestätigt, was ich schon vorher vermutet hatte; Und die Nachjustierung der alten Karten hat nur den Zweck, dass es nicht auffällt dass auf diese Art Qualität gespart wurde.

Und NEIN; ich finde es absolut nicht OK. Klar hat man als User, den das nicht stört, jetzt die Möglichekti so mehr Performance heraus zu holen; aber bitte nicht als Standardeinstellung! Das ist einfach nur eine billige Methode gewesen um die neue Serie noch schneller als die Alte zu machen. Es sollte mittlerweile jedem klar sein dass die HD6800 Serie gänzlich gleich ist mit der Technik der HD5000. Es würde mich nichtmal wundern wenn auch andere Anpassungen wie zum Beispiel das wegfallen des Banding-Problems ebenfalls nur in der Software passiert sind. Im Grunde ein billiger Weg um Marktführerschaft und Überlegenheit zu demonstrieren, wo es nichts zu demonstrieren gibt. nVidia hat aus der Rüge zur G70 Zeit gelernt und agiert seit dem G80 als Qualitätsbenchmark. Dass AMD nun diese schlechte Bildqualität wieder einführt ist meiner Meinung nach verwerflich.

Alles in allem bleibt mir nur zu sagen dass die mit Abstand beste Wahl derzeit eine undervoltede, Übertaktete GTX460 ist. Kostet 150€, Performance genau zwischen HD6850 und HD6870, Bildqualität anstandslos, gute Treiber (OK; es gibt auch hier Probleme, aber die werden i.d.R. schnell behoben), und vom Stromverbrauch her absolut vergleichbar mit den HD6870 und HD6850 Karten. Meine GTX 460 verbraucht bei 750 MHz @ 0,912V ca. 15W weniger als im Originalzustand - und würde damit etwa 5W unter der HD6870 liegen.

mfg
 
Boxleitnerb schrieb:
Ich hab mir die Videos von Barts HQ und Cypress AI Standard (beides 10.10) bestimmt 30x angeschaut und ich bin ziemlich sicher, dass Barts sogar etwas mehr flimmert. Es sind die gleichen zwei Streifen auf dem Boden, aber es ist intensiver bei Barts.

Das ist ja auch im test so beschrieben und scheint ein Ausnahmefall zu sein.

Wolfgang schrieb:
Ich glaube, du missinterpretierst unser Fazit, denn wir stimmen der Meinung der PCGH vollkommen überein.

Das war nicht auf euch bezogen, sondern auf jemand anderen. :)

@ KainerM

Die HD6870 kann man auch undervolten.
Dein Fazit ist wie immer zu einseitig, da du von vorneherein befangen bist und eh zur GTX460 gegriffen hättest.
Das kann man sich aus deinen unzähligen Kommentaren zusammenreimen.
Fakt ist, AMD bietet eigentlich grundlos einen schlechteren Treiberstandard wie vorher an.
Das gehört kritisiert.
Dass man deswegen HighQ gegen Nvidia default testen will ist eine Streitfrage.

Bildqualität anstandslos,

Von einer anstandslosen Bildqualität ist auch Nvidia meilenweit davon entfernt, wenn man penibel ist.
Hoffentlich findet die aus meiner Sicht übertriebene Darstellung des AF problems ja Anklang bei AMD und auch bei Nvidia.
Vielleicht können wir uns ja bald über flimmerfreiere Texturen am Boden freuen.
Erst muss aber mal AMD deutlich nachziehen.

Und die Nachjustierung der alten Karten hat nur den Zweck,

Nur den einen Zweck sicherlich nicht, da wurde nicht nur an der Bidlqualität gemurkst.

http://www.youtube.com/watch?v=c9X0zM5mQ9U&feature=mfu_in_order&playnext=1&videos=yYedXsccfsQ

Hier, wer sich die Zeit mit AF vergleichen vertreiben will.
Mehr Videos kommen die Tage.
Das Hochladen dauert.
 
Zuletzt bearbeitet:
aber wenn man die 6800 ja auf HQ bring is das ja genau so wie ne 5870 un von daher :p
 
@KainerM

Meine GTX 460 verbraucht bei 750 MHz @ 0,912V ca. 15W weniger als im Originalzustand - und würde damit etwa 5W unter der HD6870 liegen.

Das ist zwar schön und begrüßenswert, die HD 6870 spielt aber trotzdem in einer höheren Liga.
 
Wolfgang schrieb:
Wir beziehen uns doch nicht nur auf den Worst Case Fall. Würden wir das tuen wäre das tatsächlich nicht objektiv. Ich kann dir aber versichern, dass wir das nicht tun - ob du mir das jetzt glaubst kannst nur du entscheiden.

Wie soll euch irgendjemand das glauben, wenn die einzigen Videos die ihr veroeffentlicht von HL2 stammen, welches nun schon seit ueber 5 Jahren von gewissen Kreisen benutzt wird um zu zeigen wie Scheisse ATI ist, eben weil es ein Worst Case Szeneario ist.

Wo sind denn Videos von weiteren Games, bspw. aus eurem Benchmark Parcour?
Oder von aktuellen Games mit grosser Verbreitung, das jeder sehen kann, wie die Unterschiede aussehen bei Spielen die er auch selber zockt?

Euer Artikel ist wie ein Testparcours mit nur einem einzigen Benchmark und dieser ist dann auch noch ein Extremszenario.

Warum macht ihr euch denn bei CPU/GPU Test die Arbeit viele verschiedene Sachen zu testen, wenn ihr hier behauptet ein einziges Szenario reicht vollkommen aus?

Und sich dann noch hinstellen und ueber Vorwuerfe beschweren, das man "einseitig" testet ....
 
Zuletzt bearbeitet:
dlux schrieb:
Die HD6850 und HD6870 sind gerade mal seit einer Woche (!) auf dem Markt. Die Liste der Hardware Top-Seller bei Alternate bezieht sich jedoch auf die Hardware, die in den letzten 3 Monaten verkauft wurde.

Die Hd6er sind die beliebtesten Karten und sind ständig ausverkauft, daher steigen sie auch etwas im Preis. Die Nvidia Karten stagnieren dahingegen im Preis.
http://geizhals.at/deutschland/?o=8

Außerdem ist AMD der Gewinner bei DX11 Grafikkarten. Etwa 85% der verkauften DX11 Grafikkarten sind von AMD (und das nicht ohne Grund).
http://store.steampowered.com/hwsurvey/videocard/

Also erst denken und dann posten. Fanboygelaber brauchen wir hier nicht.

Das ist ziemlich egal wie lange die Karten auf dem Markt sind.
Fakt ist, das die AMD Karten mehr kosten, nicht verfügbar sind und das schlechtere Bild haben oder bei gleicher Bildqualität nur diesselbe Leistung.
Jetzt schaun wer mal wann AMD wieder ihre neuen Karten auf die Reihe kriegt, bis dahin gehen weiterhin die GTX 460 weg.
 
Zuletzt bearbeitet:
Schaffe89 schrieb:
AI Off hat nichts gebracht, das verschlechterte die Qualität öfters, als dass die verbessert wurde.
Deswegen hat auch keiner dazu geraten den anzuschalten.


Quark mit Soße. Es war nie ein Thema weil an AI Spielefixes gekoppelt waren, es war schlicht nicht sinnvoll das zu deaktivieren, selbst wenn es in einigen Fällen die Filterqualität steigern konnte. Zum Beispiel war kein HDR+AA möglich, hat aber nichts mit der Filterqualität zu tun sondern einzig und allein mit den Spielefixes.
 
dlux schrieb:
Die HD6850 und HD6870 sind gerade mal seit einer Woche (!) auf dem Markt. Die Liste der Hardware Top-Seller bei Alternate bezieht sich jedoch auf die Hardware, die in den letzten 3 Monaten verkauft wurde.

Deine Aussage ist falsch,
die Liste der Hardware-Topseller wird regelmäßig jeden Tag aktualisiert.

Das siehst Du im übrigen ganz einfach daran, dass auch Produkte egal ob Grafikkarte oder neue CPU oder sonstwas oftmals einen Tag nach Erscheinen in der Hitliste weit oben auftauchen. Das liegt dann daran das Produkt in den ersten 24 Stunden seit Verkaufsstart am meisten verkauft wurde.
Die GTX 460 von Gigabyte war z.B. bereits wenige Tage nach Erscheinen auf Platz 1, und nicht weil sie Monate lang vorher verkauft worden war.

Die Situation momentan ist somit so, das die GTX 460 von Gainward auf 5, die von Gigabyte auf 14 und die GTX 470 von EVGA auf 28 liegen. Eine AMD Karte egal welche taucht gar nicht mehr in der Hitliste auf, weil sie zum einen kaum mehr gekauft werden und zum anderen auch kaum mehr verfügbar sind.
 
Zuletzt bearbeitet:
Also wenn man sich die ganze Problematik des Fanboytums von einiger Entfernung betrachtet fällt einem erst auf wie absurd und wiedersprüchlich es ist.

Ein paar Beispiele:

Nvidia bringt den G70 und CB schreibt genauso einen Bericht über Nvidias damaliges Kack AF, wo waren denn da die entrüsteten Aufschreie der AMD Fanboys?! Oder ist sowas nur unfair aufzuzeigen wenn es AMD trifft aber nicht wenn es den großen Bösewicht Nvidia trifft?

Anderes Beispiel wäre Stromverbrauch, wo sind denn die Fermi basher gewesen als die HD4870 draussen war und ein viel größeres Desaster als Fermi war? Sie war langsamer, viel schlechtere Bildquali, höhere Stromverbrauch und vorallem höherer Idle Stromverbrauch! Denn die Karte hat die ganze Zeit Strom wie verrückt aus der Dose gezogen und nicht nur wenn man ihn benötigt wie bei G100. Wo waren denn da die entsetzten Aufschreie? Nein, damals wurde die Karte verteidigt bis zum geht nicht mehr mit Argumenten wie "Man kann ja das Bios flashen für niedrigen idle Verbrauch!" und dergleichen. Ratet mal was genau die selben Leute sagen würden wenn ihnen einer auf einen Fermi Strombash entgegnen würde das man ja die Spannung senken könne und somit alles in Ordnung wäre. ^^

Fermi ist also das pure böse weil er so einen hohen LAST Stromverbrauch hat? (Idle ist Fermi vollkommen OK)
Ok und auf der haben Seite von Fermi steht folgendes: bessere IQ, schnellster Chip am Markt, beste Features, bester 3D Modus, beste GPGPU einbindung und besten Treibersupport.

Ok und jetzt schaun wir uns mal eine Hd4870 oder HD4890 an.
Auf der haben Seite steht folgendes: Preis .......................... ähm das wars
Auf der negativ Seite steht: schlechtere IQ, schlechtere Treiber, schlechtere Features (damals gab es nichtmal Eyefinity als positivpunkt), höherer Lastverbrauch und hoher idle verbrauch.
Wo waren denn da die Stimmen die sich jetzt so zahlreich regen?

Nächstes Beispiel:
Umbennungen waren/sind sobald sie von Nvidia kommen natürlich wiedermal das pure Böse und in der Hölle geboren. Doch komischerweise werden sobald AMD sowas macht von den selben Leuten sogar ganze threads verfasst um zu "erklären" warum das arme AMD sowas tun muß.

Beispiel Preise:
Nvidia verlangt für eine High End GPU >400€ und die Fanboys können sich schon nimmer halten vor Gemecker. Aber sobald AMD mal in einer Marktposition ist die hohe Preise erlauben (kam nicht so oft vor) kommen die selben Leute raus und verteidigen das bis aufs Messer mit Argumenten wie "AMD soll auch mal was verdienen". Das ganz nebenbei seit einigen Gens noch dazu die AMD Chips viel viel billiger in der Herstellung sind und somit auch im Markt weniger kosten und Nvidia Chips allein aufgrund der Größe und Features teurer sind wird natürlich wieder geflissentlich ignoriert.

Hach ja das sich hier manche Leute überhaupt noch trauen das Wort objektivität in den Mund zu nehmen ist schon ein starkes Stück.

@Topic:
Richtig so CB das ist der einzig Gangbare Weg!
Wie würden denn die ganzen Fanboys aufschreien wenn Nvidia plötzlich ankommen würde und im nächsten Treiber und die Quality Einstellung mit der Performance Einstellung vertauschen würde? Müsste man dann trotzdem weiter @stock Treiber Einstellungen testen? Überlegt doch nur mal die Konsequenzen!

Oder wenn Nvidia einfach alle MSAA Schalter im Treiber umbennent in SSAA und dadurch plötzlich in allen Tests mit SSAA gleich zig Prozent schneller wäre. Wäre das auch in Ordnung und man dürfte trotzdem nichts am Treiber ändern weil das ja die neue default Einstellung wäre? Ich denke doch nicht, oder?!
Genau das macht AMD, sie haben einfach die default Einstellung von Quality auf Performance gestellt, aber weil es AMD ist ist das OK, oder wie?


Ich kann ja bis zu einem gewissen Grad nachvollziehen das man Sympathien für den Underdog hägt und dem naturgemäß mehr durchgehen lässt als dem Topdog. Doch warum jetzt noch? Das Verhältniss hat sich doch schon seit dem Kauf ATIs durch AMD grundlegend verändert ja geradezu umgedreht. Nvidia ist ein ganz ganz kleiner Fisch im Gegensatz zu AMD und kämpft im dezidiertem consumer Grafikkarten Markt ums überleben. Nvidia wird früher oder später ohne x86 Lizenz vom Markt für consumer verschwinden. Also warum man dann immernoch AMD behandelt als wären sie das arme kleine AMD das sich gegen das böse große Nvidia nicht wehren kann ist mir ein Rätsel.
 
Ich fasse mal zusammen:

Ich habs betreits angesprochen! Wenn man großen Aufdeckerjournalismus betreibt, sollte man alle Seiten betrachten! Nicht nur die AF-Schummelein müssen aufgedeckt werden. Auch die AA-Optimierungen sollten mal genauer betrachtet werden. Das Verhältnis von Standard, 4xAA und 8xAA paßt einfach nicht. Und hier wird auch an der Qualität gespart. Entweder bei 4xAA von Nvidia oder bei 8xAA von AMD.

Der Flimmerunterschied wird von CB vor allem auf einem High-End-Monitior gesehen. Auf manchen TN-Panels gar nicht auf besseren TN-Panels nicht so stark. Das relativiert das ganze schon um einiges. Danke Wolfgang für diese Aussage.

Ich hinterfrage alles so weit es geht. Die Geschäftspraktiken sind in der heutigen Zeit aber doch sehr rau! Jeder optimiert (auch Nvidia) und gespart wird beim Kunden. Aber so wie dieses Thema momentan gehyped wird siehts für mich so aus als würden doch einige Hardwareseiten direkt von Nvidia bezahlt. Wenn schon Spiele gekauft werden, warum nicht auch Hardwareseiten?

Die Statistiken auf Steampowered sprechen auch Bände! Da siehts schlecht aus für Nvidia und in die enge Getrieben, fangen Tiere zu beissen an! Außerdem denke ich, das Nvidia momentan einfach zu teuer produziert (Chipfläche) und mit AMD einfach nicht mithalten kann. Sieht man z.B. im Preisverfall von Nvidiakarten. Die AMD-Karten halten die Preise hingegen doch sehr. Meine 5870 um 320,- war echt ein guter Kauf und auch nach einem Jahr zählt sie noch zu den schnellsten Karten.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben