Bericht Bericht: Radeon HD 6800

Status
Für weitere Antworten geschlossen.
Dennoch flimmert Nvidia und AMD stärker, es stört bei beiden Grafiklösungen, egal ob Quality oder High Quality. Zumindest ist das mein Eindruck. Ich kann auch auf den Videos keinerlei Verbesserung des Banding Problems feststellen.
 
Besten Dank für den ausführlichen Test. Es braucht Reviewer, die über den Tellerand hinaus gucken - genau das habt ihr gemacht. Klasse!

Man fühlt sich da wirklich als Spielball von AMD, der die Qualität runtersetzt, ohne dass es auffallen soll.
Allerdings muss man auch sagen, dass es vielen nicht auffällt, so dass sich der Schaden in Grenzen hält.
 
mal wieder so ein richtiger fail von Ati. Obwohl man könnte auch Absicht unterstellen und dann ist das ne ziemlich billige Mache, um Ati GRafikkarten in den Benches vor Nvidia zu platzieren ... muss jeder selber wissen was er kauft. P/L-technisch ist Ati damit auf jeden Fall wieder schlechter geworden und die Filter-Tricks sind bei Nvidia seit der G80-Version abgestellt, wer solche miesen Geschäftspraktiken unterstützen will kafut also weiter bei ati.
 
Hmm danke für den tollen Test.
Das bestärkt mich darin noch länge bei meine GTX275 zu bleiben. Ich warte mal auf die nächste "echte" NVIDIA-Generation, also nicht die 580er.
Momentan ist das Angebot, mal abgeehen vobn der GTX460 auf dem Grafikkarten-Markt unterwältigend.
Das waren noch zeiten von GTX 2xx /GT 88xx und ATI 19xx und 49xx :(. Da bekam man noch was für sein Geld.
 
Nochmals zu den Videos:
Evt. auch nur HD6800 HQ, HD 6800 Q und GF Q erneut in höherer Auflösung (MINIMUM 720p) hochladen.


Edit: Und wenn man schon Bildvergleiche macht, dann bitte nicht mit JPGs sondern mit PNGs...das mag zwar alles Bandbreite fressen, aber imho kann man's sonst direkt lassen da man schlicht zuwenig erkennt und evt. zu falschen Schlüsse kommt.
 
Zuletzt bearbeitet:
mit egal ig bestelle mir ne hd 6850. nvidia stromfresser brauche ich erstmal nicht.
und außerdem kauft man sich ja ey alle 1-2 jahre ne neue karte, also was soll's
 
Xenotime schrieb:
Hmm danke für den tollen Test.
Das bestärkt mich darin noch länge bei meine GTX275 zu bleiben. Ich warte mal auf die nächste "echte" NVIDIA-Generation, also nicht die 580er.
Momentan ist das Angebot, mal abgeehen vobn der GTX460 auf dem Grafikkarten-Markt unterwältigend.
Das waren noch zeiten von GTX 2xx /GT 88xx und ATI 19xx und 49xx :(. Da bekam man noch was für sein Geld.

die benchmarks machen so einen eindruck ich hatte auch mal eine GTX260 @750MHz, da ist eine GTX460 viel viel besser, das gute/schlechte an der GTX460 ist das in vielen spielen immernoch die GPU nicht ausgelastet wird, das gute man kann z.B in Crysis eine UltraQuality Config verwenden ohne das sich die fps ändern, zusätzlich schlecht ist, um die GTX460 auszunutzen braucht man einen hammer prozessor, da hat mein C2D@4x3,5GHz in vielen spielen nicht ausgereicht

in spielen oder einstellungen die richtig viel power brauchen kannst du deine GTX275 gegen eine GTX460 vergessen
 
Wer hat gesagt das die GTX275 besser ist ? Ich hab sie unter Wasser und stark übertaktet in 3D Anwendungen.Warum soll ich für 10% mehr Leistung und DX11, was mich ohnehin nicht interessiert, bei einer Auflösung vn 1689x1050 180 € für NICHTS rauswerfen. Momentan bietet keine Karte so einen Performance-Boost im 200 € Segment das sich der Umstieg lohnen würde.
Es kommt immer sehr drauf an was man mit seiner Karte vor hat.

Und ich bin mir ziemlich sicher das mein Prozessor nicht limitiert 955 BE @ 3,6 ^^.
 
Gut daß ihr euch zu diesem Schritt entschlossen habt. Ich glaube außer ein paar Wenigen, die ihre ganz persönlichen Gründe haben sowas abzulehnen, stehen die meisten User hinter euch.

Ich hoffe daß mehrere Review-Seiten auf diesen Zug aufspringen und AMD entsprechend kritisieren, damit es endlich wieder zu einer Verbesserung auf diesem Gebiet kommt. BQ ist doch der einzige Vorteil gegenüber Konsolen (ein Schelm wer böses denkt), und bei Konsolenportierungen hat man genug Rechenleistung dafür.

Ich hoffe NVidia bringt bald 3 Monitor-Support mit 1ner Grafikkarte, dann würde ich auch zurück wechseln.

Solange die 6850/150€ und 6870/210€ bleiben, ist auch das P/L Verhältnis sehr gut, NUR sieht man schon jetzt wie die Preise durch die Bank steigen.
Es wird sich hier ganz stark am Preis orientieren welche Karte man empfehlen kann, aber im Grunde ist Nvidia zu bevorzugen.
 
Lob an Cb für die Aufklärung. Damit haben sich die schlimmsten Befürchtungen wohl bewahrheitet. Die zahlreichen Textfilterung-bezogenen Patente von AMD liegen wohl weiter brach...

Andererseits vereinfacht das auch die Kaufentscheidung. Will man Qualität oder günstigen Preis. Die meisten werden auf den Preis schauen, insofern profitiert AMD sicher davon.
 
Wenn ihr den Treiberstandard von AMD, in dem ein Flimmern wahrzunehmen ist, ändert, um auf Nvidias Treiberstandard zu gelangen, dann sollte Nvidias Treiberstandard ebenfalls auf HQ gesetzt werden, denn deren verschwommen Bilder sind ebenfalls nicht vergleichbar. Warum wird nicht darüber geschrieben, das hier anscheinend mit AF Effekte retuschiert werden sollen, für die eigentlich AA zuständig ist?
Nvidia stellt in 99 Prozent aller Fälle kein verschwommeneres Bild dar. Es kann höchjstens sein, dass du den besser arbeitenden AF-Algorithmus als verschwommen ansiehst. Hört sich komishc an, aber in dem Fall ist verschwommen besser. Denn eben durch die Schärfe des AMD-Bildes flimmert es dort ganz gerne.

Entweder stimmen deine Quotes nicht, oder ich habe keine Ahnung was du damit meinst.
Da haben wir aneinander vorbeigeredet, sorry dafür! Ich dachte du redest vom AF, hast aber von MLAA geredet.

Wir haben niergendwo geshrieben: Finger weg vom MLAA. Im AA-Abschnitt haben wir geschrieben: "Damit können wir MLAA nur dann „empfehlen“, wenn weder per Applikation, noch per Treiber MSAA oder SSAA möglich ist. In Spielen wie GTA 4 und Risen kann MLAA dann durchaus eine Verbesserung der Optik erwirken."
Und im Fazit: "Damit ist MLAA keine Alternative zu den bisher bekannten AA-Einstellungen, behält aber ein interessantes Einsatzgebiet: Wenn ein Spiel Anti-Aliasing weder per Treiber noch per Applikation zulässt, funktioniert MLAA trotzdem. Risen und GTA 4 sind zwei Beispiele. Hier muss dann aber jeder für sich entscheiden, ob der Unschärfe-Effekt annehmbar ist."

Ich finde nicht, dass das so super negativ ist wie du meinst. Im Endeffekt gilt: Wenn MSAA oder SSAA geht, kein MLAA nutzen, weil dieses das Bild blurt und je nachdem schlechter glättet. Wenn gar kein AA geht, kann man MLAA ausprobieren. Das meint so übrigens auch AMD. Sie sehen MLAA auch nur als "Nothilfe" an, wenn sonst gar nichts geht.

@CB: Könntet ihr die Videos zus. nochmal in 720p oder in Originalgröße hochladen?
Gehen tut das schon, nur sind die Dinger krass groß: ~250 MB. Darum haben wir auch extra Videos in kleineren Auflösungen angefertigt.

Edit: Und wenn man schon Bildvergleiche macht, dann bitte nicht mit JPGs sondern mit PNGs...das mag zwar alles Bandbreite fressen, aber imho kann man's sonst direkt lassen da man schlicht zuwenig erkennt und evt. zu falschen Schlüsse kommt.
Ich kann dir garantieren, dass die Screenshots die ihr seht zu 100 Prozent identisch mit den PNGs sind. Ich habe hier die Originale in PNG und man sieht genau null Unterschied. Das sind ja auch große und gute JPEG-Bilder, kann man nicht mit dem vergleichen was Paint ausspuckt.
 
Wolfgang:

Waren die AA Einstellungen für alle AF-Vergleichsbilder gleich? Wie sieht es mit dem LOD aus? Es ist komisch, dass NV-Q so unscharf ist, NV-HQ aber nicht mehr (bei Oblivion).
Was meinst du dazu?
 
Zuletzt bearbeitet:
So,nach dem Fazit dieses Testes, muß ich jetzt mal loswerden,an alle die immer gesagt haben : ''warte noch bis die neuen ATI6xxx rauskommen''

Joh,Geil wie sich das warten gelohnt hat für die,die es wirklich gemacht haben..:p:lol:

BILLIG ist eben nicht immer das ''Gelbe vom Ei'':p
 
so wie ich das sehe ich die 6850 ja auch mit high quality schneller als die GTX 460.

und ich hab das bild lieber scharf als unscharf, von daher gefällt mir die amd grafik eh besser als die von nvidia.
 
Ehrlichgesagt setze ich darauf dass AMD mit den nachfolgenden Treibern die Möglichkeiten der
68XX Generation ausreitzt. Die Leistung der Karte finde ich super! Man schaue sich die Grafik von Crysis Warhead an die meiner Meinung nach nach wie vor ungeschlagen ist, da flimmert nichts da ruckelt nichts und es macht einfach nur Spaß!
Ärgerlich finde ich, dass ein Grafikfeature wie AI über Jahre hinweg schlichtweg unnütze ist und in vielen Fällen die Grafikqualität dramatisch verschlechtert! Ich kann mich noch erinnern als NFS Most Wantet rauskam, mit AI eine katastrophale Grafik. Oder auch Crysis Warhead das beim laden hängen bleibt dank aktiviertem AI......
Also wenn so eine Funktion über einen so langen Zeitraum derart unzulänglich arbeitet, neige ich dazu diese generel abzuschalten.
Für mich bleibt das Preis Leistungsverhältnis gut. Für Umsteiger, von z.B. einer 3870 zu 6870 wie bei meinem Sohn, ist man begeistert.
Ich für meinen Teil bin begeistert wie gut meine 4870 läuft und schaue mir mal an was die 69xx Karten so bieten, habs ja nicht eilig.
nVidia kommt vorerst nicht für mich in betracht.....so ein Verhalten wie bei XFX finde ich schlichtweg skandalös und ein Grund für mich die nächste Karte von XFX zu kaufen.
Less bechmark, more Fun. Die meisten Spiele laufen gut ob mit einer 5850 oder einer 460
Gruß
 
Danke CB, ich hoffe dass PCGH und 3DC ihre Artikel auch bald veröffentlichen (bzw. im Falle von PCGH ist auch ein Heftartikel mit Videos auf der DVD für die übernächste Ausgabe geplant afaik).


Angiesan schrieb:
Bezüglicher der Implementierung von AA kann ich vielen hier nicht folgen die beiden Standards sind absolut identisch da absolut die gleichen Abtastmuster verwendet werden wo man da einen Vorteil für ATi sehen will ist mir schleierhaft, bei früheren Generationen war die Aussage aber richtig.

Finde ich auch seltsam, die vergleichbaren AA-Modi (4xMSAA, 8xMSAA) sind absolut auf selber Höhe.
Hat auch CB schon bei den Vorgängergenerationen festgehalten (https://www.computerbase.de/artikel...te-4#abschnitt_msaa_gegen_tmsaa_tssaa_und_aaa) :

Bei den reinen MSAA-Implementierungen gibt es, wie bereits erwähnt, zwischen ATi und Nvidia keine spürbaren Differenzen. Die Abtastmuster weisen dasselbe EER auf („Edge Equivalent Resolution“, beschreibt mit einem Zahlenwert die theoretische Qualität des Anti-Aliasing, wobei berücksichtigt wird, ob ein Sample mit einem anderen auf einer Linie angeordnet wird und somit die Kantenglättung nur marginal verbessert), einzig die Anordnung der Muster ist leicht verschieden. Somit sehen manche Winkel auf einer ATi- und andere auf einer Nvidia-GPU besser aus – im Schnitt geben sich beide Kandidaten nichts.

Die HD5k-Serie hat dann SGSSAA nachgeschoben (an allen anderen Modi hat sich nichts getan), welches Geforce-Serien mittlerweile auch beherrschen (und das in allen APIs).

In den CB-Shots sieht man es auch gut je nach Spiel:
Links GF100, rechts Barts
nvidiaatiaa.png

Bei dem HL2-Beispiel sehen die Stangen/Seile des Turms bei AMD besser aus, bei Oblivion hingegen ist Nvidia vorne (Statuenfuß, Rahmen der Fenster und darüber, Säulen).

ED und CSAA sind stark von den Spielen abhängig ob man bessere Ergebnisse als mit 8xMSAA erzielt und SGSSAA neigt zum blurren. MLAA ist dagegen eine wirklich gute Alternative falls sich keine anderen Modi einstellen bzw. erzwingen lassen.

Den "Matsch"-AF Vorwurf bei Nvidia kann ich auch nicht ganz nachvollziehen, mir kommt eher vor als ob beim Falle von Oblivion das ganze Bild dunkler ist bzw. als ob das Lightning anders wäre:
NV16xQ (gut zu sehen am Blondschopf der sich mit der Wache unterhält) vs. NV16xHQ
Barts16xHQ sieht dagegen dem NV16xHQ sehr ähnlich, was mich zu der Annahme kommen lässt, dass es so wohl sein sollte und etwas mit NV16xQ nicht stimmt(stört mich jetzt aber nicht wirklich, da HQ bei Nvidia nur minimal an Performance frisst). Vielleicht sollte CB dem jedoch auch mal nachgehen.
Siehe Wolfgangs Post, war eine Krankheit die noch nicht ausgelaufen war bei den NV16xQ-Shots.

Noch zum Schluss ein Appell an manche hier: Bitte nicht über Nvidias "Matsch"-AF stänkern aber im selben Atemzug MLAA(den Matsch- und Unschärfemodus schlechthin) als den Heilbringer anpreisen - da würde ich mir persönlich etwas blöd vorkommen :lol:
 
Zuletzt bearbeitet:
Wie ich so lesen kann, sind doch Leute die nie eine 480 GTX kaufen würden und AMD doch die bessere hat usw auf NV umgestiegen. Lustig zu lesen.

Aber niemand würde eine Thermi kaufen...

also ich bin nach 7 Monaten von der HD 5870 auf die GTX 480 umgestiegen und kann bestätigen

Kann ich auch bestätigen! Und zwar deutlich

Also von niemand kauft die und NV geht kaputt kann bei sowas ja nicht die Rede sein.


Ich stell mir gerade vor, NV hätte sowas bei der Fermi gebracht und stelle mir gerade vor wie dieser Thread dann abgehen würde. Naja, somit und wenn NV mit der 500 einiges besser macht sind die wohl wieder im Rennen und gleich auf mit AMD. Somit können beider Lager getrost den im Jahr 2011 erscheinenen Karten von NV und AMD entgegen blicken und schwups gehts von vorne los. Aber es scheint so als wären die Glaskugeln von einigen kaputt gewesen denn angeblich sollte NV ja laut Aussagen einiger hier länger brauchen um den Anschluss zu finden und viele sagten vorraus, NV geht kaputt und NV ist am Ende usw.

Ich für meinen Teil grinse mir einen und sehe es genau wie CB und solange AMD so verfährt, muss die Testebene geändert werden.
 
Zuletzt bearbeitet:
Wolfgang schrieb:
Ich kann dir garantieren, dass die Screenshots die ihr seht zu 100 Prozent identisch mit den PNGs sind. Ich habe hier die Originale in PNG und man sieht genau null Unterschied. Das sind ja auch große und gute JPEG-Bilder, kann man nicht mit dem vergleichen was Paint ausspuckt.

könnte man nicht die Screenshots übereinander legen wie es z.B. auch schon bei PCGHW zu sehen war? Klick ins Bild => kommt jeweils das Gegenstück. Oder man stellt die Videos nebeneinander, Maxishine (Youtube) macht das bei Spielen sehr gern, da kann man dann sehr schön sehen wie eine 5970 immer gegen eine GTX480 baden geht obwohl sie schneller ist.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben