Bericht Bericht: Radeon HD 6800

Status
Für weitere Antworten geschlossen.
Schaffe89 schrieb:
Naja du äußerst ja Polemik und Schwarzmalerei.
MLAA hat durchaus Sinn.
Aber nur in Games die ansonsten keine Glättungsmodi erlauben und das ist einfach so, das hat nichts mit einem Fanboy zu tun.
Dies behauptest du nur, weil dich das innerlich zufrieden stellt.
Außerdem verkenne ich die Lage gar nicht und behaupte auch nicht das AF der AMD Karte sei nicht schlechter, also was willst du eigentlich?



Völliger Unsinn den du da zusammenstammelst. Ich behaupte es nicht nur, es ist auch so. Offensichtlich hast du es vor lauter Schönmalerei noch gar nicht ausprobiert und lässt dich von der tollen AMD PR leiten. Schau dir Vergleichsvideos an wenn du es noch nicht selber ausprobiert hast. Das Bild wird matschiger und trotzdem flimmert zu 99% alles wie ohne MLAA in Gothic 4. Es sieht höchstens auf Bildern schön geglättet aus, was aber in Bewegung überhaupt nicht der Fall ist. Von deutlich besser kann überhaupt keine Rede sein. Du behauptest ständig Dinge, die nicht der Realität entsprechen. Du hast behauptet, Barts würde besser filtern und weniger flimmern, was nicht der Realität entsprach und jetzt der gleiche Mist beim MLAA. In der jetzigen Form ist MLAA fast völlig wertlos. Bislang zähle ich nur GTA4 als Mehrwert. Wenn bei dir Realität der Polemik entspricht, ist bei dir bereits alles zu spät.
 
centuri schrieb:
ist schon schade sowas. nun ja, ich bleibe mit meiner 58xx beim 10.9er. finde ich echt sau doof, dass der 10.10er die qualität der 58xx auf die der 68xx (manchmal) runterzieht.

Martricks schrieb:
Ich meine es ist gut das CB den "Fehler" entdeckt hat und bin mir sicher ATI bekommt das in den Griff. Hab den alten 10.9 installiert und gut is. Was soll man sich drüber streiten. Viel interssanter wird Cayman.

Habe ich jetzt auch gemacht der alte ist sehr unflimmrig (für meine games). RIESENSAUEREI von AMD die 58er und 68er so zu verstylen. Bitte AMD macht diese sch..ße ab 10.11 wieder richtig!!!:mad:
 
Schaffe89 schrieb:
Ich hab jetzt Videos in Gothic 4 gemacht.
Einmal mitm alten G80 und einmal mit ner HD6870.

Schau doch mal ob Du nicht irgendwo noch eine Geforce3 oder besser noch eine Geforce2 auftreiben kannst....:freak:
 
@ y33h@ !

Aha, das ist jetzt also eine Architektursache! Sicher!

Vergleiche mal den Link!
https://www.computerbase.de/artikel/grafikkarten/10-grafikkarten-fuer-directx-11-test.1262/seite-18#abschnitt_performancerating_ohne_aaaf

Hier siehst du, dass ohne AA zb die 5870 recht nah bei der 480er ist. Bei 4xAA werden die Abstände größer! Geradlinig interpoliert und logisch gedacht müsste sich der Abstand bei 8xAA noch weiter vergrößern! Das tut es aber nicht, im Gegegenteil, AMD holt wieder auf. Für mich nicht verständlich und nicht nur über die Architektur erklärbar! (Billige Ausrede) Für mich eher ein Hinweis auf Optimierungen. Entweder von Nvidia 4xAA oder von AMD 8xAA.

So siehts aus und das kann man auch nicht über Detaildiskussionen leugnen!
 
Schon interessant, wie man bei einem Thema vom hundertsten in´s tausendste gehen kann. Der Umgangston im Thread spitzt sich von der ersten Seite an zu, bis zum geht nicht mehr. Deswegen die Frage am Rande, seid ihr erwachsene Menschen oder aber Kinder denen man den Lolli geklaut hat? :rolleyes:

Zum eigentlichen Thema selbst werd ich leider nicht viel beitragen können, da meine alten Augen, selbst mit Unterstützung von Zeiss CyberOptics Klasse 1, kaum bis keine Unterschiede feststellen können. :cool_alt:

Nichts desto Trotz gibt es eine Frage, die mir unter den Nägeln brennt und zwar kommt es im Thread mehrfach vor, dass Bezug vom einen oder anderen auf den privat verwendeten Monitor genommen wird. Das geht unter anderem gar soweit, dass die Aussage getätigt wird, dass auf einem EIZO die Grafikkarten beider Probanden zum Flimmern neigen würden.

Zum anderen bekommen, wie man immer wieder zu lesen bekommt, TN Panels ihr Fett weg bzw. werden als nicht gerade optimal für Bildqualität erwähnt. Ich für meinen Teil nenne selbst einen Monitor mit TN Panel mein Eigen (HP w2207h) und bin mit dem Bild soweit zufrieden. Muss hier aber auch dazu sagen, dass ich mich persönlich nicht als "Bildqualitätsfetischisten" bezeichnen würde. (Ich könnte es mir vorstellen, wenn endlich jemand ne automatische Reinigungsanlage für die Zeiss CyberOptics erfinden würde, aber vorher macht es kein Sinn)

Generell wäre es nun (für mich, evtl. auch für andere) doch interessant zu wissen, wie viel Einfluss der Monitor auf die untersuchten Bildqualitätsfeatures, bzw. was wir davon zu sehen bekommen, hat. Vor allem auch auf die Anzeige der Screenshots sowie der Videos, weil wenn hier jeder Leser ein anderes Bild vor Augen hat, dann würde es mich nicht mehr wundern, warum die einen relativ viel Unterschied sehen, die anderen aber gar keinen. Und um ehrlich zu sein, irgendwo müssen doch Unterschiede erkennbar sein zwischen einem 90€ und einem 1000€ TFT oder täusche ich mich da?
Oder auch der Umkehrschluss, solltet ihr mit 1000€ Monitoren testen, der BQ wegen, und nun entsprechend kritisch Fehler bemängeln welche der Otto-Normal-Gamer auf seinem 150 - 250€ TFT gar nicht sieht.

Deswegen die Frage an Wolfgang, was für einen Monitor habt ihr denn verwendet, unter Testsystem findet sich eigentlich alles bis auf das Gerät welches das Bild wiedergibt und besteht evtl. die Möglichkeit den Test auf einem oder mehreren anderen TFT zu wiederholen, wenigstens Abschnittsweise, um meine Bedenken ein wenig zu zerstreuen, damit ich wieder ruhig schlafen kann und nicht von einem neuen Monitor träumen muss? :D

Evtl. könnten die anderen anwesenden Redakteure (PCGH und THW, hab ich sonst noch jemanden überlesen?) parallel gleich ihre Testmonitore nennen.
 
Romsky schrieb:
Was soll diese Aussage? Das AF ist beimm G80 quasi identisch zum G100!

Ich halte es auch für zweifelhaft alte Graka's mit neuen zu vergleichen. Es ist schon denkbar das die aktuellen Treiber stark auf GF 1xx ausgerichtet sind. Außerdem möchte ich mich nicht auf die Aussage eines rot gefärbten "pseudo Profi's" verlassen, der sagt : Passt schon :freak: !

Den Beweis zu führen müssen wir schon "relativ" unabhängigen und objektiven Redaktionen überlassen.
 
Sehr nett was hier für eine Diskussion abgeht.

Der Markt hat mittlerweile schon entschieden wer Sieger ist:

Topseller bei Alternate

Auflistung GTX Serie

Auflistung HD 6000 Serie

Neben der schlechteren Bildqualität der HD 6850 und 6870 kosten sie mehr und sind vor allem gar nicht mehr erhältlich. Die GTX 460 geht derweil weg wie warme Semmeln.
Tja, AMD, wieder schlecht die Produktion geplant, und wieder in die Röhre geschaut. lol.

Cool, die Gigabyte GTX 460 OC hat mittlerweile schlappe 105 Bewertungen auf der Produktseite.
 
Wie lange ist die GTX 460 am Markt?

Und wie lange die HD 6xxx?

Na, schnackelt's?

So von wegen Anzahl der Bewertungen.
 
Pumpi schrieb:
Ich halte es auch für zweifelhaft alte Graka's mit neuen zu vergleichen. Es ist schon denkbar das die aktuellen Treiber stark auf GF 1xx ausgerichtet sind.

hast du jetzt als NV fan zugegeben das NV seine älteren Produkte in den Treibern benachteiligt :D

nebenbei kann schaffe89 ja nur damit testen was er da hat :rolleyes:

engineer123 schrieb:
Sehr nett was hier für eine Diskussion abgeht.

Der Markt hat mittlerweile schon entschieden wer Sieger ist:



Neben der schlechteren Bildqualität der HD 6850 und 6870 kosten sie mehr und sind vor allem gar nicht mehr erhältlich. Die GTX 460 geht derweil weg wie warme Semmeln.

Du weißt aber schon wie Marktwirtschaft funktioniert, kurz zusammengefasst Nachfrage bestimmt denn Preis.
 
Also weil CB AMD unterstellt, AMD würde aufgrund der Balkenlänge an der Bildausgabe sparen, wird nun AMD von CB Restriktionen erfahren.

Als Intel eine Milliarde Euro Strafe zahlen musste, wegen illegaler Praktiken, Intel noch weiter von andere Staaten verurteilt wurde, hat CB auch nicht Intel 10 FPS abgezogen, weil Intel das nur wegen (CB benutzt das ja auch) den Geschäftspraktiken erreicht hat.

So macht sich CB unglaubwürdig. Wenn CB das immer wieder betonen würde bei den Tests, dass AMD anscheinend hier und da spart um einen längeren Balken zu haben, müsste CB auch immer wieder betonen, dass Intel nur deswegen so stark ist, weil sie durch ihre Geschäftspraktiken und Unmengen an Geld andere Konkurrenten aussperren oder benachteiligen.
 
Also weil CB AMD unterstellt, AMD würde aufgrund der Balkenlänge an der Bildausgabe sparen, wird nun AMD von CB Restriktionen erfahren.

Obwohl das ist ein sehr zweifelhaftes Verfahren ist, ändert es ja nichts an der grundsätzlichen Bewertung der Karten seitens CB.

AMD hat nach wie vor die Nase vorn, auch wenn der Balken ein winziges Stückchen kürzer geworden ist.
 
CHB68 schrieb:
Schau doch mal ob Du nicht irgendwo noch eine Geforce3 oder besser noch eine Geforce2 auftreiben kannst....

Ich wüsste nicht, was sich seit ner 8800gtx zur jetzigen zeit am AF bei Nvidia hinsichtlich deren Flimmern geändert haben soll, denn man sieht deutlich, dass die Nvidias bei richtiger Unterlage deutlich weniger flimmern.
Ähnlich wie in diesem Half Life 2 Beispiel. :)

Ralph555 schrieb:
Völliger Unsinn den du da zusammenstammelst. Ich behaupte es nicht nur, es ist auch so. Offensichtlich hast du es vor lauter Schönmalerei noch gar nicht ausprobiert und lässt dich von der tollen AMD PR leiten.

Ja natürlich. Ich habs doch selbst aktiviert.
Am Anfang hatte ich mit einer ominösen grauen Fläche zu kämpfen, die dem Held bis zum hals Stieg, wenn ich MLAA aktiviere.
Jetzt gehts plötzlich.
Jedenfalls sieht die Umgebung in meinen Augen erheblich flimmerfreier aus.
Das ist subjektiv.

Ralp555 schrieb:
Von deutlich besser kann überhaupt keine Rede sein. Du behauptest ständig Dinge, die nicht der Realität entsprechen. Du hast behauptet, Barts würde besser filtern und weniger flimmern, was nicht der Realität entsprach und jetzt der gleiche Mist beim MLAA.

Naja, wenn du GTA4, Gothic 4 und Risen daheim hättest, könntest du sehen, dass es sehr wohl was bringt.
Wenn du generell MSAA nutzen kannst ist dies freilich besser, da MLAA das Bild leicht unscharf werden lässt.
Ob dies störend ist, ist aber Geschmackssache.
Außerdem habe ich nie behauptet, Barts würde weniger flimmern und besser filtern??
Wenn dus doch findest, was unmöglich ist, dann bitte zitieren. Er filtert lediglich hinsichtlich des Hardware BUG Bandings besser, Banding ist laut CB zu 99% nicht sichtbar.

Pumpi schrieb:
Ich halte es auch für zweifelhaft alte Graka's mit neuen zu vergleichen.

Das AF ist hinsichtlich des Flimmerns mit Sicherheit identisch.
ich hatte selbst schon eine GTX260 und habe es untersucht, auch bei GTA4 und Modern Warfare.
Wenn dus nicht glaubst, bei PCGH stehts mit Sicherheit irendwo in einem AF Test.

engeneer123 schrieb:
Neben der schlechteren Bildqualität der HD 6850 und 6870 kosten sie mehr und sind vor allem gar nicht mehr erhältlich. Die GTX 460 geht derweil weg wie warme Semmeln.
Tja, AMD, wieder schlecht die Produktion geplant, und wieder in die Röhre geschaut. lol.

Du scheiterst ja schon daran einen sachlichen Vergleich zu machen.
Die HD6870 und HD6850 sind ab Launch schon verfügbar gewesen.
Nicht umsonst hatte ich die Karte bereits 1 Tag nach Release im Rechner.
Kaum wahrscheinlich, dass AMD da gleichviel Karten verkaufen kann wie Nvidia.
 
Zuletzt bearbeitet:
Hallo Glaubenskrieger,
Tests sind interpretationsfähig, wie hier auf's trefflichste bewiesen wurde. Wenn man sie anzweifeln will, sollte man das mit Fakten belegen. Vermutungen, Meinungen und Ahnungen sind Wolken aus der Fabelwelt. Vergleiche ziehen, funktioniert nur wo Vergleiche zugelassen werden.

Danke CB, guter Test.
 
hast du jetzt als NV fan zugegeben das NV seine älteren Produkte in den Treibern benachteiligt

nebenbei kann schaffe89 ja nur damit testen was er da hat

A) Auch bei NV werden die alten Produkte sicher nicht übermäßig gehyped, ist aber auch kein Beinbruch wenn die Grundabstimmung in Ordnung ist. Dennoch muß man aktuelles vergleichen.

B) Schaffe sein Test kann ja nicht schaden bzw. ist auch eine Bereicherung, doch sollte man den Test nicht überbewerten ! Ich glaube wenn man sagt das ich ein bißchen "grün" gefärbt bin, und schaffe rot, dann ist das noch objektiv !

Obwohl das ist ein sehr zweifelhaftes Verfahren ist, ändert es ja nichts an der grundsätzlichen Bewertung der Karten seitens CB.
AMD hat nach wie vor die Nase vorn, auch wenn der Balken ein winziges Stückchen kürzer geworden ist

Es sind nur ca. 5% in AA settings, aber das sind auch oft genug 5fps ! Das relativiert bis egalisiert die Vorsprünge zur Contrahenten-Karte schon gewaltig.
 
(meine meinung) schwacher test... klingt wie ein fanboybericht der 3dcenter nvidia fanboys. :evillol:
 
Pumpi schrieb:
Ich glaube wenn man sagt das ich ein bißchen "grün" gefärbt bin, und schaffe rot, dann ist das noch objektiv !

Du kannst es also nicht dabei belassen?
Wie soll das Test den rot gefärbt sein, wenn das AF identisch ist?
Und der Vergleich zwischen mir und dir intressiert niemanden das ist off Topic.

439 schrieb:
Es sind nur ca. 5% in AA settings, aber das sind auch oft genug 5fps ! Das relativiert bis egalisiert die Vorsprünge zur Contrahenten-Karte schon gewaltig.

Ja, 3 bis 5% im Schnitt sind ein gewaltiger Unterschied, der relativiert schon wahnsinnig, zumal man immernoch mit Q fahren kann und dann schneller ist, es testet ja lediglich CB und PCGH so.

Hätte man imho aber auch bei der HD4K und HD3K so machen müssen.
 
engineer123 schrieb:
Sehr nett was hier für eine Diskussion abgeht.

Der Markt hat mittlerweile schon entschieden wer Sieger ist:

Topseller bei Alternate

Auflistung GTX Serie

Auflistung HD 6000 Serie

Die HD6850 und HD6870 sind gerade mal seit einer Woche (!) auf dem Markt. Die Liste der Hardware Top-Seller bei Alternate bezieht sich jedoch auf die Hardware, die in den letzten 3 Monaten verkauft wurde.

Die Hd6er sind die beliebtesten Karten und sind ständig ausverkauft, daher steigen sie auch etwas im Preis. Die Nvidia Karten stagnieren dahingegen im Preis.
http://geizhals.at/deutschland/?o=8

Außerdem ist AMD der Gewinner bei DX11 Grafikkarten. Etwa 85% der verkauften DX11 Grafikkarten sind von AMD (und das nicht ohne Grund).
http://store.steampowered.com/hwsurvey/videocard/

Also erst denken und dann posten. Fanboygelaber brauchen wir hier nicht.
 
Ja, 3 bis 5% im Schnitt sind ein gewaltiger Unterschied, der relativiert schon wahnsinnig, zumal man immernoch mit Q fahren kann und dann schneller ist, es testet ja lediglich CB und PCGH so.

Wenn der Vorsprung einer 6850 zur GTX 460 8% beträgt im allgemeinen Ranking, dann sind absolut betrachtet eine auf 4% veminderung dieses Vorsprung's eine tatsächliche 50% verminderung im direkten Vergleich !

Wenn das für dich nicht relevant ist, weil Du dir deinen Umstieg von einer 5850 auf eine 6870(@ pseudo 1000mhz ohne Volt Mod) schön reden mußt ist das persönliches Pech !

Und der Vergleich zwischen mir und dir intressiert niemanden das ist off Topic.

Du kannst entscheiden ob meine Vergleiche dich nicht interessieren, ob die allgemeinheit meine Vergleiche interessieren entscheidest nicht Du. Schaffe89 ist nicht gleich Gott !
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben