Bericht Bericht: Radeon HD 6800

Status
Für weitere Antworten geschlossen.
Macht bitte den Fredd nicht zu, es war selten so erheiternd, wie gerade jetzt.
Der Thread hat echten Unterhaltungswert.

edit:
Wir könnten ja auch mal einen Sensationsbericht zur GTX 480 schreiben. Oft genug blinkert mich in Fallout NV etwas an, so als würde mir jemand per Handspiegel Morsezeichen übersenden wollen. Stecke ich auf die 6870 um, läuft das Spiel ohne diese "Zusatzinfos". Und nun? Die GTX 480 ist nicht defekt, die Calibre habe ich direkt von Sparkle und selbst wenn ich das Werks-OC wegnehme, bleibt der Bildfehler. Mit einer GTX460 Hawk von MSI habe ich den Effekt auch, mit meiner alten HD 5870 nicht. Würde ich mich jetzt auf nur ein einziges Spiel beziehen, könnte man fast schon eine fette Schlagzeile generieren. Dummerweise tritt dieses Paradox nur an wenigen bestimmten Stellen dieses einen Spiels auf. Ich weiß bis jetzt nicht, warum.
 
Zuletzt bearbeitet:
Also ich finde es gut, daß CB versucht, ähnliche Ergebnisse zu vergleichen, statt dumm und stur bei den Standard-Einstellungen zu bleiben und somit womöglich Äpfel und Birnen zu vergleichen.
Die Leute, die sich darüber beschweren, sind Fanboys.

@terraconz
Tjo .. Fanboys halt. Gibt's auch bei NVidia .. allerdings lange nicht so viele wie bei AMD. Bezeichnend ist vor allem der Spruch:
"AMD soll auch mal was verdienen."

@Schaffe89
Was für Videos?
 
Zuletzt bearbeitet:
Gothic 4/Left4 Dead/Mass Effect2/Modern Warfare2/Medal of Honor/Battlefield Bad Company/MafiaII/Time Shift/Dragon Age Origins und Far Cry2.
Weitere Spielvorschläge nehme ich gerne an, hab eh alles da. ^^
Saubere Sache Schaffe, sehr schön das du dir dafür Zeit nimmst. Auf Dragon Age bin ich besonders gespannt. Das beste an der Sache bei dir, du vergleichst es mit dem G80, viele wollen ja grad von so einer Karte auf die neuen HD 6 umsteigen. Sehr guter Ansatz!

Darf ich noch Empire: Total War vorschlagen. Gibs vorallem irgend welche Treiberproblemchen mit der HD 6 und dem Game?
 
Schaffe89 schrieb:
Von einer anstandslosen Bildqualität ist auch Nvidia meilenweit davon entfernt, wenn man penibel ist.
Ah ja? Du hast mit HQ grenzperfektes AF, du hast SGMSAA und SGSSAA in allen (!) APIs, ebenso TMSAA und TSSAA, zudem noch die xS-Modi samt automatischer LoD-Verschiebung und es gibt CSAA und dank AA-Bits in diversen Spielen AA, in denen AMD keines bietet. Abgesehen von der nicht vorhandenen LoD-Verschiebung bei SGSSAA, was gibt's am AA/AF von Nvidia zu bemängeln? Und jetzt komm mir nicht mit MLAA, das ist ein Post-Process-Filter. Denn dann zähle ich dir noch das Treiber-SSAO von NV auf und GPU-PhysX, was je nach Sichtweise die Bildqualität ebenfalls steigert.

Wo ist NV "meilenweit von einer anstandslosen Bildqualität entfernt"? :rolleyes:
KLEMSI schrieb:
Auch die AA-Optimierungen sollten mal genauer betrachtet werden. Das Verhältnis von Standard, 4xAA und 8xAA paßt einfach nicht. Und hier wird auch an der Qualität gespart. Entweder bei 4xAA von Nvidia oder bei 8xAA von AMD.
NEIN! Das SGMSAA ist praktisch identisch, das sind Architekturmerkmale bzw. chipinterne Optimierungen, aber KEINE Qualitätseinsparungen! Wie oft noch?
 
@terraconz

Das Hauptentscheidungsmerkmal für eine Grafikkarte ist nun mal der Preis bzw. das Preisleistungsverhältnis.
AMD hatte die 5870 und 5850 für 250 bzw. 200 Euro zum Verkaufsstart, und dann um einige Euros erhöht. (10-20 so ca. glaube ich waren das) Der Rest war reine Marktwirtschaft. Angebot und Nachfrage, du verstehst? Da haben halt die Händler gut verdient, welche liefern konnten! Würde um die Nvidia-Karten so ein "Griss" sein, dann würden deren Preise auch steigen, da passiert aber momentan eher das Gegenteil!
 
Canopus schrieb:
Also weil CB AMD unterstellt, AMD würde aufgrund der Balkenlänge an der Bildausgabe sparen, wird nun AMD von CB Restriktionen erfahren.

Als Intel eine Milliarde Euro Strafe zahlen musste, wegen illegaler Praktiken, Intel noch weiter von andere Staaten verurteilt wurde, hat CB auch nicht Intel 10 FPS abgezogen, weil Intel das nur wegen (CB benutzt das ja auch) den Geschäftspraktiken erreicht hat.
Oh man was ist das denn hier für einen KIndergarten?
"Heul, mein Lieblingshersteller wird benachteiligt, heul."

Wie verblendet kann man sein?
Hier werden keine Sanktionen verhängt, sondern bei vergleichbarer Qualität getestet. Das normalste der Welt.

Was hat Intels Geschäftsgebaren mit der Leistung derer CPUs zu tun? Sind die jetzt langsamer oder was?
Hier werden Produkte getestet und nicht irgendwie Produkte an den an den ökonomischen Handlungen ihrer Hersteller bewertet.
 
Es sind Optimierungen!

Wenn der Leistungsvorsprung ohne AA auf 4xAA ansteigt, warum sollte er dann architekturbedingt bei 8xAA abfallen? Das ist unlogisch und nicht auf die Architektur zurückzuführen! Logisch müsste der Vorsprung eigentlich größer werden.

Bei AF wird optimiert und bei AA nicht? In welcher Traumrealität lebst du eigentlich?

Übrigens: Auch wenn du groß Schreibst werden deine Behauptungen nicht glaubwürdiger! ;-)
 
Zuletzt bearbeitet:
Ja, im Chip und Treiber :freak:

Die Qualität von 2x / 4x / 8x SGMSAA aber ist identisch. Willst du es nicht verstehen?
 
Der G80 bietet ja annähernd die gleiche AF Qualität des G200 und auch des Fermis.

Ich wer jetzt hier nurnoch meine Videos verlinken, auf diese Pseudo Argumente und propaganda von terraconz und anderen werde ich nicht mehr eingehen, das ist mir zu viel Arbeit.
Nun gut gehen wirs an.

terraconz schrieb:
Also wenn man sich die ganze Problematik des Fanboytums von einiger Entfernung betrachtet fällt einem erst auf wie absurd und wiedersprüchlich es ist.

Es tut mir wirklich leid, aber wenn du selbst offensichtlich im Glashaus sitzt, dann solltest du nich mit Steinen werfen.
Begründung siehe weiter unten.

Terraconz schrieb:
Anderes Beispiel wäre Stromverbrauch, wo sind denn die Fermi basher gewesen als die HD4870 draussen war und ein viel größeres Desaster als Fermi war? Sie war langsamer, viel schlechtere Bildquali, höhere Stromverbrauch und vorallem höherer Idle Stromverbrauch!

Sieh war
a) Sehr Preiswert
b) Unter Last nicht so sacklaut wie die GTX470 und GTX480
c) Das Watt Verhältnis unter last war nicht besser oder schlechter als das von dem G200.
d) man konnte den takt im idle problemlos absenken
e) Nachteil ist der Idle Stromverbrauch, der war deutlich höher.

Ratet mal was genau die selben Leute sagen würden wenn ihnen einer auf einen Fermi Strombash entgegnen würde das man ja die Spannung senken könne und somit alles in Ordnung wäre. ^^

Bei Fermi geht ja auch nicht viel, zumindest nicht beim GF100.

Ok und auf der haben Seite von Fermi steht folgendes: bessere IQ, schnellster Chip am Markt, beste Features, bester 3D Modus, beste GPGPU einbindung und besten Treibersupport.

Bester Treibersupport ist subjektiv.
Beste Features ist auch subjektiv, da ATI Eyefinity anbietet und zudem jederzeit, jetzt auch per eigenem Treiber 3D möglich ist.
Diese angebliche deutliche Mehrwert ist nicht gegeben. Wers halt braucht und auch nutzt.
Auf der negativ Seite steht: schlechtere IQ, schlechtere Treiber, schlechtere Features (damals gab es nichtmal Eyefinity als positivpunkt),

Damals war Physx auch noch geringer verbreitet und 3D Vision gabs auch nicht.

Umbennungen waren/sind sobald sie von Nvidia kommen natürlich wiedermal das pure Böse und in der Hölle geboren. Doch komischerweise werden sobald AMD sowas macht von den selben Leuten sogar ganze threads verfasst um zu "erklären" warum das arme AMD sowas tun muß.

Schwarzweißdenken.
Nvidia benennt den gleichen Chip um.
AMD benennt nicht den gleichen Chip um, sondern führt ein neues Namensschema ein.
Warum man das so oft erklären musste, lag vor allem an Leuten wie dir, die alles pauschalisieren und nicht differenzieren.
Milamber! hat wegen euch seitensweise seine Zeit verplempert.

Nvidia verlangt für eine High End GPU >400€ und die Fanboys können sich schon nimmer halten vor Gemecker. Aber sobald AMD mal in einer Marktposition ist die hohe Preise erlauben (kam nicht so oft vor) kommen die selben Leute raus und verteidigen das bis aufs Messer mit Argumenten wie "AMD soll auch mal was verdienen".

Naja, du hast auch hier scheinbar nicht korrekt recherschiert.
AMD hat den Preis der HD5870 nicht sehr hoch angesetzt, der wurde wegen mangelnder Verfügbarkeit, hoher Nachfrage und mangelnder Konkurrenz von den Händlern hochgetrieben.
Desweiteren fertigst du hier ein Klischee an um auf den Putz zu hauen, was eigentlich nicht angebracht ist.

Das ganz nebenbei seit einigen Gens noch dazu die AMD Chips viel viel billiger in der Herstellung sind und somit auch im Markt weniger kosten und Nvidia Chips allein aufgrund der Größe und Features teurer sind wird natürlich wieder geflissentlich ignoriert.

Was kann AMD dafür, wenn die Chips von nvidia größer sind.
Eins muss man dir lassen. Du verstehst es wirklich gut deinen Krampf anderen Leuten glaubhaft zu machen, indem du die Propaganda durch wertlose aber durch diese Imbrunst dann gehaltvoll werden lässt.

y33H@ schrieb:
Ah ja? Du hast mit HQ grenzperfektes AF, du hast SGMSAA und SGSSAA in allen (!) APIs, ebenso TMSAA und TSSAA, zudem noch die xS-Modi samt automatischer LoD-Verschiebung und es gibt CSAA und dank AA-Bits in diversen Spielen AA, in denen AMD keines bietet. Abgesehen von der nicht vorhandenen LoD-Verschiebung bei SGSSAA, was gibt's am AA/AF von Nvidia zu bemängeln?

Wenn man sich das das Video ansieht, sieht man nicht nur den Boden flimmern, sondern im Hintergrund alles noch derber Flimmern.
Auf beiden Karten AMD und Nvidia.
Deswegen muss sich da auch noch was tun, damit die Bildqualität insgesamt etwas mehr steigt.
Dass es dazu probate Mittel gibt, wie SGSSAA will ich gar nicht verneinen.
Schön wäre ein Treiberstandard bei dem sowohl als bei Nvidia und als bei AMD nichts flimmert und da gibts viel Bedarf, auch wenn man mit exotischen Modi das erreichen kann.
Im übrigen pickst du dir wie immer nur eine Aussage raus und verschleierst den Zusammenhang, denn ich habe geschrieben, dass AMD erstmal nachziehen müsse etc..

Wo ist NV "meilenweit von einer anstandslosen Bildqualität entfernt"?

Man versteift sich ja immer nur auf das AF am Boden.
Aber sieh dir den Kommentar von Format C an.
Oder siehst du bei den Videos im Hingerund nichts derbe flimmern?
Klar, das kann man mit exotischen Modis je nach Spielengine verbessern, aber das hat dann nichts mehr mit Treiberdefault zu tun, oder einer besseren Bildqualität allgemein.
Das ist dann Performancemäßig auch nicht vergleichbar.
Schön wäre, dass das Standardisierte MSAA zu SGSSAA weiterenwickelt wird etc..
Ich hab lediglich hingewiesen, dass es da noch viel mehr Baustellen gibt, als allein das AF.
 
Zuletzt bearbeitet:
KLEMSI schrieb:
@terraconz

Das Hauptentscheidungsmerkmal für eine Grafikkarte ist nun mal der Preis bzw. das Preisleistungsverhältnis.
AMD hatte die 5870 und 5850 für 250 bzw. 200 Euro zum Verkaufsstart, und dann um einige Euros erhöht. (10-20 so ca. glaube ich waren das) Der Rest war reine Marktwirtschaft. Angebot und Nachfrage, du verstehst? Da haben halt die Händler gut verdient, welche liefern konnten! Würde um die Nvidia-Karten so ein "Griss" sein, dann würden deren Preise auch steigen, da passiert aber momentan eher das Gegenteil!

Ähm in welchem Land hatten die Karten diese Preise?
Ich zitiere mal das CB Review zur HD5870:
Laut ATi wird die Radeon HD 5870 zu einem Preis von etwa 350 Euro an den Start gehen, wobei es durchaus sein kann, dass der tatsächliche Marktpreis leicht von unseren Angaben abweichen wird. Zudem werden die Kosten für den 3D-Beschleuniger vor allem in den Anfangstagen wahrscheinlich stark variieren. Die ersten Karten sollen bereits heute, dem Tag der Vorstellung, im Handel erhältlich sein. Wie groß die Stückzahl sein wird, wissen wir aber nicht. Die Radeon HD 5850 soll dagegen noch einige Tage auf sich warten lassen. Der voraussichtliche Preis liegt bei 229 Euro.

Und ausserdem meckere ich nicht über die Preise sondern habe versucht anhand von Beispielen aufzuzeigen das diverse Gruppierungen bei Hersteller A über ein Problem meckern und bei Hersteller B einige Jahre/Monate später das selbe Problem plötzlich keines mehr ist.

Edit:
@Schaffe:


Sieh war
a) Sehr Preiswert
b) Unter Last nicht so sacklaut wie die GTX470 und GTX480
c) Das Watt Verhältnis unter last war nicht besser oder schlechter als das von dem G200.
d) man konnte den takt im idle problemlos absenken
e) Nachteil ist der Idle Stromverbrauch, der war deutlich höher.

a) ja
b) Ähm moment die Fermis gab es damals noch gar nicht also bitte vergleichen mit der damaligen Konkurrenz, denn es geht ja um das Verhalten der Fanboys zum damaligen Zeitpunkt im Vergleich zu Heute
c) Ja das Watt Verhältnis von Fermi ist unter Idle auch nicht viel schlechter als das einer HD58xx Karte und trotzdem kann man Fermi nicht grad ein Wunder an Green IT nennen, oder? Ausserdem rennt der PC die meiste Zeit im Idle das ist es was die Kosten verursacht und nicht die Paar Stunden pro Woche die ein PC (oder besser eine Graka) unter Last läuft.
d) Und mit "Man" meinst du Otto normal DAU der z.b. bei uns im Markt seine Grafikkarte kauft oder meinst du mit "Man" vielleicht die 2% der Käufer (ACHTUNG Zahlen reine Spekualtion) die das auch tun/können
e) stimmt

Bei Fermi geht ja auch nicht viel, zumindest nicht beim GF100.

Achso na dann ........... ! ^^
Du merkst aber schon worum es geht oder? Es geht doch nicht darum ob und wieviel man selbst noch rausholen kann sondern wie die Karte auf den Markt kommt.
Ich kann Fermi auch unter Wasser setzten und habe plötzlich ne flüsterleise Karte und trotzdem kann ich nicht sagen das Fermi Karten generell leise sind. Genauso gilt für den Verbrauch das man sich wahrscheinlich auch selber ein BIOS schreiben kann um Fermi weniger Verbrauch zu entlocken doch auch das machen sowenige das man das kaum als Argument hernehmen kann. Und genau darauf wollte ich hinaus, klar kann man auch bei ner HD4870 den idle Verbrauch in Griff bekommen aber so nen Workaround als Lösung zu präsentieren halte ich doch für gewagt.

Bester Treibersupport ist subjektiv.
Beste Features ist auch subjektiv, da ATI Eyefinity anbietet und zudem jederzeit, jetzt auch per eigenem Treiber 3D möglich ist.
Diese angebliche deutliche Mehrwert ist nicht gegeben. Wers halt braucht und auch nutzt.

Ähm nein ist es nicht!
Das Nvidias Treiber bei weitem mehr bieten als AMDs sollte auch dem letzten klar sein denke ich.
Ok also weil ATI Eyefinity anbietet haben sie mehr/bessere Features als Nvidia atm? Das mit 3D kannst übrigens eh schnell wieder vergessen da AMDs Lösung hier meilen hinter 3D Vision zurück liegt. Was ist denn mit den ganzen tollen Anwendungen für Stream? Wo sind die? Wo ist AMDs Physx pendant und wieviele Spiele supporten das (egal ob GPU oder CPU)? Was ist mit der für GPGPU immens wichtigen DP Leistung? Was ist mit High Quality AF? Was ist mit SSAA in DX10/11? Was ist mit etwas vergleichbaren zu TWIMTBP? Aber ok AMD hat Eyefinity!

Damals war Physx auch noch geringer verbreitet und 3D Vision gabs auch nicht.

3D Vision wurde von Nvidia der breiten Öffentlichkeit zur CES (Jänner) 2009 präsentiert und das war nur der Zeitpunkt als Nvidia ihre Brille plus Sensor präsentierten im Treiber selbst gab es die Option schon ne Zeit vorher. Aber gut nehmen wir der Einfachheit halber an du hast recht und es gab kein 3D Vision und Physx dümpelte in der Bedeutungslosigkeit herum. Was bleibt also auf Seiten von AMD (Eyefinity gabs ebenso wenig) hmm ach ja der Preis! Und auf Seiten von Nvidia gab es CUDA, TWIMTBP (seit 2002), mit gewaltigem Abstand bestes AF, bestes AA egal ob Modivielfalt oder Qualität, bessere Treiber.

Schwarzweißdenken.
Nvidia benennt den gleichen Chip um.
AMD benennt nicht den gleichen Chip um, sondern führt ein neues Namensschema ein.
Warum man das so oft erklären musste, lag vor allem an Leuten wie dir, die alles pauschalisieren und nicht differenzieren.
Milamber! hat wegen euch seitensweise seine Zeit verplempert.

Doch genau das tun sie, sie bringen ne etwas aufgebohrte 5750 als 6850 und ne 5770 als 6870.
Keiner hat Milamber gebeten seine Zeit zu "verplempern" ihm scheint also von selbst etwas dran gelegen zu sein sonst hätte er es nicht getan.


Naja, du hast auch hier scheinbar nicht korrekt recherschiert.
AMD hat den Preis der HD5870 nicht sehr hoch angesetzt, der wurde wegen mangelnder Verfügbarkeit, hoher Nachfrage und mangelnder Konkurrenz von den Händlern hochgetrieben.
Desweiteren fertigst du hier ein Klischee an um auf den Putz zu hauen, was eigentlich nicht angebracht ist.

Die GTX480 hat ne Die size von 529mm² und 3,2 Milliarden Transistoren bei einer UVP von 479€ bei release
Die HD5870 hat ne Die size von 334mm² und 2,15 Milliarden Transistoren bei einer UVP von 350€ bei release (wurde ne Zeit später von AMD angehoben)
Wer jetzt überteuert ist kann sich jeder ausrechnen.

Was kann AMD dafür, wenn die Chips von nvidia größer sind.
Eins muss man dir lassen. Du verstehst es wirklich gut deinen Krampf anderen Leuten glaubhaft zu machen, indem du die Propaganda durch wertlose aber durch diese Imbrunst dann gehaltvoll werden lässt.

AMD kann nichts dafür das Nvidia große Chips baut!
Aber man sollte den preis im Verhältnis sehen zu dem was man bekommt. Will man die ganzen Features der Nvidia Karten kommt eben ein großer Chip raus der auch entsprechend kostet (dafür sogar noch günstiger ist im Vergleich zu AMD, siehe 2 Quotes weiter oben), wer die Features nicht will der sollte natürlich auf AMD setzten im High End. Aber mal ganz ehrlich warum kauft man sich eine High End Karte? Sicherlich nicht um sich über den Stromverbrauch oder den Preis zu beschweren, sondern um beste mögliche IQ gepaart mit modernem Featureset und vielen Extra Features zu bekommen.
 
Zuletzt bearbeitet:
@ klemsi

mach du dich doch bitte auf die suche nach den (negativen) optimierungen beim AA, statt hier so ein schrott zu verbreiten.

und suche bitte soooo lange, bis du etwas negatives gefunden hast und erst "dann" schreibe hier weiter.

meine güte....seit 10 seiten so ein müll schreiben.

mfg
 
Du willst es nicht verstehen!

kein AA --> 10% Vorsprung
4x AA braucht mehr Rechenleistung --> 20% Vorsprung
8x AA braucht noch mehr Rechenleistung --> sollten dann eigentlich so ca. 40% Vorsprung sein! (Die Architektur ändert sich ja bei einem Chip nicht!) Es sind aber dann nur mehr 10% Vorsprung.
Ergänzung ()

Sorry hab mich vertan! Waren 300 und 250! Sonst stimmt aber was ich geschrieben habe. 350 war die UVP!
Ergänzung ()

Wie schon geschrieben: Wenn man etwas nicht sehen will,...

Aber das AF-Flimmern sehen alle, obwohl Wolfgang selber schreibt das es fast nur auf High-End-Monitoren einen Unterschied zu bemerken gibt!
 
KLEMSI schrieb:
Ich fasse mal zusammen:

Ich habs betreits angesprochen! Wenn man großen Aufdeckerjournalismus betreibt, sollte man alle Seiten betrachten! Nicht nur die AF-Schummelein müssen aufgedeckt werden. Auch die AA-Optimierungen sollten mal genauer betrachtet werden. Das Verhältnis von Standard, 4xAA und 8xAA paßt einfach nicht. Und hier wird auch an der Qualität gespart. Entweder bei 4xAA von Nvidia oder bei 8xAA von AMD.

Der Flimmerunterschied wird von CB vor allem auf einem High-End-Monitior gesehen. Auf manchen TN-Panels gar nicht auf besseren TN-Panels nicht so stark. Das relativiert das ganze schon um einiges. Danke Wolfgang für diese Aussage.

Ich hinterfrage alles so weit es geht. Die Geschäftspraktiken sind in der heutigen Zeit aber doch sehr rau! Jeder optimiert (auch Nvidia) und gespart wird beim Kunden. Aber so wie dieses Thema momentan gehyped wird siehts für mich so aus als würden doch einige Hardwareseiten direkt von Nvidia bezahlt. Wenn schon Spiele gekauft werden, warum nicht auch Hardwareseiten?

Die Statistiken auf Steampowered sprechen auch Bände! Da siehts schlecht aus für Nvidia und in die enge Getrieben, fangen Tiere zu beissen an! Außerdem denke ich, das Nvidia momentan einfach zu teuer produziert (Chipfläche) und mit AMD einfach nicht mithalten kann. Sieht man z.B. im Preisverfall von Nvidiakarten. Die AMD-Karten halten die Preise hingegen doch sehr. Meine 5870 um 320,- war echt ein guter Kauf und auch nach einem Jahr zählt sie noch zu den schnellsten Karten.


Nur das was du schreibst hier vollkommender Blödsinn ist. ;)
Nvidia schummelt ganz sicher nicht beim AA, sonst würde man es ja auf den Screens sehen.
Davon abgesehen hinterfragst du hier Sachen, die seit Jahren Standard sind bzw. es Referenzimplentierungen gibt .

kein AA --> 10% Vorsprung
4x AA braucht mehr Rechenleistung --> 20% Vorsprung

Natürlich ist das architekturbedingt .
 
Alles hängt von der Architektur ab, das ist schon klar!
Aber dann müsste logischerweise der Vorsprung unter 8xAA noch größer werden! Warum zitierst du das nicht?
Hier verkleinert sich aber der Vorsprung! Warum? y33h@ erklärt es mit Architektur, dass wäre aber unlogisch.

Ich habs extra leicht und verständlich aufgelistet und du zitierst mich teilweise...
 
Zuletzt bearbeitet:
Warum ist das unlogisch? Die eine Architektur + Treiber kann eben 8x MSAA besser, die andere 4x MSAA.
 
der abstand wird unter umständen kleiner, weil die rechenpower der GPU am ende ist bzw. mehr als ausgereizt ist und/oder auch der speicher geht aus ;)

also wo wird hier optimiert??

mfg
 
engineer123 schrieb:
sehr nett was hier für eine diskussion abgeht.

Der markt hat mittlerweile schon entschieden wer sieger ist:

topseller bei alternate

auflistung gtx serie

auflistung hd 6000 serie

neben der schlechteren bildqualität der hd 6850 und 6870 kosten sie mehr und sind vor allem gar nicht mehr erhältlich. Die gtx 460 geht derweil weg wie warme semmeln.
Tja, amd, wieder schlecht die produktion geplant, und wieder in die röhre geschaut. Lol.

Cool, die gigabyte gtx 460 oc hat mittlerweile schlappe 105 bewertungen auf der produktseite.


Die GTX460 ist länger auf dem Markt und zu Alternates Topsellern gehört auch ZackZack die die GTX460 in dieser betitelten Version (übrigens die schlechteste und billigste am Markt) letzte Woche unters Volk gebracht haben.



ex()n schrieb:
ich weiß zwar nicht ob das jemand vorhin im thread schon erwähnt hat, aber ich schreibe es
trotzdem mal, einfach zu lang die grundsatzdiskussion amd/nv durchzulesen.

Im fazit wird geschrieben: "anders als amd angibt, funktioniert mlaa derzeit übrigens nur unter directx 9. Amd hat uns dies mittlerweile bestätigt und erklärt, dass es sich dabei um einen fehler handelt."

warum kann cb nicht auch gleich die problematik der definitionsänderung der einstellungen im treiber ansprechen? Warum wurden die 5xxx runtergestuft auf "6xxx niveau"? Treiberfehler, oder so gewollt? Das sind fragen die mich brennend intreressieren.

Im letzten abschnitt wird dies als "geschäftspraktik" umschrieben, die keine unterstützung finden soll. Warum wird da nicht an dieser stelle explizit bei amd nachgehackt?!
Oder habt ihr von amd bestätigt bekommen, dass alles so seine richtigkeit hat und das wir user uns nun mit der geringeren bildqualität zufrieden geben müssen?


das habe ich auch schon angesprochen, scheint aber niemand wirklich zu hinterfragen. Meine Vermutung ist, dass ATI einfach alles aus den Karten bezüglich Balkenlänge rausholen will. Der Grund ist einfach, Fermi V.2 (GTX580 wie auch immer) ist kein großer Wurf und ATI wird mit den neuen Karten das Rad nicht neu erfunden haben aber es dürfte reichen um die neuen Nvidia Modelle hinter sich zu lassen. Da zählt eben jeder Prozentpunkt.
 
KLEMSI schrieb:
Die Geschäftspraktiken sind in der heutigen Zeit aber doch sehr rau! Jeder optimiert (auch Nvidia) und gespart wird beim Kunden.
Das ist doch nicht wahr, der Kunde bekommt, wonach er schreit. Dass das nicht immer in seinem Interesse ist, sieht er aber nicht.
 
y33H@ schrieb:
Macht AMD auch *Schulter zuck*

Das war wieder völlig unnötig, und das weißt du auch. Oder auf was beziehst du dich jetzt? OEM Markt? Lächerlich.
Wenn du endlich mal deine Scheuklappen abnehmen würdest, würdest du auch anstatt mich, mal Kommentare wie Terraconz zitieren und diese richtig stellen.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben