Der G80 bietet ja annähernd die gleiche AF Qualität des G200 und auch des Fermis.
Ich wer jetzt hier nurnoch meine Videos verlinken, auf diese Pseudo Argumente und propaganda von terraconz und anderen werde ich nicht mehr eingehen, das ist mir zu viel Arbeit.
Nun gut gehen wirs an.
terraconz schrieb:
Also wenn man sich die ganze Problematik des Fanboytums von einiger Entfernung betrachtet fällt einem erst auf wie absurd und wiedersprüchlich es ist.
Es tut mir wirklich leid, aber wenn du selbst offensichtlich im Glashaus sitzt, dann solltest du nich mit Steinen werfen.
Begründung siehe weiter unten.
Terraconz schrieb:
Anderes Beispiel wäre Stromverbrauch, wo sind denn die Fermi basher gewesen als die HD4870 draussen war und ein viel größeres Desaster als Fermi war? Sie war langsamer, viel schlechtere Bildquali, höhere Stromverbrauch und vorallem höherer Idle Stromverbrauch!
Sieh war
a) Sehr Preiswert
b) Unter Last nicht so sacklaut wie die GTX470 und GTX480
c) Das Watt Verhältnis unter last war nicht besser oder schlechter als das von dem G200.
d) man konnte den takt im idle problemlos absenken
e) Nachteil ist der Idle Stromverbrauch, der war deutlich höher.
Ratet mal was genau die selben Leute sagen würden wenn ihnen einer auf einen Fermi Strombash entgegnen würde das man ja die Spannung senken könne und somit alles in Ordnung wäre. ^^
Bei Fermi geht ja auch nicht viel, zumindest nicht beim GF100.
Ok und auf der haben Seite von Fermi steht folgendes: bessere IQ, schnellster Chip am Markt, beste Features, bester 3D Modus, beste GPGPU einbindung und besten Treibersupport.
Bester Treibersupport ist subjektiv.
Beste Features ist auch subjektiv, da ATI Eyefinity anbietet und zudem jederzeit, jetzt auch per eigenem Treiber 3D möglich ist.
Diese angebliche deutliche Mehrwert ist nicht gegeben. Wers halt braucht und auch nutzt.
Auf der negativ Seite steht: schlechtere IQ, schlechtere Treiber, schlechtere Features (damals gab es nichtmal Eyefinity als positivpunkt),
Damals war Physx auch noch geringer verbreitet und 3D Vision gabs auch nicht.
Umbennungen waren/sind sobald sie von Nvidia kommen natürlich wiedermal das pure Böse und in der Hölle geboren. Doch komischerweise werden sobald AMD sowas macht von den selben Leuten sogar ganze threads verfasst um zu "erklären" warum das arme AMD sowas tun muß.
Schwarzweißdenken.
Nvidia benennt den gleichen Chip um.
AMD benennt nicht den gleichen Chip um, sondern führt ein neues Namensschema ein.
Warum man das so oft erklären musste, lag vor allem an Leuten wie dir, die alles pauschalisieren und nicht differenzieren.
Milamber! hat wegen euch seitensweise seine Zeit verplempert.
Nvidia verlangt für eine High End GPU >400€ und die Fanboys können sich schon nimmer halten vor Gemecker. Aber sobald AMD mal in einer Marktposition ist die hohe Preise erlauben (kam nicht so oft vor) kommen die selben Leute raus und verteidigen das bis aufs Messer mit Argumenten wie "AMD soll auch mal was verdienen".
Naja, du hast auch hier scheinbar nicht korrekt recherschiert.
AMD hat den Preis der HD5870 nicht sehr hoch angesetzt, der wurde wegen mangelnder Verfügbarkeit, hoher Nachfrage und mangelnder Konkurrenz von den Händlern hochgetrieben.
Desweiteren fertigst du hier ein Klischee an um auf den Putz zu hauen, was eigentlich nicht angebracht ist.
Das ganz nebenbei seit einigen Gens noch dazu die AMD Chips viel viel billiger in der Herstellung sind und somit auch im Markt weniger kosten und Nvidia Chips allein aufgrund der Größe und Features teurer sind wird natürlich wieder geflissentlich ignoriert.
Was kann AMD dafür, wenn die Chips von nvidia größer sind.
Eins muss man dir lassen. Du verstehst es wirklich gut deinen Krampf anderen Leuten glaubhaft zu machen, indem du die Propaganda durch wertlose aber durch diese Imbrunst dann gehaltvoll werden lässt.
y33H@ schrieb:
Ah ja? Du hast mit HQ grenzperfektes AF, du hast SGMSAA und SGSSAA in allen (!) APIs, ebenso TMSAA und TSSAA, zudem noch die xS-Modi samt automatischer LoD-Verschiebung und es gibt CSAA und dank AA-Bits in diversen Spielen AA, in denen AMD keines bietet. Abgesehen von der nicht vorhandenen LoD-Verschiebung bei SGSSAA, was gibt's am AA/AF von Nvidia zu bemängeln?
Wenn man sich das das Video ansieht, sieht man nicht nur den Boden flimmern, sondern im Hintergrund alles noch derber Flimmern.
Auf beiden Karten AMD und Nvidia.
Deswegen muss sich da auch noch was tun, damit die Bildqualität insgesamt etwas mehr steigt.
Dass es dazu probate Mittel gibt, wie SGSSAA will ich gar nicht verneinen.
Schön wäre ein Treiberstandard bei dem sowohl als bei Nvidia und als bei AMD nichts flimmert und da gibts viel Bedarf, auch wenn man mit exotischen Modi das erreichen kann.
Im übrigen pickst du dir wie immer nur eine Aussage raus und verschleierst den Zusammenhang, denn ich habe geschrieben, dass AMD erstmal nachziehen müsse etc..
Wo ist NV "meilenweit von einer anstandslosen Bildqualität entfernt"?
Man versteift sich ja immer nur auf das AF am Boden.
Aber sieh dir den Kommentar von Format C an.
Oder siehst du bei den Videos im Hingerund nichts derbe flimmern?
Klar, das kann man mit exotischen Modis je nach Spielengine verbessern, aber das hat dann nichts mehr mit Treiberdefault zu tun, oder einer besseren Bildqualität allgemein.
Das ist dann Performancemäßig auch nicht vergleichbar.
Schön wäre, dass das Standardisierte MSAA zu SGSSAA weiterenwickelt wird etc..
Ich hab lediglich hingewiesen, dass es da noch viel mehr Baustellen gibt, als allein das AF.