News Nvidia plant bessere SSAA-Qualität auf GeForce-Hardware

Ich kann das mit den miesen AMD/ATI-Treibern zwar nachvollziehen, finde aber trotzdem, dass die Einleitung der News total fehl am Platz ist. Schließlich geht es um NV und nicht um AMD/ATI.

@ Topic: Finde ich gut! Eine noch so potente Hardware nutzt einem nicht viel, wenn der Treiber nichts taugt. Wobei man bei den NV-Treibern ja generell keinen Grund zu meckern hat.
 
Naja, es ist schon ne Meinungsmachen mit der Aussage "AMD war die BQ egal". Das ist einfach nur ne Meinung, oder heisst nur weil der AF nicht perfekt war das AMD damit die BQ egal war? Wenn dem so ist, so ist NV die Bildqualität ja auch egal, denn da gibt es auch Baustellen was wiederum AMD besser macht. NV war auch vieles egal, hat geschummelt, hat manche Features erst später als AMD geliefert... aber das geht immer unter. Auch wenn ich mit dieser Ansicht alleine dastehe, das CB ein Fable für NV hat, steht zumindest für mich fest. Man merkt einfach wie beim einen etwas gelobt wird, und beim anderen mit dem gleichen Feature geht es quasi unter (und man wärmt längst behobene alte Kamellen auf).

Ich habe NV und AMD, und habe mit keinen Probleme... aber das CB doch teilweise sehr einseitig "Berichtet" ist IMO Fakt.
 
Sehr schöne Nachricht, wird ja auch mal Zeit :)



Kamikaze_Raid schrieb:
Wenn dem so ist, so ist NV die Bildqualität ja auch egal, denn da gibt es auch Baustellen was wiederum AMD besser macht.

Da sehe ich nichts von..

Kamikaze_Raid schrieb:
Ich habe NV und AMD, und habe mit keinen Probleme...

Ich hab auch beides. Mit AMD hatte ich die letzten Jahre das ein oder andere Problem. Bei Nvidia kann ich mich ehrlich gesagt nicht mehr genau erinnern, da sind die Probleme bei mir schon zu lange her :p
 
Naja, die letzte Schummelei von NV liegt in GTX7900 Zeiten mit dem Flimmer-AF. Evtl. sogar bei GTX7800, sie haben es dann ja auf Druck hin gefixt. Seitdem wurde soweit ich weiß nie wieder geschummelt und das AF war immer nahezu perfekt. Das ist jetzt ca. 6 Jahre her.
 
Zum Glück ist nvidia BQ nicht so egal, wie den meisten Anwesenden. :daumen:
 
Die Einleitung ist unnötige Polemik und hat im seriösen Journalismus nichts zu suchen. Aber mit dem Denken klappt es leider nicht bei jeden. Traurig nur, dass ihr euch mal wieder auf Fanboy Niveau begebt.
 
Kann mich den meisten nur anschließen. Ich nutze seit 6 Jahren nur nVidia. Egal ob Chipsatz oder GPU, ich hatte noch nie Probleme mit Treibern oder Stabilität.

Wobei meine erste ATI (einen x600) durfte mir bei Farcry noch schwarze Steine zeichnen :D Aber das waren noch andere zeiten...
 
SavageSkull schrieb:
Wow eine Steam Statistik... Na das muß auf ganz sicher auf alle "E-Sportler" zutreffen :freak:

Free BSD...
Wer unbedingt eine Gamer Grafikkarte auf einem nicht spieletauglichen OS haben will und dann auch noch als early adopter, also eine Karte die gerade so auf dem Markt ist, braucht sich nicht wundern. Ist ja leider bei jeglicher Software so, dass die erste Version eher Alpha/Beta Software ist. Das trifft auf die ersten Treiber einer neuen Grafikkarten Generation sowohl bei AMD als auch NVidia zu (siehe mikroruckler bei den Keppler Karten wegen den Taktspielen)

Kommentier ich nicht sonn Quatsch :D

FreeBSD: A Faster Platform For Linux Gaming Than Linux?
 
Zuletzt bearbeitet:
Fetter Fettsack schrieb:
Was ist daran "Meinungsmache", wenn man darauf Bezug nimmt, dass die anisotropische Filterung über Jahre hinweg Makel aufwies? Ist das denn etwa falsch?

Der Hinweis, das AMD bei der Berechnung der AF Qualität aufgrund von Sampleeinsparungen ( Hardware Bug) die letzten Jahre etwas zurücklag, wird überhaupt nicht kritisiert, das soll man ruhig in die Welt tragen, sondern die kindische Unterstellung man interessiere sich nicht für Bildqualität, was einwandfrei erkennbar pure Polemik oder wie andere schon richtig erkannt haben "Meinungsmache " ist.

Die Tatsache dass AMD bei der HD5k ( HQ) ein fast konkurrenzfähiges AF im Direktvergleich erreicht hat und bei der HD6K das Banding unter Kontrolle bekam, sowie bei der HD5K Sparse Grid Supersampling vor Nvidia eingeführt haben, sind alles Punkte die zeigen, dass AMD die Bildqualität nicht egal ist.

Solch schlechten Journalismus noch zu verteidigen und so zu tun als ob man den Grund der Kritik nicht verstehen würde, ist lächerlich.
 
Ich denke das nimm sich nicht viel nv war als erster mit shader 2.0 drausen amd hat als erster dx10.1 angeboten . Also hat immer irgendwer irgendwie den anderen beeinflusst.Nv hat als erstes auf gpu gesetzt und jetzt wieder weg bei den gamerkarten und amd geht nun den genau anderen weg.
v hat damals bei der 200 schon auf 384 und 512 bit interface gesetzt und amd war immer bei 256 und jetzt aktuell is es umgekehrt ;)
 
Zuletzt bearbeitet:
Eine gute Entwicklung. Hoffendlich erfolgt die Implementierung bald. Es ist tatsächlich ein wenig störend, das LOD manuell anpassen zu müssen.
 
Freddy72 schrieb:
Die Tatsache dass AMD bei der HD5k ( HQ) ein fast konkurrenzfähiges AF im Direktvergleich erreicht hat und bei der HD6K das Banding unter Kontrolle bekam, sowie bei der HD5K Sparse Grid Supersampling vor Nvidia eingeführt haben, sind alles Punkte die zeigen, dass AMD die Bildqualität nicht egal ist.
Das AF war bis X1k besser, danach im worst case bis heute schlechter als bei Nvidia - ergo musste AMD hier etwas tun, sie waren unter Zugzwang. SGSSAA war hingegen überraschend und definitiv ein großer sowie wichtiger Schritt - wenngleich man nicht vergessen darf, dass Nvidia schon Jahre zuvor OGSSAA und die xS-Hybriden anbot und anbietet.

@ Vitec

Crysis 3 wäre eine Option ;-)
 
Hah, back to the roots. Bei 3DFx war es in den 90ern schon möglich den LOD in den Treibereinstellungen vorzunehmen. Warum wurde das eigentlich von nvidia oder ATI entfernt?
 
LOD adjustment - habe ich mit abgestimmt im NV-Forum.

Schön, dass was dabei herumkommt wenn User Ihre Wünsche/Forderungen kund tun! :)
 
Zuletzt bearbeitet von einem Moderator: (Beitrag wiederhergestellt.)
@y33h

The following games and game engines/developers have committed to offering TXAA support so far: MechWarrior Online, Secret World, Eve Online, Borderlands 2, Unreal 4 Engine, BitSquid, Slant Six Games, and Crytek.

Das wichtigste ist wohl das due UE$ es unterstüzen wird damit dürfte es eine Ordentliche verbreitung erfahren.
Meinte Secret World aber C3 ist ja auch schon offiziell bestätigt.
Und so wie sie bei der Vorstellung der 690gtx mechwarrior online hochgelobt haben wird das auch sicher TXAA unterstützen.
Bin gespannt ob bei ersten Realtest die Performance überzeugen kann und der leichte schwammige touch wegfällt.
Und da AA ja normal sehr Vram hungrig ist ob auch hier dann eine Besserung vorhanden ist.
 
Zuletzt bearbeitet:
Einen extra Artikel nicht, NV hat eh mehrere Slides mit Entwickler- und Spiele-Namen verteilt. MMOs bin ich aber nicht drin, weiß es daher nicht aus dem Kopf - Crysis 3 hingegen hat's (sieht live gut aus) und das ist bereits public.
 
Meiner bescheidenen Meinung nach ist das größte Verdienst der Nvidia-Treiber, dass sich beliebige Kantenglättungsmodi kombinieren lassen - das habe ich bei Ati immer vermisst.
Ich frage mich, ob TXAA wirklich der Bringer ist... es kann sich ja nur noch um Kombinationsmodi handeln, oder tatsächlich um Temporal Antialiasing - das aber hat Ati/AMD schon seit Ewigkeiten. Wäre also arm, das als Neuheit zu bezeichnen (und dazu noch die Anwendungskompatibilität drastisch einzuschränken).
 
BetA schrieb:
:) Fein, dann hat die Petition und die beiträge überall endlich geholfen...



Danke an aufkrawall das er damit angefangen hat..
Mir is es auch wichtig das der LOD anpassbar gemacht wird unter dx10/11..

Bildqualität ist für mich ein wichtiger anteil vom ganzen Kuchen..Und SGSSAA lohnt wirklich...

Greetz BetA
Vielen Dank auch fürs Mitmachen. :daumen:

Sehr schön jedenfalls, dass CB drüber berichtet.
Vielleicht verringert dass die Chance, dass es im letzten Moment doch noch nicht klappt.
Wobei ManuelG aber wohl sonst auch nicht das Statement abgegeben hätte.

Die AMD SI Texturfilterung mit SGSSAA ist übrigens aller erste Sahne. ;)
 
Zurück
Oben