Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Achso, dass mit dem Fanboy war nur ganz zufällig im Post an mich....na dann.
Der Kontextreißer bist wohl eher du. Hab ich gesagt dass die 2x 1GB nix bringen? Nein.
Die Geometrieglättung ist bei 4xSGSSAA schon gut genug, DAS ist was für BQ Fetischisten.
Außerdem hat der User, auf dessen Post ich mich bezogen hab ja auch von 64x SGSSAA geredet und da ist die Polygonglättung in jedem Fall besser.
Ich bleibe dabei, dass der Unterschied zwischen normalem SSAA und SSAA+MSAA in der Regel nicht auffällt. Schon normales 4xMSAA bietet gute Geometriglättung, der Unterschied zu 8xSSAA ist schon schwer zu finden.
Und zu deinem Sinn machen: einfach mal nen Duden kaufen!
Du wolltest wissen, was 2x 1G bringen - nun, mehr Leistung, sofern 512M nicht mehr ausreichen. Und bei der Rohpower einer 98GX2 ist dies oft der Fall, daher "Speicherkrüppel".
Das war bezogen auf die Aussage von dem User mit dem Avatar mit dem Mädel mit den zwei Tüten und dem Knappen Top, der meinte das dies voll die tolle Couda Cheese Number Crunching Karte wäre.
Warum auch immer.
Und darauf meinte dann der, mit der ollen als Avatar, mit dem L rechts und links und dem komischen Gesichtsausdruck: boah 0 : 1.
4x RGMSAA bietet die gleiche EER für Geometrie wie 4x SGSSAA, 8x SGSSAA ist nur einen Tick besser und lohnt sich nur dann, wenn man massig Fps-Reserven oder richtig fieses Shader- oder Texturflimmern hat. Da stimme ich dir voll und ganz zu.
Felixxz21 schrieb:
Ich bleibe dabei, dass der Unterschied zwischen normalem SSAA und SSAA+MSAA in der Regel nicht auffällt.
Ich widerspreche zugunsten AMDs: Bereits 4x SGSSAA schlägt alle Modi von NV abseits der EER der Geometrie. Da diese mit 4x SGMSAA bzw. 4x SGSSAA in meinen bereits mehr als genug geglättet wird und 4x SGSSAA gegenüber 16xS den Vorteil des besseren Musters bietet, ist 4x SGSSAA imo 16xS vorzuziehen. Zumal AMDs Implementierung offensichtlich weniger Problem macht (Gerüchten zufolge ist es die Fullscreen-Version des SGSSAA-AAA).
terraconz schrieb:
Auch wenn ATI einen 64xSGSSAA Modi anbieten würde wäre er einem 32xS von Nvidia unterlegen.
Das mit dem 64x war ja auch nur ein imaginärer Vergleich des Users, auf dessen Post ich mich bezogen hatte("wenn es 64xSGSSAA gäbe, wäre der 32xS trotzdem besser.")
xS oder OGSSAA ist genauso sinnvoll oder sinnlos, wie es SGSSAA ist. 2x2 OGSSAA sah bis zum Erscheinen von 4x SGSSAA ebenfalls top aus und tut es immer noch. Oder meinst du, du erkennst auf Anhieb den Unterschied zwischen 2x2 OGSSAA und 4x SGSSAA? Das bezweifle ich nämlich massiv. Ja, der Unterschied ist zugunsten 4x SGSSAAs vorhanden, aber oft nur sehr gering, 99% aller User sehen die Differenzen erst dann wenn man mit der Lupe und einem roten Kreis anrückt.
Du willst doch nicht ernsthaft behaupten, dass man keinen Unterschied zwischen 2x2 OGSAA und 4x SGSSAA erkennen kann. 2x2 OGSSAA bietet die selbe EER auf Geometrie wie 2x RGMSAA, ergo werden Polygone bereits mit dem sehr oft verwendeten 4x RGMSAA besser geglättet. Und ich kenne sehr wenige Leute, die nicht zwischen 2x RGMSAA und 4x RGMSAA unterscheiden können. 4x RGMSAA ist für die meisten hier Standard.
Genau aus diesem Grund gibt es bei nVidia diese xS-/Hybridmodi: Um die schlechte Geometrieglättung von 2x2 OGSSAA mit RGMSAA wieder wettzumachen (auf Kosten der Leistung natürlich). Deshalb ist SGSSAA gegenüber OGSSAA auch so überlegen. Bei gleicher Perfomance hat man imo eine deutlich bessere BQ bzw. bei gleicher BQ eine spürbar bessere Perfomance. Ein Beispiel: 4x SGSSAA ist optisch gleichwertig mit nVidia's 8xSQ-TSSAA; kostet aber deutlich weniger.
Schöne Sache eigentlich, nur bin ich mal auf test gespannt was da rauskommt. aber ich finde der 92 Chip hat auch langsam ausgedient und sollte nicht mehr als News präsentiert werden.
Eine Frage an die Experten, welche AA Optionen bieten denn die Treiber "out of the box" an?!
Soll heißen, wenn ich auf Applikationsgesteuert stelle und zB in MWF2 auf 4x stelle, steuert es ja die Applikation. Welche Methode wird ausgewählt?
Die Frage ist doch nicht was möglich ist sondern was per default geboten wird aus meiner Sicht und hier sollte klar entschieden werden wer ohne config Arbeit mehr Qualität bietet.
Das habe ich ja auch nicht behauptet. Ich sehe den Unterschied, allerdings gibt's da draußen massig Leute die nicht mal erkennen, ob überhaupt Antialiasing an ist.
Mit dieser Behauptung wäre ich vorsichtig, es gibt genügend Leute, die sich nicht um AA scheren oder keine Unterschiede bei den Modi erkennen - schau dir nur mal die Kommentare bei CBs AA-Artikel an, dann weißt du was ich meine.
Genau aus diesem Grund gibt es bei nVidia diese xS-/Hybridmodi: Um die schlechte Geometrieglättung von 2x2 OGSSAA mit RGMSAA wieder wettzumachen (auf Kosten der Leistung natürlich). Deshalb ist SGSSAA gegenüber OGSSAA auch so überlegen. Bei gleicher Perfomance hat man imo eine deutlich bessere BQ bzw. bei gleicher BQ eine spürbar bessere Perfomance. Ein Beispiel: 4x SGSSAA ist optisch gleichwertig mit nVidia's 8xSQ-TSSAA; kostet aber deutlich weniger.
Eine Frage an die Experten, welche AA Optionen bieten denn die Treiber "out of the box" an?!
Soll heißen, wenn ich auf Applikationsgesteuert stelle und zB in MWF2 auf 4x stelle, steuert es ja die Applikation. Welche Methode wird ausgewählt?
Die Frage ist doch nicht was möglich ist sondern was per default geboten wird aus meiner Sicht und hier sollte klar entschieden werden wer ohne config Arbeit mehr Qualität bietet.
Per default hast du vom Treiber keine AA Modi du musst erst im Treiber einstellen das AA über Treiber "geforct" wird. Falls du meinst was ingame angeboten wird dann hängt das vom Dev an welches oder ob er überhaupt AA implementiert. In Riddick wird z.b. ingame SSAA angeboten und ich glaube in Stalker auch, aber meistens bieten die Devs ingame MSAA an.
@Diskussion über Zeitpunkt der Einführung von Multi GPU:
Ok es gab also Grafikkarten schon 1990 damit hatte ich unrecht, gebe ich gerne zu.
Aber das es keine Multi GPU Karten gab stimmt trotzdem und darauf habe ich mich mit der Aussage ja bezogen.
@Diskussion AA Modi:
Natürlich sind solche Modi nur für Bildfetischisten das sollte wohl klar sein.
@Milamber:
Ok also gibt es deiner Meinung nach keine Leute die nur Nvidia Karten kaufen und für die wäre die Karte keine Alternative bei nem günstigen Preis? Und auch im prof/bildungs Bereich denkst du es gibt keinerlei Freelancer/Kleine Firmen/Studenten die damit was anfangen können weil Tesla zu teuer ist? Ich sagte ja schon von Anfang an alles kommt auf den Preis an (wie so oft) ob sie sinnvoll ist oder nicht, ihr aber per se jeglichen Sinn abzusprechen zeugt von Engstirnigkeit.
@Milamber:
Ok also gibt es deiner Meinung nach keine Leute die nur Nvidia Karten kaufen und für die wäre die Karte keine Alternative bei nem günstigen Preis? Und auch im prof/bildungs Bereich denkst du es gibt keinerlei Freelancer/Kleine Firmen/Studenten die damit was anfangen können weil Tesla zu teuer ist? Ich sagte ja schon von Anfang an alles kommt auf den Preis an (wie so oft) ob sie sinnvoll ist oder nicht, ihr aber per se jeglichen Sinn abzusprechen zeugt von Engstirnigkeit.
Es sei denn die Karte gibts für WEIT WEIT unter 200€ -
Und selbst dann ist es fraglich ob diese Karte einen Sinn macht;
- für Spiele verkehrt sie in Regionen, die weitaus bessere alternativen darstellen.
- für Couda Cheese Anwendungen machen die single GPU G200 einfach mehr Sinn, wobei diese ja immer seltener werden (wohl weil sie nicht mehr produziert werden - man ist Charlie ein Lügner).
Selbst wenn man nun einen deutlichen Preisunterschied annimmt, gegenüber die immer seltener werdenden GTX 285, 275 und Co;
Die Karte wurde gerade erst angekündigt, kein Schwein weiss wann dieses Teil raus kommen soll. In 1-2 Monaten soll der Fermi Wunder Chip kommen. Was will man dann noch mit diesem Ding?
Noch ne Frage;
Wäre es diesen Wirbel wert, wenn es nicht eine Dual GTS 250 wäre, sondern wenn im Titel stehen würde;
"Galaxy bereitet eine übertaktete 9800 GX2 mit mehr Speicher vor"
Also wenn es stimmt das 1 GT200b besser im Numbercrunching ist als 2xG92b dann nehme ich meine Aussage bezüglich prof Bereich natürlich zurück aber wenn ich nicht falsch liege dann ist dem ja nicht so. Kennst du vielleicht aussagekräftige Benches zu dem Thema habe darüber bis jetzt eher wenig gesehen?
Aber auch dann würde immer noch die große Gruppe der Nvidia only Käufer bleiben da ich doch annehme das die Karte unter dem Preis der 285er liegen wird, die Frage ist imho nur wie weit drunter.
Zu deiner Frage, ich sehe hier keinen Wirbel den Galaxy oder Nvidia veranstalten sie haben einfach wie bei jedem neuen Produkt ne Pressemeldung rausgegeben. Das passiert auch wenn ASUS jetzt ne neue Version einer HD4870 bringen würde oder EVGA eine neue 9400GT. Aber wenn sie eine 9800GX2 mit 2x1gb Speicher und dem neuem PCB bringen würde würde ich natürlich das selbe denken (die Karte ist ja nichts anderes) ihre Leistung wäre dadurch ja nicht schlechter/besser welchen Namen sie bekommt. Und wie gesagt ich sehe dafür je nach Preis Möglichkeiten am Markt.
Was übrigens auch noch dazu kommt und vergesse wurde zu erwähnen sind andere Märkte als US/EU.
Wenn man sich ansieht das z.b. in Brasilien vorkurzem die PS2 released wurde dann gibt es vielleicht auch noch Länder in Afrika/Süd-/Lateinamerika/Teilen Asiens wo diese Karte einen Markt hat. Aber das ist natürlich reine Spekulation!
Ich persönlich sehe z.b. auch keinen Sinn in einer HD5830 oder in einer GT210 aber das heißt noch lange nicht das die Karten keinen Markt haben. Ich meine glaubt ihr wirklich die Firmen sind so dumm das sie Karten produzieren die von vorne herein keinen Markt haben? Da stecken Millionen drinnen, da wird vorher natürlich das Marktpotential abgeklärt.
@terraconz
Ich weiss nicht ob 1 GT200b besser ist, ich finde auch nur einen SLI Test der GTS 250, den welchen du auch anfangs geposetet hast, und in Spielen ist ist ein SLI Verbund so um die 10% schneller als die GTX 285 - wie sich das auf CUDA Anwendungen auswirkt, welche wohl von anderen Faktoren profitieren oder limitiert werden, weiss ich nicht.
Auf HT4U wurde die CUDA auf der GTS 250 gebencht, leider ohne vergleich zu anderen Nvidia Karten.
Ich glaub aber kaum das sich ne 285, 275 oder 260 so weit von weg bewegt, das es sich wirklich lohnt so ein Brett anzuschaffen.
Wie dem auch sei; in Spielen wäre die Karte ausser Konkurenz zu den aktuellen ATI Produkten.
Und selbst wenn ich ein Nvidia only Käufer wäre, würde ich entweder versuchen, günstig ne GTX 260 zu schießen dieser Dual GPU Karte vorziehen, oder auf den GF100 warten. Denn auch wenn es der G92b ist, es sind zwei GPUs, bringt die üblichen Dual GPU Probleme mit sich, und wird dementsprechend verbrauchen.
Auch im Bezug auf GPGPU würde ich so verfahren.
Bezüglich dem Wirbel;
Ich meinte damit, was wäre passiert, was würde man hier an kommentaren Lesen, vor allem z.B. von dir, oder denen die dieses Brett "innovativ" genannt haben, wenn es eben keine "GTS 250 X2" wäre, sondern eine "9800 GX2+" mit doppeltem Speicher, mehr Takt und weniger verbrauch.
Man möchte ja schon fast erkennen, was allein der Name zu suggerieren scheint, aber das ist ja auch Sinn und Ziel des ganzen "neuer Name und größtenteils alte Technik"-Geschichte.
Es gäbe für so eine Karte natürlich einen Markt, irgendwann, irgendwo, zu irgend einem Preis. Aber wie niedrig soll der Preis denn ausfallen? Die Karte ist fürs Übertakten ausgelegt, wie im Text steht, und hat ausserdem 2GB Speicher verbaut. Ist das nötig fürs Number Crunching?
Und wenn ich mich so durch den Preisverlauf der alten 9800 GX2 klicke, waren die Karten wohl nie unter 200, eher über 300 € zu haben. Und diese solls jetzt für unter 200€ geben? Würde mir schwer wundern, wer weiss, vielleicht ist mit bekanntgabe des Preises die ganze Diskussion total obsolet?
Aber wer weiss das schon, zum einen könnten die GPUs sonst auf dem Müll landen - zum anderen weiß man bei Nvidia, wo der G92b noch wieder verwertet werden wird.
Und bei all den Fragen, noch eine; Warum das alles wenige Wochen vor dem Fermi Wunder Chip?
Und ob sich das je nach Markt nun ändert? Ist die Karte in Brasilien denn besser als in Europa? Ist doch die selbe Karte? Klar, wenn man den Fermi in Brasilien nicht vermarktet würde, und diese dann schon ... die PS2 soll in Brasilien über 400$ gekostet haben 2008 zu ihrem release. Da würde ich kein Prof in Südamerika sein wollen, der ne CUDA Karte zum Forschen braucht ...
Der Sinn und Unsinn einer 5830 oder einer 210 ist dann auch wieder ein ganz eigenes Thema; mir persönlich klingt eine 5830 auch nicht sehr reizvoll, für ATI jedoch ist so eine Karte wichtig, da sie die zur Zeit LKW große Lücke zwischen 5850 und 5770 innerhalb der aktuellen Serie schließt, welche 50% Leistung und 120€ Aufpreis (~100%) ausmacht. Das ist gewaltig, da es sehr viele Kunden gibt, denen die 5850 zu teuer, die 5770 zu günstig/langam ist, und so entweder gar nicht kaufen oder gar zur Konkurenz wechseln.
Wo der Sinn der 210 liegt kann ich dir schlecht beantworten, ich kann diese Karte zur Zeit schlecht Einordnen da dort unten im Preissegment alles drunter und drüber geht, und ich auch nicht weiss welchen Chip sie dafür wieder neu beklebt haben. Hab jetzt grad auch nicht die Lust zu suchen.
Und ich bezweifel das in der "Entwicklung" der GTS 250 selbst Millionen an Entwicklung stecken, ansonsten könnten die Boardparnter ja nicht von einer Serie, sogar von einem Produkt X verschiedene Modelle anbieten. Man will hier schier über die Masse versuchen jeden individuellen Wunsch zu befriedigen. Ähnlich wie mit den dutzenden AMD CPUs, wo oft nur 2-3€ Unterschied sind.
Also sollte die Karte in der Entwicklung wirklich so teuer gewesen sein, es wäre eine krasse Fehlentscheidung gewesen.
Ergänzung ()
Xpect schrieb:
Sry wenns schon gepostet wurde, aber... Die GTS250 ist doch ein neuaufguss der 9800GTX+? Is dann diese Karte nich einfach eine 9800 GX2?
Mehr oder minder. Die 9800 GTX(+) ist der geshrinkte G92, also der G92b (55nm), verbraucht weniger Strom, ist höher getaktet. Die GTS 250 ist afaik das selbe wie die 9800 GTX, wurde also nur umbenannt.
Die 9800 GX2 (G92 in 65nm) ist eine 8800 GTS 512 als Dual Karte, nur mit weniger Takt.
So gesehen ist diese GTS 250 Dual GPU Karte eine 9800 GX2 mit G92b, höherem Takt und doppeltem Speicher.
Sofern die AIBs das machen, ja. Das NV-Referenzsample ist in 2D deutlich sparsamer, generell leiser, zudem anderer Kühler und Platine und nur 1x 6 Pin.
Die Leistung aber ist identisch, da 1G und gleiche Clocks/VRAM/GPU usw.