News Sparkle bringt schnellere GeForce 9800 GTX+

@ CBOT
Schön, danke. Und bevor du das schreiben konntest musstest du unhöflich werden?

Und btw, CSS ist CPU-Limitiert, da merkt man den Unterschied zwischen genannten Karten garnicht ;).
 
mat_2 schrieb:
@ CBOT
Schön, danke. Und bevor du das schreiben konntest musstest du unhöflich werden?

Und btw, CSS ist CPU-Limitiert, da merkt man den Unterschied zwischen genannten Karten garnicht ;).


Ich wurde nicht Unhöflich, ich mag es nur nicht wenn mir von jemanden der die bedeutung von GPU nicht mal weiß ohne bei Wiki nach zuschauen Dinge unterstellt die nicht der Wahrheit entsprechen.
Das CSS CPU Limitierend ist weiß ich selbst, sollte auch nur ein Denk anstoss sein.
 
außerdem muss ich hier mal sagen, dass cbot noch überhaupt keine meinung zu der performance der karten oder ähnlichem abgegeben hat.
er hat nur betont das sie interessant ist und er sie sich deshalb mal angeschaut hat!!!

außerdem brauch man sich hier nichts von mikroruckler oder dem v-ram bug an die köpfe werfen weil die meißten nicht in 1920x1650mit AA/AF oder so spielen da man da zu meißt eh schon genug andere ruckler hat die die bugs keine rolle mehr spielen.

für die die da flüssig spielen wollen die sollten sich eh andere karten ansehen. das ist nämlich die mittelklasse.
und keine luxus graka!!! da wird nicht in Doppel-full-hd gespielt
 
Also es hängt immer vom Anwendungsbereich ab.
Ich spiele sehr gerne Gothic 3 und sicher auch das kommende Add-on, ansonsten ist der PC zu mehr als 90% in 2D betrieb.
Bei der Gothic-engine ist die 9800GTX+ deutlich schneller (in 1920x1200 mehr als 10 FPS -> siehe Test auf CB) als die HD4870 und im idle braucht die NV Karte auch deutlich weniger Strom und bleibt generell kühler.

Jeder sollte sich die Karte suchen die für seine Ansprüche gut ist.
 
Zuletzt bearbeitet:
CBOT schrieb:
außerdem brauch man sich hier nichts von mikroruckler oder dem v-ram bug an die köpfe werfen weil die meißten nicht in 1920x1650mit AA/AF oder so spielen da man da zu meißt eh schon genug andere ruckler hat die die bugs keine rolle mehr spielen.

Kann ich nicht bestätigen...
 
Liebe Leute, wäre es möglich sich wieder dem eigentlichen Thema des Threads zu widmen und diverse Auseinandersetzungen per PN fortzusetzen anstatt damit den Thread zu schreddern?
 
die Karte muss schon unter 150 Euro fallen damit sie attraktiv wird, immerhin dürfte der Kühler besser als bei der 4850 für 130 Euro sein.
 
Ich denk mal in einigen wochen, hat sich der preis auch hier angepasst (gleiches ist ja bei der GTX 260 auch passiert ;))
Und für ca. 120-130 euro wird sie eine überlegung wert sein, zumal sie für die 1024*1280 mehr als ausreicht und für die meisten games auch in 1680*1050, außer man muss unbedingt mit 8 fach AA spielen....
Was ich allerdings nicht verstehe warum noch eine 9800 GT eingeführt wurde, meiner meinung nach hat sie absolut keine daseinsberechtigung mehr...
Den dann müsste man sie schon für ca. 80 euro verkloppen und dann kommt sie anderen karten wieder in die quere.....
NV sollte ihr angebot wirklich mal einwenig überdenken und eindämmen, viele produkte sind zwar schön da dann die auswahl groß ist, aber bei den preisen versauen sie sich selbst das geschäft.
Durch das werksseitige OC wird die karte der 4850 in manchen games ganz schön feuer unter arsch machen und wenn man sie selber noch gut übertakten kann.
Denke ich steht ihr nichts mehr im weg.

mfg
 
Wer erzählt hier eigendlich dauern die 4850 sei billiger ?
Die wird vom Preis fast ähnlich der neuen Sparkle karte gelistet und die 4870 ist dann um
einiges teurer und kletter über die 200 Euro. Die 9800 gtx+ ist ne sehr gute Karte und
wenn ich hier so die Meinungen höre kommt der Müll doch nur aus den ATI oder Nvidia Lagern.
Ich habe beides schon verbaut gehabt und habe damals mit ATI übelst Pech gehabt, vom mangelndem damaligem Treiber Support nicht zu sprechen, nur wenn ich so sprüche höre kommt mir die Wurst. Die Nvidia Chips sind genauso gut wie die ATi Chips die boxen sich doch
gegenseitig um den Thron und es ist jedem selbst überlassen wo er sein geld raushaut.
 
"9800GTX+ Plus"? Also manchmal Frage ich mich echt, welche Marketingmanager hinter solchen Verbrechen hocken:rolleyes:
Aber ansonsten: guter Preis für ne nVidia-Karte, für mich jedoch gänzlich uninteressant:o
 
Zuletzt bearbeitet:
blackboard schrieb:
"9800GTX+ Plus"? Also manchmal Frage ich mich echt, welche Marketingmanager hinter solchen Verbrechen hocken:rolleyes:
Aber ansonsten: guter Preis für ne nVidia-Karte, für mich jedoch gänzlich uninteressant:o

kann mich dem nur anschließen! für 150 € kann man nicht meckern... was aber schade ist, ist die wirklich bescheuerte Produktbezeichnung! man hätte das Ding doch einfach 9850GTX oder 9900GTX nennen können! schließlich stirbt die 9er Reihe doch aus... oder kommt vielleicht doch noche ein 92c raus, der dann zum Ultra mutiert? wäre bei den Grünen derzeit keine Überraschung!
 
wie wärs mit der neuen Geforce 9800Gtx + nonplusultra, basierend auf dem im 45 nm angefertigtem g92c
taktraten: 900 mhz gpu, 2200 mhz shader, und der 1 gb grosse gddr5 speicher mit 4000mhz, das ganze für ~120€
das wär mal nen teil^^
 
Der Preis ist in Ordnug,wenn er bei 160€ liegt, ne echte Kampfansage ist das in meinen Augen aber nicht, die 4850 kostet zuzeit ca. 135€ und ist mit aktiviertem AA und AF deutlich schneller als eine 9800GTX+.
Wenn man noch knapp 40€ übrig hat kann man sich aber auch gleich eine 4870 kaufen, die schlägt die 9800gtx+ logger.
 
cuco schrieb:
außerdem brauch man sich hier nichts von mikroruckler oder dem v-ram bug an die köpfe werfen weil die meißten nicht in 1920x1650mit AA/AF oder so spielen da man da zu meißt eh schon genug andere ruckler hat die die bugs keine rolle mehr spielen.

Was aber ist mit Spielen, die durch Mods höher aufgelöste Texturen erhalten? Ich denke da z.B. jetzt an Oblivion. Wenn ich viel hoch aufgelöste Texturen habe, machen die sehr schnell meinen Grafikspeicher voll, egal ob ich in 1024x768 oder in 1920x1650 spiele oder sehe ich das jetzt falsch? Das mag nur bei sehr wenigen Spielen überhaupt zutreffen, aber wenn es leider hauptsächlich diese Spiele sind, die man spielt finde ich das gar nicht so irrelevant.
 
@Bensen...wie soll der chip kleiner sein als der von den R770 wenn beide (G92b und R770) in 55nm sind?
ich finde nur das design ansprechend... sparkle sollte auch langsam einsehen, dass nVidia diese runde an ATi verloren hat...
 
was ist das denn für eine frage? der chip ist ja keine 55nm groß, sondern die gate länge der transistoren misst 55nm.
wenn nun die transistoren annähernd gleich groß sind und der g92b weniger transistoren besitzt sagt mir mein verstand das der chip kleiner sein sollte
 
Diese ganzen ATI Spinner echt. Man Man Man.....

Wenn Ihr so geil auf die Karten seid dann ist es ja schön sind ja auch in Preisleistung Geschichte super. Aber dann dennoch bitte nicht in jedem Thread der letzten Tage "geile ati nvidia kann einpacken usw"

Wenn Nvidia für Euch so Rotz ist obwohl ihr bestimmt alle bzw. die Meisten ne G80 drin hatten dann postet doch in solchen Threads nicht über Eure ATI Karten um die es gar nicht dabei geht!

Belastend..... Nun buttert wieder paar Texte, von mir kommt kein weiteres Statement in diesem Thread..

greetz: BLaKe
 
@bensen
G92b soll sogar leicht größer als RV770 sein, trotz weniger Transistoren.

Dafür ist man nicht auf voll funktionsfähige Chips angewiesen.
Sieht man ja an G92, auf 65€ Karten findet man noch den 334mm² Chip. Da hat die Konkurrenz nur einen 192mm² Chip.

Was macht AMD mit den teildefekten RV770?
 
Zurück
Oben