Gibts nur SCHROTT grafikkarten?

flipp schrieb:
Wenn ich schon im Eingangspost lese, daß jemand wieder die dämliche Argumentation mit dem "Rückschritt" auf 256Bit bringt wird mir übel.
flipp

Jo, genauso übel dürfte Besitzern von 24- und 30"-Displays, die auf native Auflösungen jenseits der üblichen "Kleinmädchen-Settings" bis 1280x angewiesen sind auch werden, wenn sie sich die Performanceverluste einer GTS-92 mit 256bit SI gegenüber der GTX mit ihren "grosszügigen" 384bit, aufgrund von Nvidias neuerlicher unverständlicher "Geiz-is-geil!"-Sparpolitik angucken, denn am gegenüber dem G80 neueren und modereren Chip dürfte es wohl kaum liegen, dass eine GTS-512 oder auch eine GT-1024 hier jämmerlich verkacken!

Oder meinst du allen Ernstes, irgendein klar denkender und durchblickender Besitzter eines entsprechenden Displays würde so einen High-Resolution-Krüppel einer GTX vorziehen?

Also ich glaub ja durchaus, dass man geringere Performance in hohen Auflösungen als Rückschritt bezeichnen kann! :evillol:
 
Ich spiele Hellgate: London mit meiner 8800GTS G92 auf 1920x1200 mit vollen Details flüssig (auf DX10). Und dabei habe ich nur ein billigen Übergangs-CPU. Est wenn ich AA anmache, merkt man das die Performance drunter leidet (aber ich bin eh kein Fan von AA).

Wenn andere Spieletitel sehr viel schlechter Abschneiden sollten, dann liegt das wohl eher daran die die Performance von der Karte verschenkt wird, anstatt sie zu nutzen
 
also, ich würd bei der Gigantischen Auflösung auch zu ner 3870X2 und einer normalen 3870 raten. Der Vorteil ist ganz klar der, das man im Winter keine Heizung mehr braucht ;-). Wär aber wohl Leistungsmäßig am sinnvollsten.
 
@all
Es konnte mir bis jetzt immernoch niemand schlüssig darlegen, ob, wann und wie die 256Bit Speicherinterface der begrenzende Faktor ist.
Die neue GTS mit ihren 256Bit ist schneller als die GTX mit 384Bit.
Verkehrte Welt?

Hoffend auf eine Antwort,
Zero
 
@ZeroZerp: Nur in niedrigeren Auflösungen bis 1280x1024... in sehr hohen Auflösungen ist die GTX dagegen wieder schneller, soweit ich weiß
 
Bremst die Anbindung eigendlich auch die 3870x2? In hohen Auflösungen ist sie ja immernoch gut.
Is das weil die 2*256Bit hat? oder hab ich da was flashes gelesen?
 
@ZeroZerp: Mangelnde Bandbreite kann durch Taktanhebungen vollständig kompensiert werden, da die Speicherbandbreite ein Produkt aus Interface und Takt darstellt. Demnach muss "nur" der Takt hoch genug sein, und schon ist man auf dem Niveau der GTX.

Die Speicher-Bandbreite der 8800GTX beträgt bei 900Mhz GDDR3-Takt ca. 87GB/s (384 Bit), die 9800GTX kommt mit einem 256-Bit-Interface. Bei ca. 1400Mhz Ramtakt wäre man über dem Niveau der alten Karte. Mit den anvisierten 1100Mhz beträgt die Bandbreite ca. 71GB/s.
 
@zerozerp
Stell dir vor du hast eine Pumpe (GPU-Chip), ein Rohr (Speicherinterface) und ein Wasserbecken (GPU-Speicher).

Jetzt testen wir Pumpe 8800 GTS G92 gegenüber der 8800 GTX G80. Die 8800 GTS Pumpe fördert mehr Wasser (Texturen). Das Wasser wird jetzt gefördert durch unser Rohr (Speicherinterface). Bei gleicher Förderleistung (Auflösung) ist das 256cm Rohr bei der 8800 GTS schon voller, als bei der 8800 GTX deren Rohr 384cm breit ist.

So nun erhöhen wir die Förderleistung (Auflösung) bei beiden Pumpen (GPU-Chip). Was passiert? Das Rohr (Speicherinterface) bei der 8800 GTS G92 ist irgendwann voll. Obwohl unsre Pumpe (8800 GTs G92) schneller fördert als die 8800 GTX, kann sie nicht mehr durch das Rohr pressen, weil es eben nicht mehr durch passt. Das Wasserbecken dahinter, ist zwar "schnell" (groß) genug um alles aufzunehmen, der Weg zwischendrin blockiert aber den optimalen Fluss des Wasser (Texturen). Erhöhen wir jetzt künstlich die Förderleistung unsrer Pumpe (übertakten der GPU) presst sie mit noch mehr Kraft das Wasser durch das enge Rohr und kann das zum Teil ausgleichen

Ich weiß sehr abgwegig erklärt, aber ich hoff man verstehts :lol:
 
Zuletzt bearbeitet:
@DjFireDrum
Lt. diversen Tests z.B.
http://www.hardware-infos.com/tests.php?test=32&seite=11
putzt die 8800GTS die GTX auch in höheren Auflösungen (1680x1050, 4xAA / 16xAF) trotz nur 512MB und nur 256Bit.

@drachton
:) Danke für den Erklärungsversuch.
Von der Sache her ist mir das ja auch alles plausibel, was mir allerdings fehlt ist ein Praxistest.
Schön wäre es, wenn man mit einem Tool die Bandbreite begrenzen könnte, um dann zu messen.
Dann kann man schnell feststellen, welche Stellschrauben zu welcher Zeit limitieren.
Tatsache ist, dass die 8800GTS zu höheren Auflösungen hin Leistung einbüßt.
Allerdings kann ich nirgendwo rauslesen, ob das wirklich aufgrund mangels Speicherbandbreite oder vielleicht doch eher deswegen passiert, weil die GTX einfach mehr VRAM verbaut hat, welches bei hochauflösenden Texturen, AA+AF etc. auch eine gehörige Rolle Spielt.
 
Zuletzt bearbeitet:
Man muss sich, wenn man die Grakas vergleicht, halt die Performance über das gesamte Auflösungs-Spektrum inklusive Qualitäts-Einstellungen ansehen, ansonsten erzählt man nämlich nur die halbe Wahrheit!
 
ZeroZerp schrieb:
Allerdings kann ich nirgendwo rauslesen, ob das wirklich aufgrund mangels Speicherbandbreite oder vielleicht doch eher deswegen passiert, weil die GTX einfach mehr VRAM verbaut hat, welches bei hochauflösenden Texturen, AA+AF etc. auch eine gehörige Rolle Spielt.

Das kommt noch hinzu - bin am überlegen wie man das noch ins Beispiel einbauen kann. So gesehen ist es von beidem etwas - kommt auf die Situation und die Anwendung drauf an. Stell dir vor, dass das Becken irgendwann voll ist :p
 
tx8090 schrieb:
Naja, ich will mindestens mit 1920x1200 zocken

Genau das ist der Grund, warum ich mir noch keinen 24" Monitor geholt habe.

Egal für was man sich entscheidet, es ist immer mit Kompromissen verbunden!

Momentan würde ich mir bei dieser Auflösungen für eine 8800GTX entscheiden, diese verbraucht aber im Idle 60-70 Watt mehr als eine HD3870, sowie über 20 Watt mehr als ein 9600 SLI Gespann. Also wenn man den PC nicht nur zum Zocken verwendet, ist das schon heftig.
Bin aber auch schon auf die Tests der neuen GTX gespannt.

Soll es aber lieber eine Multi-GPU-Lösung werden, würde ich mich ganz klar für ein Crossfire-System auf einem X38 / X48 Board entscheiden. Und falls die HD4000er von ATI wirklich in 3-4 Monaten kommen, würde sich das Warten lohnen.
 
Die GTX kannste zur Not ja im idle runtertakten, auch wenn das keine besonders elegante und befriedigende Lösung ist, wobei ich nicht weiss, ob das wirklich den Stromverbrauch senken kann (aber der relativ hohen Abwärme wird zumindest Einhalt geboten!) Die Asus-Karte mit Smartdoctor gibt es ja jetzt schon für immerhin ~280 €.

Oder sonst mal auf die 9800GTX mit 1024MB warten. Ich bin gespannt, wie die sich in hohen Auflösungen schlagen wird und was die dafür haben wollen! (seh da eher schwarz bei dem Interface!)
 
warum man wieder zu 256bit greift is leicht zu beantworten: ati hat im mom keine gpus für hochpreisige grakas im angebot und muss daher kostengünstig produzieren (daher wurde die 2900pro auch von 512 auf 256 bit reduziert) und nv hat mangels konkurenz keinen grund teure pcbs mit mehr wie 256bit zu baun und spart daher ebenfalls. sobald ati wieder vorlegen oder zumindest gleichziehn kann wird auch wieder das si breiter werden...

zur kartenempfehlung: ich würde bei der auflösung klar zu einer(!) 8800gtx raten. warum? weil sli und cf (auch auf der x2 und der gx2) arbeitsaufwendig sind und immer auf die passenden spieleprofile warten müssen bis sie mal an die gtx rankommen bzw diese überholen können. dann ist die leistung auch sehr instabil:
http://www.hardocp.com/article.html?art=MTQ1NCwsLGhlbnRodXNpYXN0
die x2 bietet hier zwar die spitzenwerte mit zum teil enormen vorsprung, bricht aber auch sehr oft in nichtspielbare fps-werte ein. das is wohl auch der grund für die mikroruckler. gleiches passiert auch mit sli.
die gtx hingegen (wie jede einzel-gpu karte, also auch z b 3870) bleibt vergleichsweise stabil.
also auch wenn geld keine rolle spielt würde ich eine gtx empfehlen. ggf ne oc-version oder selbst übertakten um noch n bisschen mehr leistung rauszuholen.
 
Also als Single-Karte würde ich statt einer GTX eine 3870 nehmen.
Denn die skaliert besser mit erhöhtem Takt und unter Wasser setzen kann man die Karte ja immer.
Und in hohen Auflösungen mit AA versägt sie sogar eine Ultra.

Die Unterstützung für Multi-GPU-Systeme wird auch immer besser.
Die Spieleentwickler tun ihren Teil und ATi/AMD steckt wohl derzeit auch großzügig Ressourcen in CF X und dessen Treiber.

Es ist halt einfach so, dass die wenigsten einen 24"er kaufen, weil man ihn noch nicht füttern kann.
Da es aber fast keine 24"er bei den Spielern gibt, werden Spiele auch maximal auf 22"er ausgelegt (1680*1050).
Damit meine ich, dass schon bei 1680*1050 die Performance der Graka vorbei ist.
Und deshalb kaufen sich so wenig Leute einen 24"er. Ein Teufelskreis.

Ich bin mit meinem 24"er aber vollkommen zufrieden und werde halt tun was ich muss (3*3870) um ihn dennoch zu befeuern.
Kostet zwar mehr, aber immer wenn ich mich jetzt an einen kleineren Monitor setzte, bekomm ich Augenkrebs.

Grüße vom:
Jokener

P.S.: Dass die aktuellen Grakas keinen größeren VRAM als 512MB haben, liegt daran dass es nichts bringt.
mit dem winzigen Speicherinterface auch noch mehr vRam zu füttern wäre Schwachfug.
Man betrachte mal die 8800GT 1024MB... das bringt auch fast nichts.
Für hohes AA ist es wohl aber vorteilhaft...
Ich hoffe mal auf eine Karte mit 512bit und 1024/2048MB vRam... Dann haben wir Fortschritt und Leistung.
 
Genauso war es damals, vor 11 Jahren, als ich meinen 21"-CRT (den ich noch immer bentutze und der auch immernoch ein tolles Bild liefert) :) erworben habe! Damals hat es auch ewig gedauert, bis überhaupt eine Graka auch nur annähernd ernstzunehmende Performance für die 1600x1200 bereitstellen konnte. Daher kann ich persönlich auch heute, wenn ich Leute noch immer von 1280x ausgehen sehen (wenn sie für Karten argumentieren und die höheren Settings quasi ignorieren) nur müde lächeln! :)
 
Danke!

Endlich mal jemand der mich versteht ! :D

Eigentlich sollte mir die Welt dankbar sein, dass ich einen 24"er gekauft habe.
Denn wenn es genug Leute wie mich gibt, dann werden Spiele und Karten auch auf 1920*1200 ausgelegt.

Und DANN kommen alle anderen auch in den Genuss der ultimativen Bildpunkteschlacht !

Also: Auf die Knie! :king:


Grüße vom:
Jokener

P.S.: Nehmt mich nicht so ernst, ich bin halt so.
 
Ich zocke ausschließlich in 2560x1600. Hatte früher ne 8800GTX im Rechner, die nun verkauft und ne 8800GT drin. Natürlich kann ich nicht bei jedem Spiel die vollen Grafikeinstellungen benutzen. Das könnte ich aber auch nicht, wenn ich doppelt soviel für die Grafikkarte ausgebe, um 10% mehr Leistung zu erhalten.
Dafür sieht das Bild bei dieser Auflösung und mittleren Details immer noch dreimal besser aus, als bei 1280x1024 und voll aufgedrehten Details.
Die hohe Auflösung ist einfach der Bringer. Bevor ich darauf verzichte, spiel ich lieber mit mittleren Grafikeinstellungen. Nächste Woche kommt der zweite 20er zum 30er dazu, dann spiel ich mittels SoftTH bei 4960x1600.
 
Drachton schrieb:
Wenn Spieleentwickler zu hohe Wünsche haben, bzw. einfach nur schlecht programmieren und so die tatsächliche Leistung verschenken, sind nicht die Hersteller dran Schuld.
Redest du von Crysis :D :lol: ;)

@Topic: Habe nicht alles gelesen, aber ih persönlich empfinde es momentan komplett andersrum:

- Beide großen Hersteller haben gleichzeitig Top Grakas ab 120 Euro im Portfolio
- Der Stromverbrauch wurde gesenkt
- Die meisten Referenzkühler sind extrem leise
- Man bekommt viel Leistung für wenig Geld
- Man muss für alle Spiele, um diese angenehm zocken zu können ( ausnahme crysis ) höchstens 150 - 170 Euro hinbättern.

Wo ist dein Problem ?
 
Zurück
Oben