News Erste Benchmarks zu Galaxys Dual GTS250

9800pro@XT schrieb:
Komisch das die 5850 laut CB - Benchmarks nur 10% schneller als eine GTX 275 ist, welche nicht genausoschnell wie eine GTX 280 ist, da sie sonst ja GTX 280 heißen würde ;). (https://www.computerbase.de/artikel...850.1088/seite-16#abschnitt_performancerating

https://www.computerbase.de/artikel...est.1152/seite-18#abschnitt_performancerating

1680x1050: 27% schneller
1920x1200: 29% schneller
2560x1600: 32% schneller
1680x1050 4xAA/16xAF: 22% schneller
1680x1050 8xAA/16xAF: 34% schneller
1920x1200 4xAA/16xAF: 26% schneller
1920x1200 8xAA/16xAF: 40% schneller
2560x1600 4xAA/16xAF: 30% schneller

Und zu GTX280 vs. GTX275: https://www.computerbase.de/artikel...test.985/seite-22#abschnitt_performancerating

1280x1024: GTX275 3% schneller
1680x1050: GTX275 3% schneller
2560x1600: GTX275 6% schneller
1280x1024 4xAA/16xAF: GTX275 4% schneller
1280x1024 8xAA/16xAF: GTX275 5% schneller
1680x1050 4xAA/16xAF: GTX275 4% schneller
2560x1600 4xAA/16xAF: GTX275 5% schneller

EDIT: Sprich die HD5850 ist 30-35% schneller als eine GTX280 =). Davon abgesehen bezweifle ich dass die dual GTS250 für 200€ erhältlich sein wird.

EDIT 2: Solltest übrigends mal deine Signatur ändern, die passt nicht so wirklich.
 
Zuletzt bearbeitet:
Schaffe89 schrieb:
Mehr als eine 9800gx2 mit mehr V-Ram is das nicht.
Bin ich irgendwie stockbesoffen oder sehe nur ich in gpu-z 512 mb vram?
also nichts da mit mehr vram

@9800pro@XT:
ich persönlich hätte auch gerne ein cf/sli system ;)
nur läuft das meiste noch einigermaßen mit einer gtx260 , ausnahme natürlich crysis.
als ich nach mein nforce board hatte , war testweise eine 2te mit drinnen.
nur war der vram weiterhin genausovoll , mit andern worten kein bisschen leistungsgewinn , nur warn die grafikkarten lauter , heißer und verbrauchen eben auch mehr strom wie eine.
und wenn ich hier sehe , dass jetzt wieder eine umgelabelte 9800gx2 wieder mit 512 mb vram kommt , kann ich diese karte nur verachten ;)
 
Also ich komm mit meiner 9800GX2 noch ganz gut hin... Die 512MB VRam kotzen aufjedenfall bei GTAIV dermaßen an :freak: vorallem weil ich mit 1920x1080 zocke...

Hab eben mal 3DmarkVantage durchlaufen lassen mit Standardtakt und Q6600 auf 3.5GHz, RAM mit 972MHZ
ach seht selber:

nur nen paar Punkte weniger mit OC hätte ich bestimmt mehr oder genau so viele...:freaky:

Naja wer die karte braucht, warum nicht? Für BOINC wäre sie ziemlich praktisch wenn sie nicht mehr als 200€ kostet

PS: Der Lüfter ist blöd, und nach 3DM ist mein Zimmer jetzt endlich warm :evillol:
 
Zuletzt bearbeitet: (Details)
Wann schnallt endlich auch mal der letzte, dass der VRAM-Verbrauch so gut wie unabhängig von der Auflösung ist?

OT: 1,48 Volt für 3.6 GHz? :freak:
 
Ja die müssen sein. Da die CPU gebraucht ist und der vorbesitzer sie einmal mit 2.00 volt angetrieben hat und seitdem ist er nie mehr richtig Stabil unter 1.48V:mad:
 
Ich glaub mit dem getesteten Hydrachip würd das sogar Sinn machen, weil bei der Karte Mikrorucklerbegrenzung sicher sinnvoll wäre. Müsste eigentlich ja ganz gut skalieren. (Gibts den für nvidia? bin grad nicht so aufm laufenden was den angeht.).
 
phelix schrieb:
Wann schnallt endlich auch mal der letzte, dass der VRAM-Verbrauch so gut wie unabhängig von der Auflösung ist?

Ist er eigentlich nicht. Schau dir doch die Benches an. Neuere, grafisch aufwendige Spiele (Paradebeispiel DiRT 2) dropen in 2560x1600 mitsamt 8x von 60 (1920x1080@8xMSAA) auf 1,4 fps. Und das wohlgemerkt auf einer 5970, die Rechenleistung genug hat. In Crysis Warhead das selbe Bild, nur nicht ganz so krass, da hier die "normalen" fps ja deutlich niedriger sind.

Wär ja auch völlig unlogisch, wenn die Auflösung keinen Einfluss auf den RAM-Verbrauch hat.
Enthält ja viel mehr Farbinformationen.


@topic

Total sinnlose Karte, braucht niemand. Fürs Rechnen in Clustern ist sie wahrscheinlich auch nicht so dolle, bei etwas niedrigerem Preis bietet sie im Vergleich zu ner 5850 viel weniger GFLOPs (2x700 zu 2000).
 
Allso ich finde diese umgelabelte 9800 GX2 gar nicht mal so schlecht,wenn Sie denn wirklich mit 2x 1024 MB VRAM rauskommt und auch nicht mehr als 200 Euro kostet.

Sie wäre der idealle Ersatz für die nicht mehr lieferbaren GTX 285/GTX 275 Grafikkarten und würde das Überleben von Millionen NVidia Fanboys sichern,welche jetzt eine neue Grafikkarte brauchen und die Zeit bis zum Fermi Release nicht mehr abwarten können oder die sich die Fermi einfach nicht leisten könnten,wenn diese wieder mit 500 Euro + rauskommen wird,aber trotzdem eine Nvidia High End Karte brauchen.

Diese Karte würde sich sicherlich extrem gut verkaufen bis zum Fermi Release und sogar noch weit darüber hinaus,wenn Sie unter 200 Euro zu haben ist.So schnell wie eine GTX 285,aber 100 Euro billiger und auch billiger in der Produktion für den Hersteller.Ist allso zu 100% eine Win-Win Situation für Nvidia Kunden/Hersteller,wenn Sie wirklich unter 200 Euro kosten wird.

Über 200 Euro wäre Sie einfach zu teuer,da man sich für 200 Euro auch problemlos 2 GTS 250 1024MB Grafikkarten kaufen kann und sich sein eigenes SLI System so aufbauen könnte,als Ersatz für eine nicht mehr erhältliche GTX 285/GTX275.

Und an alle SLI Kritiker:Microruckler gibt es nicht mehr bei Nvidia Multi GPU Systemen,seit dem der Nvidia 182.50 Treiber rausgekommen ist vor etwa 1 Jahr !

Ich benutze selbst ein SLI System mit der 1.Generation der 9800GX2 Grafikkarte und kann es selbst bezeugen.Vor dem 182.50 Treiber hatte ich nur bei den Spielen Crysis und Far Cry 2 ganz selten Microruckler,alle anderen Spiele liefen butterweich ohne Probleme mit über 60 FPS,trotz 1920x1200 Auflösung und 4xAA/16xAF.

Aber seit dem 182.50 Treiber habe ich überhaupt keine Microruckler mehr,bei allen Spielen.
Selbst bei Crysis treten diese nicht mehr auf.
Nur wenn die FPS unter 25 gehen,fängt es an zu ruckeln,was aber bei einer Single GPU ebenfalls kein bisschen besser aussehen würde.

Microruckler gibt es subjektiv gesehen nicht mehr bei Nvidia,seit dem 182.50 Treiber ,denn selbst wenn diese auftreten bei unter 25FPS,ruckelt sowieso schon alles wegen zu geringer Rohleistung und man würde die Microruckler von den normalen Rucklern nicht mehr unterscheiden können.

Daher sind Microruckler eindeutig nur noch ATI/AMD exklusiv anzutrefen :evillol:
 
Zuletzt bearbeitet:
Mein Oced HD5850 ist schneller und Kühler...
 
Witzig, wie sich um alles um eine 9800 GX2+ dreht, wenn es sonst nichts neues gibt.
Klasse ist auch diese Aussage: Many readers showed great interest in Galaxy’s dual-core GTS250 graphics card, and Expreview is fortunate enough to have an early peek of its performance. Ob sie die 6 Kommentare zu der verlinkten News meinen? :D
Also die Kommentare hier auf CB ham sie nicht gelesen.

9800pro@XT schrieb:
Komisch das die 5850 laut CB - Benchmarks nur 10% schneller als eine GTX 275 ist, ..... (https://www.computerbase.de/artikel...850.1088/seite-16#abschnitt_performancerating
Und der Mehrpreis von wenigstens 69 Euro (lieferbare 5850) im bezug auf die Dual GTS 250 ist in meinen Augen keine 2-5 % höhere Leistung Wert!
Der Stromverbrauch ist mir persönlich relativ egal. Muss halt jeder selber wissen. Bloß bis ich 69 Euro an Strom verbaten habe hab ich i.d.r. schon lange eine andere Graka.

Wie sgt.adrian schon schrieb, ist die 5850 Tatsächlich ca. 25-30% schneller, was man im Grafikkarten Test 2009 sehen kann.
Der von dir verlinkte Artikel war ein Vorabtest, bei dem nicht nur die 5850 mit einer herunter getakteten 5870 simuliert wurde, es kam auch ein RC Catalyst zum Einsatz.
Den Unterschied kannst du auch gerne mit dem Test der 5870 vergleichen, und dem aktuellen Catalyst Artikel.

Wenn wir nun also von einer Mehrleistung bei etwa 35% ausgehen, und vermuteten 200€ dieser Karte, erhählt man für 33% mehr Kosten (200€ zu 269€) ca. geauso viel an Spieleleistung, was allein die Mehrkosten zumindest rechtfertigen würde (denn eigentlich geht ja im oberen Preissegment die Leistung nicht linear mit dem Preis).

Wenn man nun noch den geringeren Stromverbrauch unter Idle und Last, aller Wahrscheinlichkeit nach geringere Lautstärke, DX11, nicht vorhandene Microruckler und wenn der GPU-Z Screen kein Fehler ist, 1GB RAM statt 512MB mit einbezieht, wäre man (aus der Warte rein fürs zocken) schon ziemlich blöd hier am falschen Ende zu sparen, denn die 5850 wäre der klar bessere Deal.

Selbst wenn man nur 200€ ausgeben kann, und da kein € mehr drin ist im Budget, wäre es klüger diese Karte einfach nicht zu kaufen.

Dann sollte man entweder auf die 5830 warten, welche die risiege Lücke zwischen 5850 und 5770 ausfüllt, ne GTX 275 für ~210€ kaufen oder auf den Fermi warten.

Ansonsten hat, wer ein "Nvidia only" Käufer ist (was es ja angeblich geben soll, nach einigen Posts der letzten Wochen) schlicht und ergreifend Pech. :)


9800pro@XT schrieb:
welche nicht genausoschnell wie eine GTX 280 ist, da sie sonst ja GTX 280 heißen würde ;).
Die GTX 275 ist sogar ~5% schneller als ne GTX 280.

malachias schrieb:
Naja wer die karte braucht, warum nicht? Für BOINC wäre sie ziemlich praktisch wenn sie nicht mehr als 200€ kostet

Also wer so viel Geld über hat, für solche Dinge wie BOINC und Co. extra Hardware einzukaufen und den Strom zu zahlen, sollte dann doch besser auf den Fermi Wunderchip mit monster Cauda Cheese Performance warten.

phelix schrieb:
Wann schnallt endlich auch mal der letzte, dass der VRAM-Verbrauch so gut wie unabhängig von der Auflösung ist?

Echt ma? .. wie kommstn drauf? Weil Hisn das geschrieben hat?
Komisch, dann frag ich mich was die Leute hier falsch gemacht haben, bei yougamers.com
http://www.yougamers.com/articles/13801_video_ram_-_how_much_do_you_really_need-page3/

Hach, das Internet ist schon was feines.
 
Zuletzt bearbeitet:
Also ich muss sagen ich hab beim 3DMark Vantage mit meinen zwei HD 4850 im CF um ca 2000 Punkte besser abgeschnitten, aber die Karten hab ich jetzt schon ein ganzes Jahr. Sie sollten endlich mal News über die Fermi bringen. Ich finde die Karte ja nicht so den Renner.;)
 
milamber! schrieb:
Echt ma? .. wie kommstn drauf? Weil Hisn das geschrieben hat?
Komisch, dann frag ich mich was die Leute hier falsch gemacht haben, bei yougamers.com
http://www.yougamers.com/articles/13801_video_ram_-_how_much_do_you_really_need-page3/

Hach, das Internet ist schon was feines.

Jop, das sagen jetzt alle, weil es ihnen im VRAM-Usage Thread in den Kopf derückt wurde. :rolleyes:
Abgesehen davon waren die Werte im obrigen Thread viel höher und hab fast in jedem Spiel die 1GB Marke geknackt, was mir immer schon komisch vorkam. Aber bei der hohen Auflösung....


Die Graphen sind auf der Site die du verlinkst nur ein bisschen irreführend, da die Auflösungsstufen sehr klein sind und somit ein fast nicht vorhandenes Ansteigen mit Auflösung suggerriert wird. Allerdings sieht man dann von 1280x1024 auf 1600x1200 den wirklichen Anstieg sehr gut.
 
Selbst mit meiner HD4890 (zwar bissi OC, aber trotzdem :P) hatte ich einen besseren Wert im 3DMark-Vantage.
Sinnfreier gehts ja nimmer.
 
Die Karte kommt doch viel zu spät...
 
Meine HD5850 schafft die selben Ergebnisse (und das mit nem DualCore) XD
 
Ich habe mir zuerst direkt gedacht - Sinnfrei.
Dann kahm mir der Gedanke der Restverwurstung "alter" Chips.

Hatte aber auch mal dran gedacht, das es vielleicht auch darum geht sich an neuen Grafikarten- Layouts zu versuchen.
Nicht den vorgekauten Brei von Nvidia (sprich GX2) sonder selber was basteln. Habe da auch an die Zukunft gedacht, wobei die neuen NV-Chips werden wahrscheinlich ähnlich zusammen arbeiten können wie die alten.

Nunja bleibt abzuwarten obs dann ne Galax FermiGX2 geben wird^^
Solange hat dieses Galaxy-Experiment zumindest eins erreicht:
Wir reden drüber - und somit über Galaxy. Wir sind für die alles potentielle Käufer... :D

so far
par4
 
Diese Mid-End Dual-GPUs haben sich noch nie besonders gut bewährt. Zum Beispiel die HD 2600 X2, 3850 X2 und 4850 X2. Bis jetzt ist ATI der einzige der mehrmals Versucht hat Dual-GPUs massenhaft zu verbreiten.

Es wird schon einen Grund geben warum nVidia sich hier eher auf den High-End Bereich konzentriert hat.
Und das Single-GPU Karten oft schneller, günstiger, leiser und verbrauchsärmer sind hilft auch nicht besonders :D
 
5% über ner GTX 280 ... bin ich froh das ich mir vor ner Woche ne 280er für 199 Euro geholt habe :D
 
Zurück
Oben