News Zwei GeForce GTS 250 auf einem PCB von Zotac

Ich schätze mal 5% über dem Leistungsniveau eine 9800 GX2 (da G92/G92b).


MfG

tmkoeln
 
Da kommt mir in den Sinn, mussten die Boardpartner nicht mal eine bestimmte Menge alter GPUs von Nvidia abnehmen um die ersten Fermi-Chips zu bekommen? Wenn das gestimmt hat, könnt ich mir gut vorstellen warum Zotac jetzt gleich 2 GPUs auf die GTS250 lötet :)
 
|nsb|urmel schrieb:
Da kommt mir in den Sinn, mussten die Boardpartner nicht mal eine bestimmte Menge alter GPUs von Nvidia abnehmen um die ersten Fermi-Chips zu bekommen? Wenn das gestimmt hat, könnt ich mir gut vorstellen warum Zotac jetzt gleich 2 GPUs auf die GTS250 lötet :)
Ach echt jetzt?

Ja bei ZOTAC würde mich das jetzt nicht wundern, numal sie auch die erste Custom Fermi gefertigt haben.
 
Interessantes Produkt. Ich bin mit meiner 8800GT bis jetzt noch zufrieden und das dann x2. Interessant wäre der Leistungsvergleich zu neueren Karten, aber 512 MB pro GPU ist doch etwas wenig. Leider auch kein DX11. Wenn die Karte für um die 100€ zu haben wäre, ist die bestimmt nicht übel, kann ich mir aber kaum vorstellen.
 
@tmkoeln: Ich weiß zwar immer noch nicht so recht, für wie seriös oder polemisch ich Semiaccurate.com halten soll, aber laut denen mussten zumindest Verkäufer alte Karten mitkaufen, um GTX 4XX-Karten zu bekommen.

Wie damals bei Sat.1, wo der Sender bei Kirch einen Blockbuster nur im Bundle mit cineastischen Müll bekam, welcher dann verschämt irgendwann nach 0.00 Uhr unter der Woche gezeigt wurde.

http://www.semiaccurate.com/2010/03/23/nvidia-forces-garbage-those-wanting-gtx480s/

Ich denke, die Karte wird, wenn sie denn kommt, eher bei irgendwelchen OEM verbaut und dort entsprechend angepriesen, wobei ich an keinen großen Verkaufserfolg glaube.
Kein Gamer wird die noch kaufen wollen. Selbst beim sogenannten DAU wird sich "DX 11" als neuestes must-have schon festgesetzt haben.
Und die paar, die sie rein zu Rechenzwecken gebrauchen können, werden auch nicht die Masse sein.
 
Zuletzt bearbeitet: (Mir fällt im Nachhinein meist immer noch was ein :-))
Braucht kein Mensch so ne Karte. Vorallem nich JETZT, das hätten die viel eher rausbringen sollen. Kauft keiner, will keiner, unnötig. Sachen, die die Welt nicht braucht :D.
 
512MB für eine Doppelgrafikkarte waren bei der 7950GX2 schon knapp
und im Quad SLI damals schon zu wenig
je nach Einstellungen merk ich jetzt zwischen einer und 2 9800GTX+ (fast selbe Karte wie gts250) kaum Performancegewinn, hab die 2 Karten halt sehr günstig bekommen

jetzt noch eine Dual 250 ist echt nicht sinnvoll
 
UsAs schrieb:
Eventuell noch Richtung PhysX, Rohleistung dank 2x512mb jedoch viel zu wenig.

Wie kommst du auf 2 x 512 MB?? Ich lese daraus nur 16 x 32 MB = 512 und nicht 32 x 32 MB ;)

Nur mal als Frage, denn ich lese das da nicht heraus ;)
 
Zwei G92-Chips auf einem PCB kennen wir doch schon. Da nun auch die GTX 460 (welche vermutlich noch schneller als die Dual-GPU-Karte ist) erhältlich ist, macht so eine Karte überhaupt keinen Sinn mehr :rolleyes:
 
Wo gibts da denn nen Unterschied zur 9800gx2?
Ja gut wahrscheinlich weniger verbrauch, kleineres PCB und etwas höhere Taktraten.
 
@Sirius5: Ich denke, das mit

Computerbase.de schrieb:
sechzehn 32-MByte-GDDR3-Speicherchips

ist ein Tippfehler. Auf der Seite http://www.expreview.com/11556.html ist zu sehen, dass 16 Hynix H5RS5223CFR N0C Chips verbaut sind. Das sind laut Datenblatt

http://www.hynix.com/inc/pdfDownload.jsp?path=/datasheet/pdf/graphics/H5RS5223CFR(Rev1.5).pdf

512Mbit = 64 MB Chips. 64MB x 16 Chips = 1GB = 2 x 512 MB (in diesem Fall). Alles darunter wäre auch totale Verarschung. Die Chips sind für 1000 Mhz spezifiziert, falls es von Interesse ist.

@ITM-Hummel unter mir: Ich denke, der VGA-Anschluß ist am weitesten verbreitet. Neulich hatte ich meinen Rechner an einen Monitor, der hatte nur VGA. Da habe ich den zweiten DVI verflucht, musste erstmal Adapter besorgen.
 
Zuletzt bearbeitet: (Mein Gott, so wenig Text, soviel Fehler. Jetzt ausgemerzt.)
doesntmatter schrieb:
Diese verkappte 9800GX2 ist ein ideales Gespann für CUDA-Anwendungen wie folding@home, der G92 wird dort als effiziente PPD/Watt-Anschaffung gehandelt. Für den Massenmarkt (erst recht Gamer-Markt) mit Sicherheit uninteressant. Wo die 9800GX2 zu verschwenderisch mit Strom umgeht, problematisch im 24/7-Betrieb zu kühlen ist, könnte dieses Revival bei Beseitigung dieser Mankos einige Abnehmer in der DC-Community finden. Speichermenge ist dort unkritisch, getrenntes Overclocking speziell der Shader aber gern gesehen.


Viele Distributed Computing (DC) Projekte laufen inzwischen auch auf ATI Karten. Cuda im DC Bereich hat zwar einen Vorsprung, der wird aber eingeholt zumal die ATI Karten über eine brachiale Rechenkraft verfügen wenn man das mal mit den aktuellen Nvidia Karten vergleicht. Ein G92 bzw. zwei davon ziehen keine Butter mehr vom Brot, die Zeiten sind rum und ich denke, der Markt ist verschwindend gering. Die Karte wirds nicht auf den Markt schaffen.
 
doesntmatter schrieb:
Diese verkappte 9800GX2 ist ein ideales Gespann für CUDA-Anwendungen wie folding@home, der G92 wird dort als effiziente PPD/Watt-Anschaffung gehandelt.
Wobei da die GTX460 auch interessanter werden dürfte. Die wird zwar fürs reine FAH keinen wesentlichen Vorteil bieten (ca gleiche PPD, ca gleicher Stromverbrauch), aber dafür hat man eine DX11-fähige Karte mit genug Leistung für Spiele und ich würde fast drauf wetten, dass die GTX460 auch noch günstiger bleiben wird als die Dual-GTS250.
Mal ganz nebenbei: War es nicht etwas frickelig, 2 GPU-Clients zum laufen zu bringen? Als ich das mal mit einer 8400GS als reine Rechenkarte probieren wollte war es jedenfalls nicht so richtig zu machen.
 
Soweit ich weiß, kann das problematisch sein. Das umgeht man aber, indem man verschiedene Projekte den jeweiligen GPU zuweist. Ich denke, dass doesntmatter es so meinte, dass sich jemand speziell so eine Karte zum chrunchen holt. Es gibt Typen, die zocken nicht mit einer Grafikkarte, die rechnen nur damit.
 
@ATI Soldat: Sowas hatte ich auch probiert, aber so richtig zu machen war's nicht. Aber selbst rein für FAH würde ich eher zu einer GTX460 greifen, einfach weil ich mich dann nicht schon bei einer Karte mit den eventuellen Problemen herumschlagen muss.
Wie gesagt, ich vermute auch, dass die Dual-250er eher noch teurer wird, schon lohnt das einfach nichtmehr. Eine einzelne GTS250/512 kostet derzeit ca 75€, dass Zotac die Dual-Karte dann für 150,- raushaut wäre aber eher verwunderlich (NF200 drauf, Dual-GPU, mehr oder weniger einzigartig), aber dann wäre es ein wirklicher Kampfpreis für FAH und ähnliche Anwendungen.
 
Ich wäre eher dafür, dass jemand mal den G92b zu dem macht, was er immer hätte sein sollen.
Sprich 384-bit Interface, 768 MB VRam, etc., also einem richtigen Nachfolger der 8800 GTX. Eine solche Karte mit einem guten Preis wäre sicher nicht uninteressant.
 
Ja aber trozdem viel zu spät!
 
Volker
Ob der Markt solch eine Karte überhaupt braucht, dürfte ohnehin auf einem anderen Papier stehen.

"Der Markt" bietet mehr als genug Grakas ohne SLI mit gleicher u besserer Leistung, braucht diese Karte nicht. Sag ich mal ohne das"andere Papier" gesehen zu haben

Der G92 ist einfach noch massenhaft zu haben, triple u quad sli auf einer Karte (ev.2PCBs) ist also nicht ausgeschlossen...
 
nvidia hätte beim wechsel von 9800gtx+ auf gts250 auf gddr5 wechseln sollen. das wäre imho klug gewesen, da sich die karten dann auch deutlich unterschieden hätten und die gts250 wohl durch wegfall der speicherlimitierung die 9800gtx+ locker geschlagen hätte. aber damit hätte nvidia die gtx260 wohl zu stark in bedrängnis gebracht...

wie dem auch sei: g92 ist nur noch im mittelklassesegment interessant und wird da auch in kürze durch den gf106 abgelöst. war ein toller chip, aber nach 3 jahren ist auch der mal eol ;)
 
Zurück
Oben