News Galaxy bereitet eine Dual-Core GTS 250 vor

Zuletzt bearbeitet:
Ich ging von nur wenig alten Benchmarks und einer Auflösung von
1680x1050 4xAA 16xAF aus, also gute, aktuelle Einstellungen und
da lag die alte 9800GX2 zwischen HD4870 und HD4890.

Ob wir den guten alten G92 wohl irgendwann in Rente schicken können,
oder wird es sehr schnell eine GT340 geben? :D
 
Nett aber leider ein Jahr zu spät. :freak:
Da hat das Marketing von Galaxy wohl einen Zeitsprung in Vergangenheit vor.
Na ja, vielleicht bringt Sapphire ja eine HD4850X2 als Konter :evillol:
 
Können die eigentlich nichts anderes mehr, als alte Chips relabeln und mit dem unnötigen Physix werben?
 
da gabs wohl ne große charge g92b für kleines geld. das zeuch muss ja irgendwie unter die leute.
 
Als Schlüsselanhänger fänd ichs aber schöner...
Also ich denke auch die Karte ist unsinnig kann mir auch nicht vorstellen das die so ein tolle CUDA-Performance haben wird oder gibt es dazu Zahlen?
Dann wäre sie immerhin für irgendwas gut wenn auch nicht für mich außer als Schlüsselanhänger :P
 
Hach ja. Mal hoffen Fermi kommt bald und der Preis der GTS 250 wird von 110€ auf 70€ gedrückt, dann schlag ich zu *g
 
Epic FAIL! Da fischt man wieder mal nach ahnungslosen Kunden...Resteverwertung ftw! so günstig wird die Karte sicherlich nicht sein, um alle Nachteile (wurden ja schon aufgezählt) aufzuwiegen...und innovativ ist in meinen Augen etwas NEUES!
 
milamber! schrieb:

:D:D....:lol:

genial!


warum bauen die nicht gleich 4x G92b auf eine platine oder gar 8?...is ja langweilig echt... die haben doch eh noch genug davon da...:freaky: bscheuert^^

Edit: wollen wir nicht alle mal ne Resteverwertung mit unseren alten GPUs machen...? Hätte da auch noc heine Radeon 9800pro...^^
 
Schnitz schrieb:
@terraconz

du erzählst käse (mit löchern :evillol:)

http://de.wikipedia.org/wiki/Grafikkarte



Und seit der Voodoo² ist auch dual-gpu nix neues...

Dann bitte ich dich mir eine Dual GPU Karte zu zeigen die 1990 auf den Consumer Markt kam.
Sry aber du weißt sicher selbst das das Blödsinn ist, Anfang der 90er war die Zeit der Commodore und Amigas und des NES, es war die Zeit von Windows 3 nur um das mal in Perspektive zu setzten. Da war nix mit Dual GPU zu der Zeit!

@Topic:
Nochmal das ist sicherlich keine Gamer Karte in erster Linie deshalb ist es etwas "schräg" sie anhand dieser Kriterien zu beurteilen. Aber auch wenn man sie aus der Game Perspektive beurteilt steht sie nicht so schlecht da wie viele hier meinen, imho.
Sie ist mit 1gb nicht übermässig aber ausreichend mit Speicher bestückt und schneller als viele hier meinen. Sie ist schneller als eine GTX285 und da die GTX285 nur noch schwer zu bekommen ist und wenn dann sau teuer, ist diese Karte für einige sicher eine Alternative.
Laut CB Performancerating (was natürlich mit Vorsicht zu geniessen ist) ist eine 285er ~10%-15% langsamer als eine HD5850, also dürfte sich diese Karte ~ auf dem Niveau einer HD5850 einpendeln +/- paar %.

Bleibt die Frage nach dem Preis, wenn er unter der HD5850 liegt ist das doch ein schönes Angebot für viele Leute. Man bekommt ne Karte auf HD5850 Niveau mit schönen Features, dann muß jeder für sich die Vor und Nachteile abwegen.

Vorteile:
*bessere Bildquali
*bessere/flexiblere Treiber
*Physix
*CUDA
*3D Vision
*wahrscheinlich hohe OCing Möglichkeiten

Nachteile:
*kein DX11
*Multi GPU (aber hier Gott sei Dank SLI, also nicht so schlimm wie CF)
*Stromverbrauch

Imho kommt es also sehr auf Sachen wie Preis und Lautstärke der Karte an ob sie für viele Leute eine tolle Alternative wird. Vielleicht hat Galaxy auch den Hybrid SLI Chip verbaut (was ich aber nicht glaube, da sie es sicher beworben hätten wenn dem so wäre) somit wäre der Stromverbrauch kein Thema mehr.

Also wie gesagt so schlecht ist die Karte nicht wie viele sie hinstellen!
Vorallem für den Bereich Professionals und Bildung aber auch für Gamer. Sie ist eine Alternative zur HD5850 (je nach Preis) und denkt auch daran das es viele Leute gibt die einfach nur Nvidia Karten kaufen wollen! Für die ist die Karte sogar eine wirklich tolle Alternative zur GTX285, sie ist schneller und höchstwahrscheinlich billiger und bietet alles was eine 285er auch bietet.

Ich persönlich würde sie mir nicht kaufen weil ich auf Fermi warten aber man muß auch mal über den Tellerrand blicken und nicht immer nur alles daran messen ob man es selbst brauchen kann oder nicht.

just my 2 cents!
 
Lautsärke wird bei der Karte wohl nicht das Problem

Meine 9800GTX+ ist schon flüsterleise und wird auch nur max 54° warm
Denke nicht das das soein Rööööööööööööhrer wird wie z.B. ne HD5970
 
uh uh uh, neue Wunderkarte... ach...Moment... GTS250 =9800GTX/GT =8800GT/GTS x2 = 9800GX2 = alt

verdammt, ich bin zu Klug für Nvidia, an mir prallt die Propaganda ab :(
Ergänzung ()

terraconz schrieb:
Vorteile:
*bessere Bildquali
*bessere/flexiblere Treiber
*Physix
*CUDA
*3D Vision
*wahrscheinlich hohe OCing Möglichkeiten

Nachteile:
*kein DX11
*Multi GPU (aber hier Gott sei Dank SLI, also nicht so schlimm wie CF)
*Stromverbrauch



just my 2 cents!

Mehr als 2cents is dieser Bullshit auch nicht wert :) ATI hat schon immer die bessere Bildqualität, bis Nvidia mal dieses QSSAA inoffiziel gangbar machte, aber seit dem RV800 ist ATI wieder vorn.

3D Vision, genauso Rotz, viel zu teuer und wird bald von Monitoren abgelöst die das auch ohne Brillen erreichen -> Totgeburt

PhysX -> Spielerei, meist minimal optische verbesserungen, die bisher auch jede andere Hardware bewerkstelligt bekommen hätte.

Bessere/felixblere Treiber -> Alter? Wie alt bist du? Früher waren Nvidia Treiber das schlimmste was es gab und wo zur Hölle sind die flexibel? Ich hab nie wieder solch funktionsarme Treiber gesehen wie bei Nvidia. Dann diese Updates für Spielprofile, bei AMD kommt immerhin monatlich nen komplett neuer Treiber.

SLI besser als CF? Vor lachen nicht, selbst uralt Spiele versagen den SLI dienst, also bleib ma aufn Boden der Realität. AMD schaffts immerhin innerhalb 1-2 Monaten alles gangbar zu machen, Nvidia teilweise nach Jahren nicht. Dazu haben beide die üblichen Probs.


Tu dich mal richtig schlau machen, es gibt atm genau 0 Gründe Nvidia zu kaufen, wers dennoch macht, selbst schuld.
 
Oh die Eloquenz in Person nehme ich an?! :freak:

Ich glaube du bist nicht wirklich sehr tief in der Materie drinnen aber hier ein bisschen was zu lesen zum Thema IQ: https://www.computerbase.de/artikel/grafikkarten/bericht-die-qualitaet-des-anisotropen-filters.1063/
Kurzes Zitat daraus:
Eine eindeutige Entscheidung gibt es hingegen bei der maximal möglichen Qualität. In dem Fall heißt der Gewinner Nvidia mitsamt dem High-Quality-Modus, der ein gutes Ergebnis erzeugt. Die Texturen flimmern nur gering und der Spieler sieht keine Bugwellen – nicht optimal, aber gut. ATi muss in diesem Punkt Federn lassen und erst A.I. Off kann mit Quality ohne Optimierungen mithalten. Ein Pendant zu High Quality existiert bei den Kanadiern nicht.

Also AF ist wie du siehst beim GT200b n gutes Stück besser als bei den HD58xx Karten.
Und was AA angeht muß man eh nur das Wort "Hybride" in den Mund nehmen und alles sollte gesagt sein, imho! AMD bietet keinerlei Möglichkeit für Hybride AA Modi an (ausser sie haben jetzt irgendwas nachgereicht) somit hast du nur die Wahl dich zwischen geglätteten Kanten aber dafür flimmernden Shadern oder aber keine geglätteten Kanten aber dafür ein ruhiges Bild zu entscheiden. Beim GT200b habe ich die Möglichkeit der Hybrid Modi womit ich SSAA und MSAA geichzeigtig verwenden kann und ein ruhiges Bild und geglättete Kanten habe.

Was deine hoch eloquente Art angeht über 3D Vision, CUDA und Physix herzuziehen angeht, was ist denn daran schlecht? Man muß es ja nicht nutzten wenn man nicht will aber man hat wenigstens die Möglichkeit dazu.
Stell dir vor du willst ein Auto kaufen (ja ich weiß Autovergleiche sind nervig) und hast die Wahl zwischen 2 identischen Autos nur das eines davon noch zusätzlich mehrere Docks für diverse Geräte wie Handy/Navi und dergleichen eingebaut hat, für welches würdest du dich entscheiden? Selbst wenn keines der Geräte besitzt würdest du dich doch für das Auto mit den zusatz extras entscheiden, oder? Es kostet ja nichts extra! Ob du das dann nutzt oder nicht ist deine Sache aber erstmal ist es ein Vorteil.
Ich meine wie kann man denn solche Gratis Goodies als schlecht empfinden? Würdest du also eher ne Nvidia Karte kaufen die genauso ist nur ohne diese Goodies? Das wär doch irgendwie ähm komisch!

Jetzt nochmal im Detail auf deine Punkte eingehend:
PhysX -> Spielerei, meist minimal optische verbesserungen, die bisher auch jede andere Hardware bewerkstelligt bekommen hätte.

Ok aber ich brauche keinerlei andere Hardware dafür und auch meine CPU muß ich damit nicht belasten, also wo ist der Nachteil? Und auch Sachen wie 8x statt 4x AA sind optische Spielereien oder SSAO oder deffered Shader oder oder oder........ alles nur optische Spielereien! Wäre es dir also lieber wieder in 16bit und 2D zu spielen? Nein?! Dann freust du dich also doch über "Optische Spielereien"?

Bessere/felixblere Treiber -> Alter? Wie alt bist du? Früher waren Nvidia Treiber das schlimmste was es gab und wo zur Hölle sind die flexibel? Ich hab nie wieder solch funktionsarme Treiber gesehen wie bei Nvidia. Dann diese Updates für Spielprofile, bei AMD kommt immerhin monatlich nen komplett neuer Treiber.

Alter stimmt sogar wahrscheinlich im Vergleich zu den meisten anderen hier, ich bin 1980er Baujahr (siehe Blog in Signatur). Was früher war interessiert mich heute weil ............. ????
Heute habe ich nur mit Nvidia Treiber die Möglichkeit auf Hybride AA Modi; Heute habe ich nur mit Nvidia Treiber die Möglichkeit auf 3D ohne Zusatzhardware; Heute habe ich mit Nvidia eine größere Sicherheit das Games am Release ohne Probleme laufen als mit AMD (siehe Borderlands, Shift, GTA, Assasins Creed, Batman...................)

SLI besser als CF? Vor lachen nicht, selbst uralt Spiele versagen den SLI dienst, also bleib ma aufn Boden der Realität. AMD schaffts immerhin innerhalb 1-2 Monaten alles gangbar zu machen, Nvidia teilweise nach Jahren nicht. Dazu haben beide die üblichen Probs.

Also wie gesagt du scheinst nicht wirklich tief in der Materie drinnen zu sein denn es wird dir jeder bestätigen das SLI bei weitem Problemloser ist als CF.
Hier etwas Lesestoff: http://www.pcgameshardware.de/aid,6...ootout-Update-mit-SSAA-Test/Grafikkarte/Test/
Zitat daraus:
PC Games Hardware rät daher vom Einsatz zweier Radeon-Grafikkarten im Crossfire-Modus ab. Nvidias SLI-Technologie ist ebenfalls vom Mikroruckeln betroffen, der Hersteller dämmte die Symptome jedoch mittels Treiber-Feintunings deutlich ein.
Auch hier was für dich zum Thema: http://www.overclockersclub.com/reviews/crossfire_vs_sli/
So what did we learn from this little exercise? I learned that SLI is the more mature multi-GPU solution currently. In each of the three classes, the Nvidia technology and their video cards lost no more than four times out of 40 tests, with all things being equal - this being in the quad GPU class. Each of the other classes delivered a 37 to 3 margin of victory for team Green. Each set of cards was run at the default factory settings in the control panel to show what Joe Average will get out of a plug and play system. Could performance be improved upon by manipulating the settings in the control panel? Sure it could - on both counts, but this was about running what the system defaults to. The only deviation from this is in 3DMark Vantage, as the Nvidia cards share a distinct advantage in the PhsyX tests. The reasoning is that Futuremark does not allow the scores when the GPU does the PhysX calculations, because ATI does not have an equivalent technology to compete right now. Right now, SLI is the way to go for multi-GPU performance in the games tested in this comparison. The downside to this is that it will cost you a little bit more to get this performance, as ATI seems to have the pricing game down pat at the performance levels I looked at here. With just raw cost as a factor the GTX 295 quad GPU setup will set you back just over $1100, while the HD 4870x2 combo will only (insert sarcasm here) set you back $800-$1000 depending on the cards you buy. The Sapphire cards will only set you back 400 bucks each, instead of the more popular pricing of 500 bucks. In the single GPU card class, the GTX 285 combo will cost you almost $700 - at a cozy $680 - while the HD 4890 combo only goes for $530, with prices scaling downward based on the video card's capabilities. That being said, the best value per frame per second delivered is the GTX 260 SLI combination at $3.44 per FPS at 1920x1200, and $4.59 per frame at 2560x1600. In most of the games tested, the GTX 260 SLI combo did not deliver the best performance, but it was able to hold its own. Raw performance goes to the Quad SLI GTX 295 combo.
Wie gesagt SLI ist immer noch nicht toll oder so aber es ist doch n ganzes Level über CF anzusiedeln. Natürlich bleibt aber weiterhin eine Single GPU Karte für viele die bessere Wahl.

Ach und am Ende noch ein kleiner Rat, versuche etwas an deiner Ausdrucksweise zu arbeiten, so wie sich das liest glaubt man das man ein 14 Jährigen Möchtegern Gangsta gegenüber hat!
 
Zuletzt bearbeitet:
terraconz 1
Bully|Ossi 0

ABer grade das SLI weitaus Problemloser ist als CF ist schon lange bekannt..

Wie geh Nvidia um mit µruckler wie geht ATi damit um?

Nvidia: Sie verbessern die Treiber bzw die Profile und geben dafür auch guten Support

ATi: Jo, wir haben CF ob die Leute damit Probleme haben is uns eigentich egal, gief Money pl!xx0r
 
"ATi: Jo, wir haben CF ob die Leute damit Probleme haben is uns eigentich egal, gief Money pl!xx0r"
kleine Randbemerkung, mit dem kommenden Treiber wird es auch CF-Profile geben.
 
in der 200er serie von nvidia gibt es nur eine überragende karte, nämlich die gtx 260. rein zufällig hab ich die im rechner, aber das tut nix zur sache ;)


ich hab bisher immer nvidia und ati abgewechselt. und ganz einfach: wenn der eine schrott baut, dann kauft man halt den anderen, so funktioniert marktwirtschaft.
 
Zurück
Oben