News Drastische Preissenkung der GeForce GTX 200

@ Matze_Pukem

Kein Plan welche Treiber du kennst, ich weiß nur das meine 8800GTS unter Vista 64Bit bei DoD Source so stark eingebrochen ist das es unspielbar war, dies hat meine alte X1650XT besser hinbekommen, um genau zu sein mit _50_ fps mehr.

Wer so schlechte Vista Treiber programmiert hat eindeutig die Zeichen der Zeit verpasst, wegen diesen genialen Treibern darf ich wieder mit XP unterwegs sein und kann auf DX10 verzichten da bringt mir weder CUDA noch PhysX was.

@ serra.avatar

Was bringt uns denn das tolle PhysX wenn die Spiele die es dafür gibt eh kaum aufgewertet werden? Insofern genauso sinnvoll wie DX10.1.

Zu CUDA gibt es von AMD das Gegenstück CTM - AMD macht nur wie schon so oft zu sehen den immensen Fehler keine PR darum zu machen.
 
Naja, ich hab arbeite mit der aktuellen stable-Version von Windows, und die hat bekanntlich kein DX 10 bzw. DX 10.1 *g*
Deshalb tendiere ich derzeit leicht zur 280, gerade weil mein Rechner häufig um Leerlauf läuft für Fernzugriff.
Gibt es denn schon genaueres zum G200b hinsichtlich Termin? Oder weiterhin nur "2. Halbjahr 2008"?
 
Man Junge (cosmicparty)

verschone uns mit deinem Fangesabbel!!!

Versuch hier nicht Nvidia schlechtzureden und allen Forenusern deinen Willen aufzuwingen!

Das in deinen Aussagen absolut keine Objektivität steckt, zeigst du ja, indem du die Vorteile der 200er Chips verschweigst.

2D Energieaufnahme
Gute Treiber (ich hatte lange genug Ati Karten, um den Catalyst hassen zu lernen)
Übertaktungspotential (mit ner schnellen CPU skaliert der 200er etwas besser)
PhysX


Für mich persönich ist es noch der riesige Performancevorteil der Nvidias in FSX. Das ist nämlich das einzige Game, was ich zocke. Da nimmt eine 260er der 4870 locker 30 bis 40% in 1680x1050 ab!
 
Krautmaster schrieb:
naja, PhysX gibts schon einiges auf dem Markt, DX10.1 eher weniger ( komm mir jetzt bitte nicht mit AC )

Naja, PhysX auf Geforce-Karten (nicht die Ageia-Karte!) gibts bisher nur im 3DMarkt und einigen speziellen Karten von UT3, DX10.1 gibts bisher in einer Tech-Demo von ATI und in AC. Das ist beides nicht besonders viel und IMHO aktuell gleichwertig.
Was in Zukunft mehr Wert ist, wird man sehen. Wahrscheinlich wird aber beides in DX11 aufgehen (DX10.1 sowieso, weil die Anforderungen für DX10.1 sicher auch in DX11 erfüllt werden müssen, und PhysX, weil ich hoffe und denke, das Microsoft eine eigene Physik-Schnittstelle ala DirectPhysics einführt).

Dazu muss man sagen das die 280 GTX einfach die schnellste Karte auf dem Markt ist. Wann war die schnellste Karte bitte Preis/Leistungs Sieger? 350€ sind für die High End Karte schlechthin immernoch ein akzeptabler Preis wenn man mit Vorgängergenerationen vergleicht.

Klar, High-End ist kein Preis-Leistungs-Sieger. Das ist logisch. Auch die 4870 ist ja kein P/L-Sieger, wenn dann hat nur die HD 4850 diese Prädikat verdient.
Aber High-End hat früher auch mehr als 10% mehr geboten als das Performance-Segment. Setz mal die X1950 XT ins Verhältnis zur 8800 GTX nach dem G80-Launch. Das waren ganz andere Performance-Unterschiede. Auch da war die 8800 GTX sicher kein P/L-Sieger, aber der Aufpreis vom Performance-Segment brachte eine deutliche Mehrleistung - und die fehlt eben der GTX 280 gegenüber der 4870, sie ist nur etwas schneller. Dadurch hatte die 8800 GTX damals auch gerechtfertigt diesen hohen Preis.

Bei der Geforce findet man jedoch die ausgewogenere Spieleleistung, bessere Min Frames und SLI Skaliert einfach um Längen besser als CF zu Quadcrossfire...

Naja, da würde ich mal schauen inweifern sich das mit Sideport auswirkt, ich weiß trotz dieser Tests immer noch nicht, ob der eine Bedeutung hat oder nicht. :D
SLI zu Q-CF sollte aber wahrscheinlich die bessere Skalierung haben, ja. Da hat GT200 noch seine Stärken.
 
Warum hat eigentlich noch niemand getestet, wie es jetzt mit den Microrucklern aussieht? Angeblich soll ATi in dem Bereich ja was unternommen haben.

Man muss doch nur die Framerate kontinuierlich aufzeichnen und in einem Liniendiagramm darstellen. Dann erkennt man doch sehr gut, ob die Framerate linear bleibt oder periodische Schwankungen aufweist.

So eine Messung finde ich extrem wichtig, denn was nutzt einem eine hohe aber schwankende Framerate, wenn die ruckliger ausssieht als eine niedrigere konstante Framerate?
 
Das ist natürlich für all diejenigen ärgerlich, die sich vor ein paar Wochen eine entsprechende Karte gekauft haben. Der Preisverfall und die damit verbundene Entwertung der bisher gekauften Karten ging diesesmal extrem schnell.
 
serra.avatar schrieb:
Ja klar, zeigt mal wieder das Niveau hier: ne MultiGPU gegen ne Single GPU vergleichen ... wäre ja ne Schande wenn ATI da nicht vorbeiziehen könnte ... die 4870 kanns auf jedenfall nicht richten ... vergleich die 4870x2 mal mit nem SLI aus 2x 280GTX dann kannste werte ziehn und da siehts dann gleich wieder anders aus ... Aber Äpfel mit Birnen ist hier ja schon normal ... dachte bei ner Umfrage letztens kam raus das hier viel Abiturienten online sind ... ach ja ich vergass ja PISA hat ja gezeigt was das bedeutet ;)

versteh doch mal endlich, das nunmal die zukünftigen high-end karten aus mehreren gpu´s bestehen werden ... auch bei nvidia !!

wenn amd nunmal 20 gpus verbaut für den gleichen preis wie amd eine, dabei aber mehr leistung erzeugt ist es doch völlig latte wie diese zustande kommt.

nur weil amd jetzt schon damit anfängt und DAS nunmal die high-end karten sind muss man sie doch nicht, nicht vergleichen können?

die 4870X2 ist vom preis und er leistung die high-end karte ... genau wie die GTX280.

-> vergleich erwünscht ...

komm raus aus deinem keller und verstehe das multi gpu´s die zukunft sind ... chips alá G200 sind dinosaurier die vom aussterben bedroht sind (wenn nicht sogar schon tod)
 
Genau aus dem Grund versteh ich Leute nie, die einem "Lager" angehören und den anderen Hersteller immer "angreifen".

Wie man an dieser Generation sieht, profitieren wir Kunden am meisten davon, wenn beide Hersteller gute Grafikkarten haben, und dadurch ein Preiskampf entsteht. Ohne ein starkes AMD wären wir heute noch bei ..... 500 Euro für die GTX280.
 
MacPok schrieb:
Das ist natürlich für all diejenigen ärgerlich, die sich vor ein paar Wochen eine entsprechende Karte gekauft haben. Der Preisverfall und die damit verbundene Entwertung der bisher gekauften Karten ging diesesmal extrem schnell.
Nunja, damit muss man im Highendsektor immer rechnen.
Deshalb wird sich das Mitleid hier in Grenzen halten.
 
@ Lord Quas

es heisst übrigens tot!

wahrscheinlich hast du einen Denkfehler. Das sich Multigpu Grafikkarten durchsetzen halte ich für fraglich, da auf absehbare Zeit Energie sehr teuer wird und 2 oder mehr GPUs nicht automatisch doppelt oder x mal so schnell sind, jedoch fast doppelt oder x mal so viel Energie verbraten!

Bitte bring jetzt nicht einen Vergleich mit CPUs. Ja da geht die Entwicklung in die Richtung viele Kerne, aber eine CPU muss auch ganz andere Daten berechnen.
 
Wenn ich mir hier mal die Kommentare durchliest, bekommt ich das Gefühl inmitten von ATI- & Nvidiamitarbeiter zu stecken :stacheln: :mussweg:
 
die ganze technologie steckt doch noch in den kinderschuhen ...

wieso sollte es nicht möglich sein später 3/4 der gpus abzuschalten?

der vergleich ist zwar etwas weiter hergeholt, aber auch in der natur sind nicht die großen schweren kräftigen wesen, die, die am effizientesten oder erfolgreichsten sind.

es ist doch "erschreckend" zu sehen, dass schon heute der wandel stattfindet. hättet ihr gedacht das die G200 mit diesen randbedingungen so "schlecht" gegenüber den ati karten abschneidet?! das nvidia so wenig damit verdient?!

ich nicht ...

außerdem gab es von nvidia schon statements dazu, das auch sie in zukunft auf multigpu lösungen bauen.

EDIT: natürlich wird die 4870X2 oder die 5870X2 nicht zu 100% vergleichbar mit einer single lösung sein ... aber die karten werden immer besser, ich selbst hab eine 3870X2 (bin auch sehr zufrieden) aber schon die 4870X2 soll viele kleinigkeiten behoben haben ... alles was ich sagen will, ist das diese "richtung" einfach akzeptiert werden muss. nur weil amd nicht den weg von nvidia (noch) geht ... heißt das nicht das man deren produkte nicht vergleichen kann.
 
Zuletzt bearbeitet:
serra.avatar schrieb:
DX10.1 ?? das ist doch nur für die Kiddies die sich ihre ATI schönreden müssen, DX10.1 braucht kein Mensch, DX10 wird ja noch nichtmal nur Ansatzweise genutzt und wenn das dann mal soweit ist gibts eh schon DX11 ...

Und zum Preisverfall: ist doch auch nix neues, wenn du heute kaufst ist bereits in nem halben Jahr später nix mehr wert ... jetzt ist durch die ATI halt schonmal etwas früher billiger, ist doch gut für jeden von uns ... aber das diese alten Weisheiten immer wieder in ne neuen News ausgeweitet werden müssen ? gibts den nix wirklich interressantes mehr?

Ahaha das ich nicht lache, aber PhysX ist ja sooo toll :freak: Es verlangsamt die Grafikkarte und wird von einem Benchmark und ein paar Maps bei UT3 unterstützt was auch auf alten PCs wunderbar läuft... komm klar Nvidia "kiddie" ;)

serra.avatar schrieb:
Ja klar, zeigt mal wieder das Niveau hier: ne MultiGPU gegen ne Single GPU vergleichen ... wäre ja ne Schande wenn ATI da nicht vorbeiziehen könnte ... die 4870 kanns auf jedenfall nicht richten ... vergleich die 4870x2 mal mit nem SLI aus 2x 280GTX dann kannste werte ziehn und da siehts dann gleich wieder anders aus ... Aber Äpfel mit Birnen ist hier ja schon normal ... dachte bei ner Umfrage letztens kam raus das hier viel Abiturienten online sind ... ach ja ich vergass ja PISA hat ja gezeigt was das bedeutet ;)

Dein niedriges Niveau und dein offensichtlicher Neid gegenüber Abiturienten lässt vermuten, dass dir entgangen ist, dass zwei 280GTX ein nochmal fetteres und teureres Netzteil benötigen werden und die 2 Nvidia Karten dann am Ende doppelt soviel kosten, mal abgesehen davon, dass die Karten so scheisse sind, dass es nie eine DualChip Karte geben wird. :heuldoch:

PS. fürs Protokoll: ich mag auch keine Zwei Chip Lösungen, aber wer sonen Blödsinn schreibt....
 
@ domian

Dir ist aber schon klar, dass selbst eine GPU aus vielen kleinen Recheneinheiten (wenn du willst "Kernen") besteht?
Bei einer CPU kann man nicht unbedingt jedes Programm "für mehrere Kerne programmieren", da nicht alles parallelisierbar ist. Anders schaut es bei einer GPU in ihrem Gebiet aus, welches sich wunderbar parallelisieren lässt. Von daher machen viele Kerne bei GPUs deutlich mehr Sinn als bei CPUs (hier zahlt es sich nur in bestimmten Anwendungen aus).
 
@ illegalz

30%?

Ein 280 GTX mit 780/1600/2200 hat schon die 30% die ihr auf die X2 fehlen.
Die Taktraten finde ich mit einem G200b keineswegs unrealistisch. Klar wird etwas mehr Spannung nötig sein, eventuell soviel wie beim jetztigen 65nm Prozess, aber viel heißer dürfte der Chip dadurch nicht werden.
Zudem gibt es noch weit mehr Auflösungen / Einstellungen als AMDs Paradedisziplin 1600er + 8xAA...

Eine Singelchip karte weist einfach immernoch klare Vorteile gegenüber einer CF / SLI Lösung auf.
Wenn der Stromverbrauch der X2 nicht um min 80% in idle runter geht seh ich da kein Sinn. Auch unter Last braucht sie einfach viel zuviel.
Ich warte auf den Wundertreiber oder was Wunderbios - letzteres werden sich jedoch nur 1% aller Karten Käufer selbst aufspielen können...

Mir ist klar das der G200 ein Monster Chip darstellt. Aber denkt mal ein bisschen in die Zukunft. Nvidia hat jetzt einen Großen Chip der trotz Größe recht wenig Strom frisst, vgl mit aktuellen AMD Karten. Stromsparmodi funktionieren überraschend gut. Mit 55nm schrumpft der Chip, 45nm sind Ende des Jahres / Anfang nächstes Jahr schon standard, schwups ist der Chip so groß wie der R770 heute. Man hat also noch genug Zeit Multigpu Nachteile in den Griff zu bekommen.
AMD hat einen erstklassigen Chip, der technologisch vor dem G200 steht. Daran gibts keinen Zweifel. In Punkto Effizienz sehe ich jedoch Nvidia vorn.

Edit:

"So soll die TMU-Domäne mit 738 MHz takten, während die Shadereinheiten mit 1.666 MHz angesteuert werden. Der Speicher wird mit 1.260 MHz betrieben."
=> 738/1666/2520 = knapp über 30 % schneller als standard 280 GTX
 
Zuletzt bearbeitet:
ihr sprecht alle von einem aufpreis gegenüber der hd 4850, wieso das?

"Die GTX 260 wird statt bisher 399 ab sofort für 299 US-Dollar zu haben sein"
299 US-Dollar = 188,536478 €.

liegt doch deutlich unter dem preis der 4850.



gruß
 
wieso sollte es nicht möglich sein später 3/4 der gpus abzuschalten?

genau das selbe hab ich mir auch gedacht

Außerdem gab es vor eineiger Zeit doch diesen Bericht über Raytracing womit es möglich ist schnell über viel Cores zu rendern. Also wird die zukunt wohl oder über in Multicore systemen liegen. (Zumahl auch irgendwann die Grenzen in Fertigungsgröße und Taktrate ausgereitz sind.)

@slickride: schon mal was von MWST gehört...
 
Zuletzt bearbeitet:
Oh hat da Nvidia etwa kalte Füße bekomme?! Also mal ehrlich: Es ist doch wohl logisch, dass bei einer Karte für 500€ nur ein geringer Teil an Menschen sich die kaufen wird! Mit Exklusivität macht man weniger Umsatz als mit einem guten P/L Verhältnis. Allerdings sollte der Umsatz trotzdem in den Keller gehn, da die hohen Produktionskosten des Chips trotz Preissenkung ja weiterhin gegeben sind...
 
@slickride
Du kannst nicht den Dollerpreis in Euro umrechnen per Kurs, hier gelten andere Preise als in Übersee. Ausserdem bekommt man eine HD 4850 schon ab 130€ und eine HD 4870 ab 200€.
 
Zurück
Oben