News Nvidia GT300 mit 512 Bit und GDDR5?

Damit hast du freilich Recht. Wobei man NV zugute halten muss, dass man zugleich das PCB gekürzt, den Kühler erneuert und einen 2D-Modus eingebaut hat. Ja, die Fps-Leistung ist gleich - aber von "einfach" umgelabelt zu sprechen, finde ich nach wie vor falsch. Eine GTS 250 [ReferenzDesign] ist de facto keine 9800 GTX+ [ReferenzDesign] - nur bei der Leistung. Wobei die 9800GTX+-Modelle, die einige Boardpartner verkaufen, tatsächlich an Verarsche grenzen - die sind wirklich nur umgelabelt :(
 
Fonce schrieb:
Was soll das zeigen?
Meinst du etwa das die Mitarbeiter von AMD in Canada weniger verdienen als Nvidias Mitarbeiter in den USA?:lol:
...
Furchtbar witzig das Ganze. :rolleyes:

Nochmal ganz in Ruhe, die Kosten einer GTX 260 und einer 4870 sind nicht identisch, auch nicht wenn du PCB und GPU ausklammerst!
Welchen Punkt genau willst/kannst du nicht verstehen?

Ähm AMDs Grafikchipabteilung hat $1Mio Gewinn gemacht und Nvidia hat $201Mio Verlust eingefahren;)
Du hast nur die Newsüberschrift gelesen?
Das Nvidia nicht nur GPUs sondern auch Chipsätze und sogar darüber hinaus Produkte anbietet ist dir ebensoneu, wie der Inhalt der News: "In diesen Verlusten ist jedoch eine Einmalbelastung in Höhe von 140,2 Millionen US-Dollar enthalten, die Nvidia in Form von Aktienoptionen an die Mitarbeiter ausgegeben hat."

Aber du solltest bedenken das der GTX 260 im Highend Bereich anzusiedeln ist und dort nicht das große geld verdient wird. Wenn Nvidia nicht mit den Preisen runter gegangen wäre wären sie die Karten nicht losgeworden und damit wäre der Verlust(vorallem der der Marktanteile und des Images) größer als wenn man halt pro Karte nur ein wenig Verlust einfährt und dann versucht das ganze durch umgelabelte G92b Chips wieder rauszuholen(Stichwort GTS250...).
Das ergibt so keinen Sinn. Wo ist die GTS 250 so lange geblieben, wenn die GTX 260 so wehtut?
Und warum wird die GTX 260 nicht abgestoßen, nachdem die GTS 250 endlich da ist?

Fonce schrieb:
Ich meinte Karten auf Basis des G92b Chip die einfach umgelabelt wurden
Welche Karten sollen das sein?

Chipsätze werden aber wohl kaum zu einen Umsatzeinbruch von 42% geführt haben...
Aha, weil die Chipsätze nicht für 42% schuld sein können sind sie für 0% schuld. :rolleyes:
Wie wärs mit einem Mittelweg. :rolleyes:


Seppuku schrieb:
Definiere doch mal kaputter Markt.
Schon mal geguckt was es heute für 150€ gibt und was es früher dafür gab?
- 128bit SI vs 256/448bit SI
- billigster (G)DDR vs edler GDDR5/mittelmäßig teurer GDDR3
- Minikühler samt 40mm Lüfter vs 500g Bomber samt x Heatpipes
- 0pin Stecker vs 2x 6 pin Stecker
- 1/3-1/2 der Leistung des Topmodells vs 8x% Leistung des Topmodells
- 1/2 der VRAM Größe vs (fast) die selbe VRAM Größe des Topmodells (ausgenommen die 2GiB Sondermodelle)
- ...

Da gibts zuhauf Punkte, oder Beispiele.
Man muss nurmal die HD 4830 betrachten. Ende 2007 wurde bezweifelt, das sich eine 8800 GT für 200€ rechnet. Heute gibts die selbe Karte, mit minmal gesenkten Produktionskosten für unter 100€ in den Farben grün und rot.
 
Unyu schrieb:
Furchtbar witzig das Ganze. :rolleyes:

Nochmal ganz in Ruhe, die Kosten einer GTX 260 und einer 4870 sind nicht identisch, auch nicht wenn du PCB und GPU ausklammerst!
Welchen Punkt genau willst/kannst du nicht verstehen?
Ähm darf ich dich nochmal zitieren damit du deine Antwort auf meine Fragen mal überdenkst?^^
AMDs Entwicklungskosten sind nicht mit Nvidiasentwicklungskosten Deckungsgleich, alleine das Nvidias Ingenieur in den USA und AMDs ATI Ingenieur in Canada sitzt, sollte dies zeigen.

Das ergibt so keinen Sinn. Wo ist die GTS 250 so lange geblieben, wenn die GTX 260 so wehtut?
Und warum wird die GTX 260 nicht abgestoßen, nachdem die GTS 250 endlich da ist?


Welche Karten sollen das sein?
Ähm fangen wir mal an.
8800GT->9800GT
8800GTS->9800GTX
9800GTX+->GTS 250(ok die Platine ist neu Design wie y33h@ schon sagte, aber Performance ist gleich)
Aber man sieht bei dir Unyu gut, wie genial Nvidias Marketing funktioniert wenn du glaubst das die GTS 250 auf der GTS250 basieren würde, bzw. sie nichts mit der performance der GTS 250 gehabt hätten. Die GTX 260 abzustoßen würde keinen Sinn machen da man hiermit auch schon mal gut Teildefekte GT200 Chips noch verkaufen kann was ich auch durch aus verstehen kann und durch die umstellung auf den 55nm Prozess und bessere yieldraten ist der GT200 aus sehr viel rentabler geworden!

Aha, weil die Chipsätze nicht für 42% schuld sein können sind sie für 0% schuld. :rolleyes:
Das habe ich nie behauptet!


Schon mal geguckt was es heute für 150€ gibt und was es früher dafür gab?
- 128bit SI vs 256/448bit SI
- billigster (G)DDR vs edler GDDR5/mittelmäßig teurer GDDR3
- Minikühler samt 40mm Lüfter vs 500g Bomber samt x Heatpipes
- 0pin Stecker vs 2x 6 pin Stecker
- 1/3-1/2 der Leistung des Topmodells vs 8x% Leistung des Topmodells
- 1/2 der VRAM Größe vs (fast) die selbe VRAM Größe des Topmodells (ausgenommen die 2GiB Sondermodelle)
- ...
Boah ey und damals gab es für den Preis Karten die konnten keine 3D berechnung:freak:
Technik entwickelt sich nunmal weiter, das ist der Lauf der Dinge und es wäre ftal wenn es nicht so wäre!

Da gibts zuhauf Punkte, oder Beispiele.
Man muss nurmal die HD 4830 betrachten. Ende 2007 wurde bezweifelt, das sich eine 8800 GT für 200€ rechnet. Heute gibts die selbe Karte, mit minmal gesenkten Produktionskosten für unter 100€ in den Farben grün und rot.
Es müssen ja beim erscheinen auch ersteinmal die Produktionskosten wieder eingefahren werden und anfangs sind die yieldraten der Chips meist nicht dort angelangt wie es maximal möglich wäre. Dazu kommt das natürlich die Preise für GDDR3 RAM gesunken sind und bestimmt auch andere Bauteile ein wenig billiger oder bessere Verträge ausgehandelt wurden mit den Zulieferern. Dann könnten die Hersteller der Karten natürlich auch noch ihre Prouktionsstraßen weiter angepasst haben um noch mehr Karten in kürzerer Zeit fertigen zu können.
Dann müssen natürlich die Lager irgendwann mal für neue Produkte geleert werden den Chips die nur rumliegen bringen kein Geld sondern kosten nur und selbst wenn man ein wenig verlust pro Chip macht ist dies günstiger als wenn die Chips Jahrelang im Lager liegen und kein Platz für neue Waren da ist!
 
Was bitte genau hat den Markt zerstört?
Die 600EUR für die 7800GTX oder die 8800GTX? Oder die 250EUR für die HD3870 oder die 9800GTX?
Man muss abwägen was im Rahmen der Wirtschaftlichkeit bei brachial gestiegener MADD-Leistung weiterhin Sinn macht. - Mal fern ab von halbherzigen (G)X2-Deviraten.
Das ich aus ca. 800 Mio. Transistoren auch einiges rauskitzeln kann, ist allgemein (in Form eine 9800GTX+ zum Beispiel) bekannt.

Desweiteren frage ich mich, wie sich hier der ein oder andere den Begriff Fortschritt in Verbindung mit Grafikkarten überhaupt vorstellt.
Etwa GPGPU/ OpenCL DX11? PhysX? Oder etwa (doch) stetig steigende Rohleistung (und Leistungsaufnahme)?
Wer definiert den Fortschritt bei Grafikkarten? Ist es der Endverbraucher? Der Komplett-PC-Käufer? Oder etwa Firmen wie Crytek oder gar irgendwelche wissenschaftliche Einrichtungen und Institute (GPGPU)?

Ich wär sehr vorsichtig hier irgendetwas voreingenommen durcheinander zu bringen.
 
Fonce schrieb:
Ähm fangen wir mal an.
8800GT->9800GT
8800GTS->9800GTX
9800GTX+->GTS 250
Sind alles im Referenzdesign nicht identische Karten! Wenn die Boardpartner hier Schindluder betreiben, muss denen NV auf die Finger klopfen.
 
@ Unyu

Technik entwickelt sich. Willst du jetzt ernsthaft im Technikbereich alt und neu gegenüberstellen?
Ich bekomme für 35€ CPUs, die für 99,9% aller Leute ausreichen. Im Vergleich dazu sind die Grafikkarten noch relativ "teuer".

Der Markt ist nicht kaputt, er hat sich nur verändert. Es gibt für relativ wenig Geld für die meisten ausreichend Leistung. Die Zeiten, in denen ein Allround-Rechner über 2000 Mark, bzw 1000€ gekostet hat, sind einfach vorbei. Jetzt gilt es sich dem Markt anzupassen.
Es war schon immer so, dass die Midrange-Karten die letzten/vorletzten Top-Modelle übertroffen haben.
- Was interessiert mich das Speicherinterface. Es zählt die Leistung die letztendlich raus kommt.
- Das gleiche gilt für den Ram.
- Wenn der Chip aufwändiger zu kühlen ist, dann muss dementsprechend die Kühlung aufwändiger werden. Ich kann auch fragen: Warum sind kaum mehr Midrange-Karten passiv gekühlt. Früher war alles besser...
- Wenn man seit der Einführung der 8800 GTX (und das ist jetzt schon über 2 1/2 Jahre her), nicht einmal eine Verdoppelung der Leistung erreicht hat (gabs früher teilweise schon beim Generationenwechsel) und bis in den Sommer (dann sind es schon fast 3 Jahre) auch nicht erreichen wird. Dann ist es ja logisch, dass man mit dem Preis nach unten gehen muss, wenn die Spanne zu den alten Generationen kleiner wird.
- der v-ram war früher auch auf den meisten Mittelklassekarten groß. nur wurde er damals nicht benötigt und belächelt.


Schau doch einmal in andere Technikgebiete. Das was jetzt jedes Handy/Mp3-Player/Fernseher bietet, war vor 3-4 Jahren noch den absoluten Topmodellen vorbehalten bzw. nicht einmal die hatten teilweise so viele Funktionen.
Ich muss dem Kunden einfach neue/interessante Anreize schaffen, mehr Geld auszugeben. Wenn ich die nicht bringen kann oder will, muss ich billiger werden.
 
Zuletzt bearbeitet:
y33H@ schrieb:
Sind alles im Referenzdesign nicht identische Karten! Wenn die Boardpartner hier Schindluder betreiben, muss denen NV auf die Finger klopfen.
referenzdesign hin oder her, die Leistung ist die gleiche. Die Anpassungen des Design waren wohl eher dazu da die Karten ein wenig günstiger herstellen zu können(Was nicht mehr bei welcher Karte es war, aber da gab auf jedenfall nur noch 2 statt 3 Phasen Spannungsregler)
An den Designs werden außerdem immer wieder leichte Veränderungen/Optimierungen vorgenommen und die Herstellung effektiver und damit günstiger zu gestallten.
Und auf die Finger klopfen brauch NV da auch niemanden wenn am Ende die Leistung rauskommt die NV haben will. NV will essich schliesslich auch nicht mit den Boardpartner vermiesen.
Fakt ist, die umbenennung ist nichts weiter als Marketing, den neue Design können auchso eingeführt werden und niemand würde sich beschweren(Man brauch sich nur mal anschauen wieviele Varianten des HD4850 Layouts es mitlerweile gibt, auch wenn diese nur minimale änderungen beinhalten) und wie man an Unyu sieht wirkt es tatsächlich.:p
 
Eine "echte" GTS 250 ist u.a. stromsparender als eine 9800 GTX+. Wäre ich NV, würde ich den Boardpartnern auf die Finger hauen, die eine 9800 GTX+ nehmen und einen GTS250-Aufkleber draufpappen. Gleiches gilt für 9800 GTs ohne G92b und HSLI-Controller.
 
Naja de facto ist es aber eher so, dass Zotac - führernder NV-Umlabler ;) - in letzter Zeit immer einer der Ersten ist, der neue NV-Produkte rausbringt (Ion, 9300 ITX...).

Schelm ist, wer da Böses denkt... ;)
 
Man kann nicht hingehen und Midrange-Karten von vor 2 Jahren mit denen von heuten vergleichen und dann daraus schließen, dass der Markt kaputt sei, nur weil sie gleich viel kosten, aber dafür ein doppelt so großes SI, dickere Lüfter, mehr RAM etc. haben. Was ist das für eine Logik? Die Spiele von heute sind aufwändiger, die Anwendungsbegiete zahlreicher, und daran orientiert sich, was eine Midrange-Karte leisten kann.

Ich kann auch nicht sagen, der CPU-Markt sei kaputt, nur weil vor 2 Jahren eine Mittelklasse-CPU 1 Kern hatte und heute 2 oder 3. Das ist nunmal Fortschritt, und der Preis orientiert sich an Angebot und Nachfrage, und nicht daran, wie stabil der markt ist. Und wenn der Markt kaputt ist, dann haben sich das die Hersteller selbst zuzuschreiben, indem sie trotz wenig Innovation immer viel zu hohe Preise für die GPUs verlangt haben. Im CPU-Markt war das auch, inzwischen sieht es dort auch besser aus, trotzdem ist der Markt nicht kaputt.

Aber es geht hier eigentlich auch nicht darum, in welchem Zustand der markt ist oder wer welche Chips umlabelt, sondern um den GT300, und zu der Diskussion über selbigen sollte hier mal langsam wieder zurückgekehrt werden.
 
@Unyu: Ich habe nie behauptet, dass ich GPGPU nicht gelten lasse. Im Gegenteil, ATi hat früh mit Stream angefangen, schon zu R520 Zeiten, aber dann, sei es wegen der Übernahme, nichts nennenswertes mehr folgen lassen. Andererseits könnten wir schon weiter sein.
Nur sehe ich es nicht ein, das GPGPU Fähnchen sinnfrei so hoch zu halten, wenn aktuell nur wenige Programme GPGPU unterstützen und Besserung wohl erst mit OpenCL und DX11 kommt. Dann wird es wirklich interessant.

Und das was du als kaputten Markt ansiehst sehe ich sicher nicht als kaputt an. Zu Geforce 2 Zeiten hat man mit der GF 2 MX auch eine ziemlich schnelle Karte bekommen, die in der Praxis teilweise auf dem Niveau der Geforce 1 war und den großen Geschwistern nicht so weit hinterher hing. Zu TNT2 Zeiten gab es die auch sehr brauchbare M64, die Voodoo 3 2000 war auch nicht übel..., alles Karten um 200,-DM bei Einführung. Die Radeon 9000 war auch für 99,-€ zum Einstand zu haben und zumindest sehr brauchbar.
Erst später sind Mainstream und Performance so teuer und leistungsschwach geworden
 
Unyu schrieb:
Schon mal geguckt was es heute für 150€ gibt und was es früher dafür gab?
- 128bit SI vs 256/448bit SI
- billigster (G)DDR vs edler GDDR5/mittelmäßig teurer GDDR3
- Minikühler samt 40mm Lüfter vs 500g Bomber samt x Heatpipes
- 0pin Stecker vs 2x 6 pin Stecker
- 1/3-1/2 der Leistung des Topmodells vs 8x% Leistung des Topmodells
- 1/2 der VRAM Größe vs (fast) die selbe VRAM Größe des Topmodells (ausgenommen die 2GiB Sondermodelle)
- ...

Da gibts zuhauf Punkte, oder Beispiele.
Man muss nurmal die HD 4830 betrachten. Ende 2007 wurde bezweifelt, das sich eine 8800 GT für 200€ rechnet. Heute gibts die selbe Karte, mit minmal gesenkten Produktionskosten für unter 100€ in den Farben grün und rot.

Ich glaub das ist die einzige Aussage von dir überhaupt, mit der ich einverstanden bin. Der Markt hat sich tatsächlich in diese Richtung gewandelt, dass Karten für unter 200€ fast gleich schnell, als die TopModelle sind. Ich kann mich noch an meine X1600 Pro erinnern. Die hat etwa 100€ gekostet, war aber wirklich schweinelahm.... Die war vielleicht 1/4 so schnell, als das damalige TopModell. Heute bekommt man für 150€ eine HD4870 mit 1 GB Videoram, oder eine GTX-260-216. Diese Karten stehen selbst einer GTX-285 nur wenig nach, im Mittel etwa 20% (Siehe Computerbase-Test).
Ich bin wirklich froh über diese Entwicklung, immerhin habe ich im Marktplatz hier eine GTX-280 OC für 185€ incl. ergattern können - Für das Geld habe ich früher bestenfalls Mittelklasse bekommen. Meine X1950 Pro 512 kostete über 220€ und war vielleicht 1/2 so schnell, als eine 8800 GTX, die damals bereits released war
 
Fonce schrieb:
Fakt ist, die umbenennung ist nichts weiter als Marketing, den neue Design können auchso eingeführt werden und niemand würde sich beschweren.
Da hast du so einige Freds hier verpasst.
Als Anfangslektüre empfehle ich dir sämtliche Newsfreds über 55nm GPUs aus dem Hause Nvidia.
Ähm darf ich dich nochmal zitieren damit du deine Antwort auf meine Fragen mal überdenkst?^^
Ok, liefer mir endlich mal eine komplette Kostenaufstellung:
- GPU Produktionskosten; ok ist noch eine einfache Übung, musst nur Yield, Waferpreis, Chips pro Wafer kennen, damit verrechnen was halbdefekte noch kosten (vollwertige Teslas oder GTX 28x taugliche GPUs sind weit mehr wert)
- Kühler Preis
- PCB Preis
- Preis des GDDR3
- Preis der übrigen Bauteile
- Entwicklungskosten, samt Krankenkasse, Steuer und ...
- Marketingkosten
- Kosten des Treiberteams
...
So und wenn du das hast, dann verechne die Werte im richtigen Verhältnis.

Ähm fangen wir mal an.
8800GT->9800GT
8800GTS->9800GTX
9800GTX+->GTS 250(ok die Platine ist neu Design wie y33h@ schon sagte, aber Performance ist gleich)
Epic Fail.
1. + 2. Eben hast du noch G92b geschrieben.
2. + 3. Hm, falscher Film, da ungleiche Produkte.
Das habe ich nie behauptet!
Wirkte dennoch so.
Boah ey und damals gab es für den Preis Karten die konnten keine 3D berechnung
Technik entwickelt sich nunmal weiter, das ist der Lauf der Dinge und es wäre ftal wenn es nicht so wäre!
Stimmt, das es für 130€ über 80% der Leistung des Topmodells gibt ist somit auch Fortschritt.
Noch 2 Jahre und die 130€ Karten sind exakt so schnell wie die 300€ Karten.

Seppuku schrieb:
Technik entwickelt sich. Willst du jetzt ernsthaft im Technikbereich alt und neu gegenüberstellen?
Ich möchte Produktionskosten alter Technik gegenüber den Produktionskosten neuer Technik stellen.
Ich muss dem Kunden einfach neue/interessante Anreize schaffen, mehr Geld auszugeben. Wenn ich die nicht bringen kann oder will, muss ich billiger werden.
Die Frage ist wie schnell ich billiger werden muss.
Oder ob es Sinn macht auf große Teile meines Gewinnes zu verzichten, in der Hoffnung ein paar % Marktanteile zu gewinnen.

MacPok schrieb:
Was bitte genau hat den Markt zerstört?
Die 600EUR für die 7800GTX oder die 8800GTX? Oder die 250EUR für die HD3870 oder die 9800GTX?
250€ für die 3870 war ein guter Preis. Wenige Monate später ist der Preis auf weniger als die Hälfte gesunken, das ist kein Zeichen für einen gesunden Markt.

Ich kann dir nicht sagen, welche Entscheidung am Ende den Markt zerstört hat, wenn ich es dennoch versuchen würde ginge ich möglicherweise als noch größerer Buhmann aus der Runde hervor.
Das ich aus ca. 800 Mio. Transistoren auch einiges rauskitzeln kann, ist allgemein (in Form eine 9800GTX+ zum Beispiel) bekannt.
Aber nicht erwünscht. Guck dich um, keiner hier kann G92 leiden. Es muss unbedingt ein GT200 sein, egal ob die DP Alus gebraucht werden oder nicht.
Desweiteren frage ich mich, wie sich hier der ein oder andere den Begriff Fortschritt in Verbindung mit Grafikkarten überhaupt vorstellt.
Natürlich FPS/GFLOPs. Große Zahlen müssen schnell noch größer werden.

captain carot schrieb:
@Unyu: Ich habe nie behauptet, dass ich GPGPU nicht gelten lasse.
Gut, den dann lässt sich die Aussage "durch die Bank besser" alleine dadurch entkräften.
Solche Aussagen sind nicht leicht haltbar.

stna1981 schrieb:
Man kann nicht hingehen und Midrange-Karten von vor 2 Jahren mit denen von heuten vergleichen und dann daraus schließen, dass der Markt kaputt sei, nur weil sie gleich viel kosten, aber dafür ein doppelt so großes SI, dickere Lüfter, mehr RAM etc. haben. Was ist das für eine Logik?
Doch, denn es kann nicht sein, das es zum selben Preis immer teurere Produkte gibt. Da läuft etwas gewaltig schief.

Das CPU Beispiel zieht in dem Sinne nicht, ein Wolfdale ist ein gutes Stück kleiner als ein Northwood, dennoch wird ein vollwertiger Wolfdale nicht für unter 100€ verkauft.
Aber es geht hier eigentlich auch nicht darum, in welchem Zustand der markt ist oder wer welche Chips umlabelt, sondern um den GT300, und zu der Diskussion über selbigen sollte hier mal langsam wieder zurückgekehrt werden.
Du hast Recht, das ganze ist furchtbar entglitten.
 
Unyu schrieb:
Da hast du so einige Freds hier verpasst.
Als Anfangslektüre empfehle ich dir sämtliche Newsfreds über 55nm GPUs aus dem Hause Nvidia.
Hey der war echt gut :lol:
Ich bekomme genug vom Markt mit und lese auch genügent News und der gleichen. Ich arbeite im IT Bereich und bin seit 2001 in so ziemlich jedem hardware Forum mehr oder weniger aktiv und beschäftige mich seit 1998 mi PC Hardware.
Ich glaube grade du solltest nicht probieren mich über derartige Dinge belehren zu müssen!:lol:
 
@y33H@: Nein, ich meinte die namentlichen Vorläufer wie CAL, die damals für den ATi Video Converter oder Folding@Home genutzt wurden. HavokFX liegt ja allem Anschein nach im Koma.
Ich wollte nur mal darauf hinweisen, dass sich GPGPU bisher nicht bei Endkundenanwendungen durchsetzen konnte und manche NV Fanboys dieses Fähnchen eben deshalb nicht so hoch halten sollten, weil man aktuell auch bei CUDA nur in wenigen Fällen etwas davon hat. Und dass ich eben erst mit DX11 und OpenCL auf ernsthafte Besserung, dann aber für beide, hoffe.
Versteh mich nicht falsch, ich hatte bisher mehr NV als ATi Karten, habe auch absolut nichts gegen die grünen.
Nur hat Nvidia zur Zeit eben das Problem, dass ATi gerade im unteren Preisbereich sehr gut aufgestellt ist, Nvidia weniger. Und in dem Segment helfen NV Bildqualität in Spielen oder GPU-Physx herzlich wenig, weil Karten wie die 9800 GT für solche Spielereien kaum genug Leistung in aktuellen Spielen haben und weil viele Leute sich nun mal nicht so brennend für Features interessieren, die nur eine Hand voll Titel überhaupt unterstützt.
Ist ja auch nicht so, dass ich für ATi keine Verbesserungswünsche hätte, meine nächste Karte könnte auch von NV sein, wenn für meinen Preisbereich denn etwas brauchbares kommt.

Und auf GT300 und RV870 bin ich alleine schon aus technischem Interesse gespannt.
 
@Unyu
Das was du als einen kaputten Markt bezeichnest, halte ich für einen gusunden und ausnahmsweise mal funktionierenden Konkurrenzkampf. Das, was es zu G80 Zeiten nicht gab. Auf welcher Seite stehst du eigentlich, auf der des Kunden oder der Unternehmen? Aus Kundesicht ist doch alles gut, wenn man für wenig Geld viel Leistung kriegt. Zudem braucht man auch wenig Mitleid mit den Unternehmen haben, die dadurch weniger verdienen. nVidia hat letztens 200 Mio. Verlust (von denen mehr als die Hälfte eine einmalige Sache war) vermeldet. Wie schlimm, wenn man bedenkt wieviele Quartale davor die kontinuierlich Gewinn gemacht haben. Naja und AMD macht aus anderen Gründen Verluste, da ist die Grafiksparte ja auch nur ein eher kleiner Teil.
Unyu schrieb:
Stimmt, das es für 130€ über 80% der Leistung des Topmodells gibt ist somit auch Fortschritt.
Noch 2 Jahre und die 130€ Karten sind exakt so schnell wie die 300€ Karten.[/B]
Stimmt nicht. Die Topmodelle sind GTX 295 und 4870 X2. Ich weiß, dass man dagegen (verständliche) Abneigung haben kann, aber das ist in diesem Zusammenhang irrelevant.
 
Es gibt nicht mehr die klassische Aufteilung Low End, Mittelklasse und High End. Inzwischen gibt es soviele Modelle, dass der Unterschied zwischen den einzelnen Modellen minimal ist, man schaue z. B. bei nVidia 9800 GT, 9800 GTX, 9800 GTX+, GTX 260-192, GTX 260-216, GTX 275, GTX 280, GTX 285 und bei AMD HD4830, HD4850, HD4870, HD4890. Und das war jetzt nur ein Teil des jeweiligen Portfolios. Die decken eine so große Palette ab, dass da einfach keine Lücken mehr sind. Deshalb gibts da auch Verschiebungen im Preisgefüge, ist doch logisch.
 
Sentionline schrieb:
Also mein zuletzt gekauftes Spitzenmodell von Nvidia war die NV40 alias 6800Ultra. Von 2004 hab ich bis 2008 alle Spiele (inkl. Crysis) spielen können.

Ja klar, Crysis mit einer 6800Ultra... bei 640 x 480 mit 17 fps :evillol:

Spielen können und flüssig spielen sind ja bekanntlich zwei verschiedene Dinge :p
 
Nee das geht schon, ich hab mit einer X800XT auch Crysis gespielt am Anfang, musst halt die Details auf Low stellen und die Auflösung nicht zu hoch setzen, dann geht das. Aber schön ist was anderes ;)
 
Zurück
Oben