News Nvidia GT300 mit 512 Bit und GDDR5?

Ich träume von einer GT300 Mainstreamkarte, die weniger Strom verbraucht, weniger kostet und die gleiche Leistung wie GTX260/280/275/285 hat... So wie früher. Eine 7600GT kam gegen eine 68Ultra an, eine 4670 an eine 3870 usw
 
Schön dass das 113% Steigerung der Shader etc.. etc.. ist nur sollte auch klar sein, dass das noch lange nicht das Das doppelte an Leistung bedeutet =)
 
hübie schrieb:
Bitte deute das hier nicht als Fanboygeplapper, stna1981 da ich nur für mich spreche:

Eine GTX285 ist auch jetzt nicht preislich attraktiv, da ich in 1680x1050 spiele und dann lieber die ~80-90€ günsitgere HD4890 nehmen würde (bei 4xAA 13% langsamer).
ATi ist einfach in der besseren Position wenn wir diese Diskussion auf Preis und Leistung beschränken. Und das ist das einzige was für mich zählt.
Energie kann man auch anderswo sparen und einen leisen Lüfter gibts meist für 20€ ;)

Bzgl. der 5D-Shader kann ich nur sagen, dass 40% der Programme auf dem Markt mit ATi besser laufen und 60% mit nVidia (gefühlt/geschätzt). ATi hat wiederum ein guten Speicherbus. Deswegen finde ich die Aussage es handele sich beim GT300 um ein effizientes Speichersystem etwas vorgegriffen.

Wo habe ich behauptet, dass eine GTX 285 günstig ist. Wenn du meinen Beitrag gelesen hast, dann solltest du auch gelesen haben, dass ich nVidia konkurrenzfähige Preise nachsage, AUßER BEI DER GTX 285. Wenn du aber eine HD4890 vergleichst, dann mit der GTX 275, und da sieht das wieder ganz anders aus.

Ich habe auch nie gesagt, dass der GT300 ein effizientes Speichersystme hat. Woher soll das auch jemand wissen, das wird sich erst zeigen, wenn der Chip draußen ist. Und wie du auf 40% bei ATi kommst, musst du mir auch erklären, die meisten Spiele laufen immer noch auf nVidia-Karten besser, da nVidia durch TWIMTBP einfach näher an den Produzenten dran ist. Ich rede nicht von echten DX10.1-Titeln, da ist ATi klar vorn, gibts aber nur ca. 5 :-/


Unyu schrieb:
So sehr ich mich auch bemühe, ich kann nicht den Zusammenhang zwischen Quartalsergebnissen und einer High-End GPU entdecken.
Vielleicht trübt meine Kenntnis, das der gesamte kaputte Markt, besonders im unteren und mittleren Segment entscheidend ist meine Sichtweise.

Andererseits wundere ich mich, woher du weißt, das GT200 GPUs dank 400€-4000€ Karten ein böser Verlust gewesen sind.

Ich rede vom Endkundenmarkt, nicht von Workstation-Grafikkarten für tausende von Euro. Und wenn ein Hersteller den Preis seiner beiden TOP-Produkte innerhalb weniger Wochen um über ~33% senken muss, dann ist das für die Marge einfach schlecht. Das ist halt nunmal einfach so. Da gibts nix zu diskutieren, auch wenn dus nicht nachvollziehen kannst oder willst ;)
 
Na du hast doch geschrieben, dass man über die Preise nicht meckern kann. Ich kann das :) Finde 280€ für ne GTX285 zuviel. 230€ wäre angemessen angesichts der Konkurrenz (auch aus eigenem Hause!).
Des weiteren fühlst du dich anscheinend angegriffen. Das sollte natürlich nicht so rüberkommen. Ist halt immer etwas nachteilhaft wenn man sich net gegenüber sitzt. Die Karten haben natürlich ihre Daseinsberechtigungen.

Zu den 40% schrieb ich ja auch das es gefühlt ist. Ich habe hier mehr als 150 Titel rumliegen und spiele seit vielen Jahren. Das sind Erfahrungswerte von mir und aus dem Freundes-/Bekanntenkreis. Schau dir mal Benchmarks an. Die Vorteile durch TWIMTBP sind meistens nur bis zum nächste Catalyst-Release geltend (siehe Crysis oder Doom³ damals).

stna1981 schrieb:
Ich habe auch nie gesagt, dass der GT300 ein effizientes Speichersystme hat.

Und ich habe nie gesagt, dass du das gesagt hast ;) War nur Zufall, dass ich unter deinem Post als nächster dran war. Ich bezog mich ausschließlich auf die News.
 
Schön erstmal warten. Bis die guten Karten kommen, schön erstmal den 300 angucken und warten bis die 385 GTX wieder in den Startlöchern steht. Oder vielleicht eine 395 GTX und gut ist. Dann soll hoffentlich ATI eine gute Karte bauen und dann wird NV den Preis wieder schön senken und fertig ist die Leistungsstarke Karte zu einem guten Preis. Ich werde schön ein halbes Jahr bis Jahr warten bevor meine GTX285 aus dem Rechner kommt.
 
Glaube die wird meine karte aber ich warte auf das reflech wie bei der gtx 280 Kamm ja eine reifere Version raus gtx 285 das werden die bei der gtx 300 dann bestimmt auch machen ;P

bis dahin tuts meine gute alte nvidia 8800 auch noch die überiger weise alle spiele auf max spielen kann die einzige Ausnahme crysis ^^ aber wegen ein spiel jedes Jahr die neuste karte zu holen wirde ich verrückt nennen ;P (machen aber viele was ich komisch finde ;PÜ)
 
Reifer war sie trotzdem wurden kleiner hergestellt also weniger wärme weniger Energie verbrauch also wenn das net reifer ist weiß ich auch net mehr ;P (achja und dank der neuen ausgereiften Verkleinerung wurde sie auch noch schneller ^^)

und 2010 soll es sogar mit 25 nm Herstellung los gehen da wird die gtx 300 bestimmt auch dann drauf umgestellt

Ps: aber mal ne frage am rande wie lange behaltet ihr eure Grafik karten so? also meine nvidia 8800 habe ich noch seit dem sie raus Kamm XD (hoffe hält noch ne weile ;P)
 
25nm 2010, träum weiter... die haben noch net mal 40nm richtig im Griff...
 
Trimx schrieb:
also weniger wärme weniger Energie verbrauch
Bei gleicher VCore tut sich wenig. Und eine GTX 285 läuft mit nur 1,15V statt wie die GTX 280 mit 1,18V. Zudem anderes PCB und weitere Kleinigkeiten.
 
25 nm stand mal in einer news hier auf der seihte mit 2010 und 2011 soll es mit 22 weiter gehen angeblich ;)
 
hübie schrieb:
Finde 280€ für ne GTX285 zuviel. 230€ wäre angemessen angesichts der Konkurrenz (auch aus eigenem Hause!).
Oder anders rum, die anderen Karten sind zu billig.

stna1981 schrieb:
Ich rede vom Endkundenmarkt, nicht von Workstation-Grafikkarten für tausende von Euro. Und wenn ein Hersteller den Preis seiner beiden TOP-Produkte innerhalb weniger Wochen um über ~33% senken muss, dann ist das für die Marge einfach schlecht. Das ist halt nunmal einfach so. Da gibts nix zu diskutieren, auch wenn dus nicht nachvollziehen kannst oder willst
400€ sind keine tausende €.

Richtig ist, das der Gewinn durch die Preissenkung geschmälert wurde. Mehr kannst du daraus nicht ableiten.
Allerhöchstens, das sich Nvidia absolut nicht vorstellen konnte, das AMD ein +350€ Produkt für knapp 200€ verballert.

captain carot schrieb:
weil ATi schnelle, kleine günstig herzustellende GPU´s auf günstigeren PCB´s verbaut mit denen Nvidia konkurrieren muss, wobei die NV Lösungen in der Herstellung teurer sind?
Ob jetzt 15,20 oder 30$, nicht gerade weltbewegend.
Ob 8 Layer oder 8 Layer, scheint recht ähnlich zu sein, so böse schlagen die 448bit nicht durch.

Interessant, das bei dir eine Grafikkarte aus lediglich 2 Komponenten besteht.
Da du dich hier in einem Bereich begibst, wo die Unterschiede im kleinen 2 stelligen $ Bereich liegen, muss alles rein in die Kostenanalyse.
Sowohl der GDDR5 Preis, als auch die Krankenkassenbeiträge des Nvidia Entwicklungsingenieurs.
Ich habe die Diskussion bereits geführt, keiner war in der Lage entsprechende Zahlen zu liefern.

captain carot schrieb:
ebenfalls verhältnismäßig teure Performancekarten...
Das ist schon viel eher der Grund der schlechten Zahlen, sämtliche Karten werfen zu wenig Gewinn ab.
AMD hat übrigens das selbe Problem.

captain carot schrieb:
nur hat ATi im Preissegment bis 130,-€ durch die Bank das bessere Angebot (Preis/Leistung) und steht bis 200,-€ sicher nicht schlechter da.
Das ist eine sehr gewagte Aussage. Bei den vielen Karten und Anwendungen.
Darüber hinaus sind auch Cuda Anwendungen Anwendungen, hm.

captain carot schrieb:
Das dürfte Nvidia zusammen mit Wirtschaftskrise, Intel IGP´s und co. durchaus Probleme bereiten.
Natürlich, der Markt ist kaputt, die Kunden sind ohne Geld und in Zukunft wird es nicht besser.
 
@Unyu:
So teuer scheint GDDR5 mittlerweile auch nicht mehr zu sein, denn AMD nimmt auf der 4770 statt eines 256Bit SI was für ausreichende Bandbreiten? genau GDDR5.
Und ja, der Ingenieur kostet sicher Geld, aber das tut er bei AMD auch, oder? Und mit ausreichenden Stückzahlen sinken die Entwicklungskosten je Karte.
Zahlen kennt hier keiner genaue, die kann ich dir also auch nicht bieten, nur während etwa die 2900XT für ihre Leistung einfach zu teuer war, scheint man mit der 3K und 4K Reihe bei AMD keine Probleme mit dem Herstellungspreis zu haben. Sicher, der Preiskampf ist in den letzten zweieinhalb Jahren schon extrem geworden, das sind die beiden aber selbst schuld.
CUDA, tja, bis jetzt noch eine Randerscheinung. Ich würde mir zwar mehr CUDA und Stream Anwendungen wünschen, aber vor DX11 und OpenCL wird aus GPGPU auf breiter Ebene wohl nichts mehr. Deswegen ist mir der Nvidia Vorteil vorerst noch relativ egal und findet im professionellen Bereich noch eher wenig Eingang. Wobei Besserung definitiv gewünscht ist, aber von beiden bzw. für beide.
Der Markt ist kaputt? Entweder das, oder man hat die Preise künstlich hochgehalten und jetzt zeigt der Markt sein wahres Gesicht. Dazu kommt noch ein anderer Punkt. Wer vor zweieinhalb Jahren einen Highendrechner geholt hat, sagen wir mit 8800GTX und einem C2D 6700, der braucht zur Zeit nur dann aufrüsten, wenn er unbedingt in hohen Auflösungen mit AA/AF spielen will. Prinzipiell läuft auf so einem Rechner aber noch alles flüssig.
Selbst ein X2 6000 reicht für´s meiste aus.

Und von Videoencoding und ähnlichem brauchen wir da eigentlich auch nicht reden. MPEG2 Encoding schafft jede Möhre mit links in ausreichend kurzer Zeit, Divx und Xvid brauchen zwar etwas länger, aber nicht so lange.
nur H.264 bzw. x264 machen selbst aktuellen Rechnern zu schaffen, und die meisten Menschen sind noch längst nicht im HD-Zeitalter angekommen.
Und rendern oder CAD macht auch nicht gerade jeder zu Hause.
Mich wundert´s jedenfalls nicht, dass viele Leute keine neue HW holen. Viele brauchen ob mit oder ohne Krise einfach keine.
Die Enthusiasten werden sich über einen starken GT300 ganz sicher freuen, ich bin auch mal gespannt. Nur frage ich mich eben gleichzeitig, ob das, was die Gerüchte sagen die beste Lösung ist.
 
AMDs Entwicklungskosten sind nicht mit Nvidiasentwicklungskosten Deckungsgleich, alleine das Nvidias Ingenieur in den USA und AMDs ATI Ingenieur in Canada sitzt, sollte dies zeigen.
Es fehlt nunmal eine komplette Kostenaufstellung, nicht nur die Auflistung GT200 kostet 15$ mehr.
Das AMD keine Probleme im Gegensatz dazu glücklich mit den Kosten ist, kann ich nicht sehen.
Weiter oben wurde noch behauptet, die Produktionskosten der GT200 Karten hätte derart gravierdenden Einfluss auf die Bilanz, dann müsste AMDs Bilanz einfach nur prächtig aussehen.

Es ist nicht lange her, da ist der Preis der GTX 260 tief in den Keller gestürzt. Wundert mich ziemlich, das dies mit einem Produkt geschieht, das schon bei 400€ für Verluste gesorgt haben soll. Ist sicher auch mit ein Grund, das die vergleichweise günstige GTS 250 1024 so lange auf sich warten lies.


Der Markt ist kaputt, ja.
Wer oder was schuld ist, ist zweitrangig, ob künstlich hohe Preise oder mangelnder Fortschritt oder ein entfesselter tötlicher Preiskampf oder die aufgekommende Eroberung des Performancemarktes von der MGPU Hype oder die Tatsache, das es bislang keine neue Konsolengeneration gibt.
Jedenfalls war er es auch vorm offiziellen Start der Wirtschaftskrise.


"Die Enthusiasten werden sich über einen starken GT300 ganz sicher freuen, ich bin auch mal gespannt. Nur frage ich mich eben gleichzeitig, ob das, was die Gerüchte sagen die beste Lösung ist."

Was ist die beste Lösung?

Eine massive Steigerung der GPGPU Performance, wie beim GT200 ist mehr als nur wahrscheinlich.
Ja ich weiß, Nvidia entwickelt nunmal große Dinge für die Randerscheinung GPGPU, die du nicht gelten lässt. ;)
 
Zuletzt bearbeitet:
Definiere doch mal kaputter Markt.
 
Unyu schrieb:
alleine das Nvidias Ingenieur in den USA und AMDs ATI Ingenieur in Canada sitzt, sollte dies zeigen.
Was soll das zeigen?
Meinst du etwa das die Mitarbeiter von AMD in Canada weniger verdienen als Nvidias Mitarbeiter in den USA?:lol:
Oder das bei AMD "nur" Canadier arbeiten und bei Nvidia nur US-Amerikaner?:lol:

Das will ich etzt mal genauer erläutert haben.:evillol:

Weiter oben wurde noch behauptet, die Produktionskosten der GT200 Karten hätte derart gravierdenden Einfluss auf die Bilanz, dann müsste AMDs Bilanz einfach nur prächtig aussehen.
Ähm AMDs Grafikchipabteilung hat $1Mio Gewinn gemacht und Nvidia hat $201Mio Verlust eingefahren;)
Also das nenn ich mal kein schlechtes Ergebnis im bezug auf das Verhältnis der Marktanteile.

Aber du solltest bedenken das der GT260 im Highend Bereich anzusiedeln ist und dort nicht das große geld verdient wird. Wenn Nvidia nicht mit den Preisen runter gegangen wäre wären sie die Karten nicht losgeworden und damit wäre der Verlust(vorallem der der Marktanteile und des Images) größer als wenn man halt pro Karte nur ein wenig Verlust einfährt und dann versucht das ganze durch umgelabelte G92b Chips wieder rauszuholen(Stichwort GTS250...).
 
Zuletzt bearbeitet:
y33H@ schrieb:
Der G92 heißt nach nach wie vor G92.

Ich meinte Karten auf Basis des G92b Chip die einfach umgelabelt wurden
 
Zurück
Oben