hat nVidia nicht total versagt ?

Keyser Soze schrieb:
Mhm also du meinst wenn ich mir aus zwei Golf nen Wagen zusammenschraube der schneller als nen Porsche ist, wäre das auch die besser alternative ?

Für den der schraubt auf alle Fälle, vor allem hat er auch noch den Spaß 2 Golfs auseinander zu nehmen und dann einen draus zu machen und hey n Unikat haste dann auch noch :D
 
wer meint nvidia kann in nächster zeit die preise drastisch senken ist wohl aufm holzweg, da die herstellung der GTX280 extrem teuer ist.
ca 100 gpu pro wafer bei ner ausbeute von 40%... das geht ins geld, da ein wafer ca 5000$ kostet.
man spricht von kosten von 125$ nur für die gpu. was noch alles dazu kommt, muß man ja net erläutern.

und nvidia ist börsennotiert und kann sich auch net auf dauer zuschußgeschäfte leisten. dann sinken die aktienkurse und im management dürfte panik ausbrechen.
nvidia ist auch net M$.
 
Cosmicparty, wollen wir wetten?
 
was meinste denn, auf welches niveau sich die 280 einpendeln wird?

erst mit dem GT200b, geshrinkt auf 55nm, kannste mit besseren preisen rechnen.

und ich geh jede wette mit, dass nvidia ide preise nicht drastisch senken kann. oder meinste, das teil gibts bald für 350€?
dafür produziert nvidia auch viel zu wenig davon. die "paar", die die herstellen, kriegen die auch für kanpp 500 verkauft an irgeldwelche fans.

PS obwohl, ich gugg grade bei geizhals. die dinger sind ja in massen da.
ist wohl kein großer ansturm auf die karten *g*

wird wohl doch n problem die zu verkaufen, da es heutzutage für 100€ echt schon gute leistung gibt die auch bis 22er monitore ausreichet
 
Zuletzt bearbeitet:
Der Preis der GTX 280 wird sich auf ca. 380-400,- Euro einpendeln, während die 4850 ihren Preis von 150-180,- Euro erstmal halten wird. Kommt drauf an, wie stark die 4870 ist und wo die Straßenpreise dann wirklich liegen werden.
 
Seit wann sind kompromislose High-End Käufer Fans?

Zum Thema GTX 260:
nur der vollwertige G200 kostet 125$ ....
Für 130€ gibts komplette Karten mit 1GiB 1ns GDDR3!
Macht unterm Strich?
 
Zuletzt bearbeitet:
es sollen angeblich 3 hersteller sein, foxconn als größter auftragshersteller wird da bestimmt drunter sein.

die speicher der GTX280 sollen auch sehr teuer sein, da es handselektierte chips sind.

vergeß die jahrelange forschung für den GT200 nicht usw usw


ach ja, und nvidia hat schon mit der 8800GT ein verlustgeschäft gemacht, ich denke nicht, dass die sich das immer leisten können.
schon die 8800GT hatte ne extrem schlechte yieldrate und nvidia mußte mit verlust arbeiten, aufgrund der 38x0, um marktanteile halten zu können.

nvidia hat im moment probleme, vor allem weil sie sich verrannt haben, die zeit der monsterchips ist vorbei und nun muß ein kleiner effektiver her.

so wie ati nun hat.

aber glaub du mal weiter, nvidia wird noch mehr transistoren aufn chip basteln ;) ich sage dir mit sicherheit wird das nicht so sein

PS: du hast natürlich unrecht, sämtliche funktioniereden chips kosten 125 euro, da ist die 260 inbegriffen ;)
 
Zuletzt bearbeitet:
cosmicparty schrieb:
...aber glaub du mal weiter, nvidia wird noch mehr transistoren aufn chip basteln ;) ich sage dir mit sicherheit wird das nicht so sein.

Das habe ich doch nie geschrieben!?
 
cosmicparty schrieb:
aber glaub du mal weiter, nvidia wird noch mehr transistoren aufn chip basteln
Wie soll man die Leistung sonst steigern, wenn nicht durch Transistoren?

Mit jeder Generation mehr Dice aufs Package?
Dann sind wir irgendwann bei 300 1mm² Dice. -> Nö das ist keine Lösung.

btw wo waren die tollen Multi Die Karten von AMD als es die 7900 GX2 gab?
 
Unyu, glaub mal net,dass die 7900gx2 die erste mutli gpu karte war^^ (3dfx außen vor).


nein,mann muss die transistoren schon erhöhen um mehr zu erreichen...aber bei 1400transistoren so eine "bescheidene" leistung...gut,lässt sich auch leicht erklären, CUDA frisst bestimmt einiges...

das problem ist die Größe, sie können mehr transistoren verbaun,dazu müsstens sie aber die größe beibehalten,oder kleiner werden...das geht nur durch nen wechsel auf 55nm..

wenn man sich den verlauf der grakas anguckt,haben sich die transis immer weiter erhöht, ist ja irgendwo au logisch...aber nicht so drastisch bei gleihcer baugröße.


gruß
 
Ja es sind 1400 Millionen Transistoren.
Wegen VP2, Cuda und GPGPU kannst du schonmal etwas gegen G80 abziehen, beim Betrachten der reinen 3-D Leistung.
Dann kannst du noch rechnen, das G200 noch nicht voll ausgelastet wird.

So wo ist das jetzt das Problem? Die Leistung hat sich auch nie so dolle erhöht. Immer dran denken. Oder wann gabs so riesen Sprünge zum Release?

55nm sind längst fällig, das ist klar. Den Shrink muss man gehen, egal wie viele Dice man auf die Karte klatscht.
 
Die Anzahl der Transistoren hat nur indirekt Einfluss auf die Leistung. Es gibt immer mehrere Wege ein Problem zu lösen und der aktuell favorisierte muss nicht immer der schnellste sein.

Worüber Diskutiert ihr eigentlich? Es ist doch relativ offensichtlich, dass euch das Grundverständnis für die Materie abgeht.
 
Zuletzt bearbeitet:
Hier wird davon geredet, dass ein 260GTX Verbund eine Hd4870x2 in die Tasche stecken würde.
Bloß stellt sich mir dabei die bescheidene Frage: Wer bitte hat Lust darauf sich Karten im Gesamtverbrauch von 350 Watt einzubauen?

Ich kann nicht so gut mit Hintergrundinfos um mich werfen wie ihr, aber eins weiß ich: Immer größer und fetter kann nicht die Lösung sein auf Dauer.
Spätestens, wenn man nichts mehr shrinken kann und 8000 Millarden Transistoren auf der Karte sind und mehr einfach nicht paßt.

Ich habe technisch davon null Ahnung. Es scheint mir so, als sei die 260gtx/280gtx vor Jahren designt worden und der Gegenwind der Fraktion "silent und sparsam" bzw. ökonomisch war noch nicht so stark wie heute.
Mglw. ist das ein Erklärungsansatz.

Damals bei den Singlecore Cpus wähnte man sich bei 3,5 Ghz auch am Ende. Jetzt wird ausgewichen auf Shrinks und Multi Cpus.
Der Schritt lässt wohl auf GPU Ebene länger auf sich warten, weil die Grakas zum einen bedeutend komplexer sind und man zum anderen den Officekunden keine heißköpfigen Server Cpus vorsetzen kann.
Extrem starke Gpus sind ja dann doch eher ein Nischenmarkt und im Grunde "nicht nötig" für die Allgemeinheit.

Worüber Diskutiert ihr eigentlich? Es ist doch relativ offensichtlich, dass euch das Grundverständnis für die Materie abgeht.
Bißchen Stammtisch wird doch noch erlaubt sein. Außerdem habe ich im Moment nicht das Gefühl, dass Nvidia höchsteigens weiß, auf was man da eigentlich hinaus will.
 
Zuletzt bearbeitet:
Hat jemand noch mehr informationen zu g200b wie soll der aussehen was wird genau verändert wird das ne refreshversion? Lohnt es sich da nicht zu warten?
 
Warten, ihr immer mit eurem Warten. Warten kann man immer. Nein, es gibt nur Gerüchten, nV würde be b-Version in 55nm bringen - vom G92b habe ich bis heute übrigens auch noch nichts gesehen.

cYa
 
Is nur die Frage wie der G92b bzw die 9800GTX+ wird, wenn´s nur n Dieshrink + Takterhöhung ist stellt sich weiterhin die Frage, warum den hohen Stromverbrauch auch im 2D kaufen, DX10.1?, gibt´s die 9800GTX+ auch mit 1GB Speicher?

Nvidia hat hier viele Optionen es sich ganz dicke zu versauen, vor allem wer will noch normale G92 Karten wenn erst eine 55nm Version auf dem Martk ist?

Will Nvidia die neuen Chips wieder künstlich knapp halten, damit erst die alten verkauft werden und wenn die alle sind die neuen in ausreichender Masse zur Verfügung stellen? Ich würde sagen der Kunde wird Nvidia dann was husten und ne ATI kaufen. Um es mit den Worten eines berühmten deutschen Elektronikriesen zu sagen: Ich bin doch nicht blöd :D

cosmicparty schrieb:
nvidia hat vollkommen versagt. *g*

Na nich versagt, Nvidia wird vollkommen versägt ;)
 
Auch wenn meine nächste Karte wahrscheinlich von ATI ( ich liebäugel da sehr mit der 4850 ) kommen wird - nein nVidia hat nicht versagt.

Erstes Geschäftsquartal 2009 bringt Gewinnzuwachs von 34 Prozent

Nvidia hat im ersten Quartal des Geschäftsjahres 2009 (bis 27. April) einen Umsatz von 1,15 Milliarden Dollar erwirtschaftet, was einer Steigerung von 37 Prozent gegenüber dem Vergleichszeitraum des Vorjahres entspricht. Das geht aus den gestern veröffentlichten Zahlen des amerikanischen Grafikkartenherstellers hervor.

http://www.zdnet.de/news/business/0,39023142,39190722,00.htm

Versagen = nicht erreichen von Zielen

Ziel eines Unternehmens - Geld scheffeln - und dieses haben sie offenbar erreicht ;)

Das sollte man bei der Beurteilung von Wirtschaftsunternehmen niemals aus den Augen verlieren - sie wollen alle nur euer bestes, euer Geld :p
 
Zuletzt bearbeitet:

Ähnliche Themen

Zurück
Oben