News Nvidia GeForce GTX 470/480 weiterhin nicht verfügbar

Raucherdackel schrieb:
@ Critter:

Irgendwas ist faul an diesem Artikel:



Die GTX480 hat in SP 1345 GFLOPS (Quelle), also laut tomshardware in DP 168 GFLOPS (ein achtel).

Die HD5870 hat in SP 2720 GFLOPS, in DP 544 GFLOPS (Quelle)

Es sind nicht doppelt so viel, sondern 3,24 mal so viel Leistung!
Tomshardware schreibt wieder mal Bullshit, so wie es aussieht...

edit: hier sieht man, dass bei beiden Vorgängergenerationen, also HD4890 und GTX270, in Double Precision Ati um den Faktor 4 schneller ist.

Stimmt du hast recht. Möglicherweise können die Shader bei NVidia aber besser ausgenutzt werden (Vermutung) da bei ATI diese 5D Shader immer zu einer Einheit zusammengeschaltet werden. Oder wie war das, SP kann einer dieser 1600 Shader pro Takt, für Double wird ein 5D Shader benötigt.
 
Raucherdackel schrieb:
Laut den Artikeln, die ich vorher gepostet habe, ist die HD5870 in GPGPU besser. Man muss nur ein bissl querlesen. Egal ob jetzt Single oder Double Precision.

von diesen Rohleistungsdaten halte ich wenig. Zählen tut das was hinten rauskommt.

ATI/AMD kann mit ihren Karten gerne Encoding und Raytrachingtechnisch mal zeigen was den möglich ist - gesehen habe ich davon bisher nichts bis wenig.

Vergleichen kann man wohl erst wenn beide dieselbe API / Engine nutzen.

Nach meinem Empfinden ähnelt der GF100 weit mehr einer CPU als der RV870. Sie hat die breitere Architektur, ähnlich wie CISC vs RISC. Die HD5870 hat viel Rohpower und kann diese zielgerichtet im 3D Umfeld einsetzen. Gut für uns. Allgemein scheint der GF100 aber die flexiblere Karte zu sein die gerade in Computing mehr Präsenz zeigt. Ich kann nicht beurteilen wie gut oder schlecht der RV870 hier ist, die Rohleistung sieht gut aus, aber was er daraus macht steht auf einem anderen Papier.
 
Zuletzt bearbeitet:
Luxmanl525 schrieb:
Ihr liegt beide Falsch, Sorry. Nvidia macht mittlerweile nur noch einen relativ kleinen Teil ihres Geschäftsumsatzes bzw. Gewinns mit Gamer-Karten, eingeschlossen Mid- und Low-Range-bereich.

Überzeugt euch am besten mal selbst anhand der letzten Quartalsbilanzen von Nvidia.

Leider habe ich keine Quartalszahlen gefunden, wo die Geschäftsbereiche aufgeschlüsselt waren, vielleicht kannst du mir weiterhelfen?


Ich habe nur die Statistik der verkauften Grafikchips insgesamt gefunden:

http://www.golem.de/showhigh2.php?file=/1001/72701.html&wort

Von 425Mill. Grafikchips pro Jahr hat NVIDIA so ca. 25%-30% verkauft. Also fast 130 Mill Grafikchips. (nur PC, also keine Profisachen)

Sooooooo klein kann der Umsatz dann ja nicht sein oder? ;)

Korrigiere mich wenn ich falsch liege...


PS: Dummer Zufall, aber NVIDIAs CEO hat mal wieder 150.000 Aktien abgestoßen...


:D

Ist aber wirklich nur Zufall, weil sowas immer laaaaaaange im Voraus angekündigt wird und IMO regelmäßig stattfindet.

Von irgendwas muss er ja leben. :evillol:


5870 vielleicht billiger???
 
Naja das die Karte nicht lieferbar ist, liegt wohl auch an TSMC, damit haben aber auch die Readons zu kämpfen.
 
Die ersten Karten scheinen wohl einzutreffen.

Aus dem eVGA Forum:
Dear Valued Shopper: You had recently requested to be notified when the item, 10012462: PALIT NE5TX480F09CB Geforce GTX 480 (Fermi Architecture) 1536MB GDDR5 PCI Express x16 (2.0v) Video Card Retail becomes available again for purchase on ZipZoomFly.com. This item has indeed come back in stock -- come by and pick it up now! Click here to go directly to the item page: [link=http://www.zipzoomfly.com/jsp/ProductDetail.jsp?ProductCode=10012462]http://www.zipzoomfly.com...p?ProductCode=10012462[/link] Hope to see you online soon! - The Staff at ZipZoomFly
 
früher war alles besser!

da gab es matrox, da gab es 3dfx, da gab es S3 neben nvidia und ati! da wurde sich gegenseitig mit hinguckern(grafikgimmicks) und echten neuen innovationen überboten. es war keine rede von schlechter verfügbarkeit oder warfer machen schlapp oder sonst was für gefasel!

und heute? können sich die übriggebliebenen großen, nur noch über mehr frames hervortun!

es fehlt eindeutig konkurenzkampf!
 
Hallo zusammen,

da hier einmal mehr genannt wurde, der Fermi wäre auch als Konkurrenzprodukt bzw. Äquivalenz zum Intel Larabee entwickelt worden, das ist komplett daneben.

Die Antriebsfeder von Intel war vor allem, ihre CPu`s nicht überflüssig zu machen, denn auch Intel ist nicht verschlossen geblieben, daß Spiele als auch sonstige - bisher üblich Arbeiten - Arbeiten plötzlich GPU-limitiert waren bzw. sogar Bildbearbeitungs- u. Videobearbeitungsprodukte die GPU Nutzen.

Dies war der Ansatzpunkt für Raytracing und somit damit verbunden die Entwicklung des Larabee, Hauptziel war, die CPU zu erhalten! Larabee sollte ja mal - bevor es in den Müll wanderte - mit der CPU verschmelzen ursprünglich.

Intel hat aber schnell Lehrgeld zahlen müssen, wie wir mittlerweile Wissen, der Larabee wurde "Ad Acta" gelegt, zumindest vorläufig. Offiziell jedenfalls.

Nch ein Wort dazu, daß Nvidia angeblich im High-End Segment nie große Gewinne gemacht hat, auch dies ist völlig falsch! Man denke nur mal an die Zeit, als dier G80, respektive Geforce 8800 GTX / 8800 GTS 640 auf den Markt kam, Nvidia hat hier abgegrast, daß man es kaum in Worte Fassen kann.

Der Wendepunkt kam erst, als ATI die Radeon 4870 respektive 4850 mit ihrem Schwerpunkt auf den Mid-Range Markt herausbrachte mit gleichzeitig trotzdem verhältnismäßig respektabler Performance.

Nvidia hat sich deshalb mit dem G200b gezwungen gesehen, den Preis teilweise um 150 Euro zu Senken und damit kolossal viele Boardpartner vergräzt bzw. verärgert. Was verständlich ist, wie ich meine.

@ SchlachtVati

Ich stimme dir zu 100 % zu. Ich selbst hatte auch 2 Matrox Millenium, die waren erste Sahne. Die hatten damals mit Abstand das beste Bildsignal bzw. die beste Bildsignalqualität.

So long.....
 
Ich denke NV hat den TERMI ;) Chip ausschlißlich für den Professionellen bereich gebaut. Der hat da auch die vollen 512 Cuda Cores die 480 ist also schon ein Abfallproduckt mit ihren 480 Cores. Im profi segment kann man aber die Karte zu einem ganz anderen preis verkaufen ich denke ein verhältnis von 3:1 dh. 1500euronen zu 500 euronen dieses game gedöne wird also nur so mebenbei bertieben das sollte man schon vor augen halten. Also ich für mein teil habe mich endschlossen ne 480 zu kaufen villeicht auch 2 muss ma lurgen wie sie leuft ich denke sie wird sich gut mit meinen 2x 295 klar kommen ma schauen was da an Rechenleistung rauskommt und wenn sie nich 24/7 @ GPU Grid aushält Hätte sie keine Graka Werden sollen.
MfG
 
@SchlachtVati: GPU-Computing, 3-D Vision, Eyefinity,...
sind das keine Neuerungen, die nicht nur auf mehr Frames abzielen?

@G-Power: Nur zum spielen ne GTX 480 zu kaufen wär eine Fehlinvestition. Aber manche Fanboys sind eben unverbesserlich...
 
Zuletzt bearbeitet:
Hallo zusammen,

@ G-Power

Eine Frage, hast du eine Ahnung, ob denn die Fermis für den Professionellen Bereich überhaupt schon lieferbar sind bzw. lieferbar sind?

Ich Persönlich habe diesbetreffend noch nichts gelesen. Und ehrlich gesagt würde es mich wundern, denn ich kann mir nur unschwer mehrere dieser Dinger in einem Rack vorstellen, erst recht nicht, wenn alle 512 Shader frei geschaltet sind, dann ziehen die Dinger nämlich noch viel mehr Saft!

Effizienz ist in dem Bereich mit der gewichtigste Punkt, das darfst du nicht vergessen.

So long....
 
G-Power schrieb:
Der hat da auch die vollen 512 Cuda Cores die 480 ist also schon ein Abfallproduckt mit ihren 480 Cores.
Nein hat er nicht - er hat als Tesla sogar nur 448 Cores aktiviert:
http://www.heise.de/newsticker/meld...esla-Karten-mit-Fermi-Architektur-891620.html
Die ersten beiden auf der Supercomputer-Konferenz SC09 fürs zweite Quartal 2010 angekündigten Compute Boards mit Fermi-Architektur, C2050 und C2070, werden offenbar mit weniger Rechenkernen arbeiten, als im GPU-Chip vorhanden sind: 448 der 512 Kerne sollen aktiv sein. Das enthüllen die Board-Spezifikationen, die man bei Nvidia inzwischen herunterladen kann.
Hier das offizielle Datasheet: http://www.nvidia.com/docs/IO/43395/BD-04983-001_v01.pdf

Ich denke auch nicht dass jemand Workstation Preise bezahlt mit 1 Jahr Garantie wie es die GeForce Derivate bieten.
Ergänzung ()

Auch nicht vor Q3/2010 lieferbar
 
War doch klar dass die Karten nicht zum Release kommen, die Karten sind für den 12 April angekündigt.
Anscheinend ist die erste Lieferung aber so gering, dass nicht erwähnenswert.
CB wird wahrscheinlich auch mehr wissen wie wir.

Die Teslakarten dauern noch bis Ende des Jahres und kommen wahrscheinlich als kleiner Refresh, denn so wie die Karten jetzt sind, kann man die unmöglich für Workstations einsetzen.
Edit: Oh Complication hatts eh schongesagt.^^
 
@-tRicks-

thx , manche raffen glaub nicht dass die 20% herzlich wenig mit Nvidia zu tun haben, - bei ATI alleine war die Ausbeute von TSMC schon schlecht, nun kommt NVIDIA auch noch mit einem rießen Chip der nochmals quadratisch schlechter sein dürfte als der RV870.
Als GPU Designer gehe ich erstmal davon aus, dass der Prozess vom Dienstleister soweit gut ist und die Chips produziert werden können. Wäre der 40nm Porzess von TSMC auf 95% Yieldrate dann wäre die Größe des Chips weniger das Problem, wir hätten Verfügbarkeit und auch 512 Shader, also mehr Leistung und eventuell sogar bessere Taktraten auf Seite der GTX. Zumindest fällt die Qualität der Chips bei der GTX viel viel höher ins Gewicht als bei AMDs RV870er.

Wenns nach NVidia ginge, so sprach die TSMC Roadmap schon von 28nm für Ende 09, theretisch für einen top 40nm Pozess und daruf hat man auch kalkuliert. Prinzipiell ist TSMC die Firma, die grad für viel schlechtes verantwortlich ist. Alternativen gibt es jedoch keine wirklichen.

Schaffe89 schrieb:
Die Teslakarten dauern noch bis Ende des Jahres und kommen wahrscheinlich als kleiner Refresh, denn so wie die Karten jetzt sind, kann man die unmöglich für Workstations einsetzen.
naja, Workstation bekommt mit Tesla eine ganz neue Bedeutung. Die hat wenig mit CAD und Arbeitsplatz Rechner zu tun. Dafür reichen G90 und G200 locker aus.
Tesla "Workstations" werden sich nicht an der Leistungsaufnahme stören, solange das stimmt was hinten rauskommt. Und das ist nicht mit 3D Leistung vergleichbar, sondern viel eher mit dem hier:
22219.png

22215.png


Quelle

Jetzt frag ich mich wo die unglaubliche hohe Rohleistung der HD5870 bleibt...

Das mich das, als 3D Spiele Zockhanswurst stört ist klar, aber genauso klar sollte es sein, dass das Augenmerk des GF100 nie darauf lag.
 
Zuletzt bearbeitet:
G-Power schrieb:
Ich denke NV hat den TERMI ;) Chip ausschlißlich für den Professionellen bereich gebaut. Der hat da auch die vollen 512 Cuda Cores die 480 ist also schon ein Abfallproduckt mit ihren 480 Cores. Im profi segment kann man aber die Karte zu einem ganz anderen preis verkaufen ich denke ein verhältnis von 3:1 dh. 1500euronen zu 500 euronen dieses game gedöne wird also nur so mebenbei bertieben das sollte man schon vor augen halten. Also ich für mein teil habe mich endschlossen ne 480 zu kaufen villeicht auch 2 muss ma lurgen wie sie leuft ich denke sie wird sich gut mit meinen 2x 295 klar kommen ma schauen was da an Rechenleistung rauskommt und wenn sie nich 24/7 @ GPU Grid aushält Hätte sie keine Graka Werden sollen.
MfG

Aber haben die dann gänzlich vergessen in ihrer Entwicklungsabteilung einen Grafikchip entwickeln zu lassen und haben disem "Termi" einfach paar D/A Wandler spendiert? Wobei D/A ist das ja nicht mehr wirklich bei HDMI ;-)

@ ???
Ich glaube nicht dass Nvidia nur noch so nebenbei Grafikkarten produziert.
Auch hier steht ganz oben:
http://de.wikipedia.org/wiki/Nvidia
Nvidia ist einer der größten Entwickler von Grafikprozessoren und Chipsätzen für Personal Computer und Spielkonsolen.
(Jaja, ich weis, Wikipedia ist nicht immer die verlässligste Quelle)
 
naja wie das aussieht werde ich eh auf nen kühler namens accelero xtreme für die 470 warten müssen da die karte mit standart-kühler meinen heizkörper im wohnzimmer ersetzen kann :D

bis dahin wird die karte wohl auch verfügbar sein oder ? seltsam das nv und ati an dem fertigungsprozess festhalten wenn er doch kaum wirtschaftlich ist.

sollten alle stricke reißen kauf ich mir ne 5870 und gut is :)
 
3-D vision >>>,... sowas ähnliches gab es schon vor gut 12 jahren von matrox! und mit der damaligen geforce ti200 und unreal tournament z.b. war das wunderbar...

Eyefinity,... über brauchbarkeit muß man deswegen nicht laut werden, wer nutzt das denn? ausserdem wenn man es genau betrachtet, schmunzelt matrox auch über sowas, denn das gab es auch schon in abgewandelter form!

@lost_byte, es fehlt halt irgentwas,....
 
@G-power du sagst ja im einen satz, das die karten im grunde nie für Spieler konzipiert waren, und nvidia praktisch dort nur ihren halb kaputten abfall ablädt (gut an sich nicht verwerflich wenn man die halb kaputten sachen auch anbietet, aber es ist ein unterschied ob man ein teures modell speziel für den spielermarkt konzipiert und dann die schlechteren karten für weniger zusätzlich verkuaft, oder ob man die halb kaputten sachen als topmodell verkaufen will) ^^

Also die frage die sich daraus für mich stellt ist, willst du damit primär irgendwelche berechnungen machen Wetterberechnungen oder änliches oder doch eher damit spielen, beim letzteren würde ich dann einen sturen griff in die schlecht verfügbaren überteuerten heißen lauten dinger wo es eh nie viele bei den leuten daheim geben wird (schlechter treibersupport folglich) nicht ganz verstehen, außer du bist so einer Marke treu wie ner Frau "In guten wie in schlechten zeiten" ^^

@Schlachtfati:
ähh ja matrox hatte wohl so ne änliche technologie schon lange das mag sein, nur haben sie eben nie einen konkurenzfähig schnellen spiele-chip angeboten gehabt. eine Karte die ganz vorne beim speed ist und solche features anbietet für faire preise gabs noch nie.
Außerdem selbst wenn man es nicht nutzt, kann man immernoch 3 monitore anschließen und entweder abwechselnd oder gleichzeitig benutzen was ich doch einen schönen Fortschritt finde, es ist noch nicht ganz so lange her, da musste man schon sehr suchen um überhaupt 2 dvi ausgänge auf ner karte vorzufinden.

Wenn man das ganze noch aus sicht eines Linuxers betrachtet wirds noch krasser besonders in bezug auf matrox, hab mir vor paar jahren mal 2 matrox g550 gekauft eine version die schon auf pci-e läuft. Das schlimme war, das es zwar einen offenen Treiber gibt dieser aber nicht dvi unterstützt, dazu braucht man ein geschlossenen binären Treiberpart von Matrox die so genannte HAL (Hardware-abstraction-Layer). Irgend ein geek hat noch ne weile lang Hacks angeboten um diese HAÖ noch mit neueren Linuxen (X-servern) lauffähig zu halten, dieser hat dies aber auch eingestellt. Matrox bietet hier seit längerem kein support mehr an, gut ging jetzt bischen weit, aber genau hier schafft AMD auch gutes, sie geben ihre spezificationen frei so das Treiber für Linux entwickelt werden können bzw geben dafür auch Manpower frei. Dazu unterstützen sie z.B. auch so projekte wie Coreboot usw. also Amd ist doch sehr innovativ in dem sinne das sie neue offene sachen sehr schnell und gut unterstützen. Irgendwelche komischen geschlossenen geschichten wie Cuda kann ich dagegen verzichten. Bin froh wenn das außer vielleicht bei irgendwelchen forschungseinrichtungen dies wieder vom Markt verschwinden wird, da brauch AMD nichts tun, da INtel es nicht unterstützt wirds sich im Consumer Markt auch nicht durchsetzen (>90% Marktanteil an gpus) Opencl wird Intel natürlich aber unterstützen udn sollte in dx was vergleichbares kommen auch.

Ja ich weiß Cuda ist was anderes wie opencl, aber gibt dort auch noch anderes von AMD interessiert mich auch nicht ganz so sehr erlich gesagt da ich nicht mal videoencoding mache und man sonst als reiner privater Nutzer außer für ein paar wehenden fanen in spielen ja eh praktisch nicht braucht.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Wäre der 40nm Porzess von TSMC auf 95% Yieldrate dann wäre die Größe des Chips weniger das Problem, wir hätten Verfügbarkeit und auch 512 Shader, also mehr Leistung und eventuell sogar bessere Taktraten auf Seite der GTX

Du musst das im Verhältniss zu der DIE Fläche sehen. Ein Auftragshersteller sagt bestimmt nicht er habe 95%. Auf einem Wafer nennt sich das Defektdichte.

Abegsehen davon werden vielleicht auch die Shader deaktiviert damit diese nicht noch mehr Leistung zieht und den Takt kann man da gleich gar nicht erhöhen. 300W reichen wohl, es müssen keine 400W sein.
Das hat nichts mit Yield zu tun sondern mit optimierter Fertigung, Anzahl der Transistoren, Strukturgröße u.ä.

blackiwid schrieb:
Also die frage die sich daraus für mich stellt ist, willst du damit primär irgendwelche berechnungen machen Wetterberechnungen oder änliches oder doch eher damit spielen, beim letzteren würde ich dann einen sturen griff in die schlecht verfügbaren überteuerten heißen lauten dinger wo es eh nie viele bei den leuten daheim geben wird (schlechter treibersupport folglich) nicht ganz verstehen, außer du bist so einer Marke treu wie ner Frau "In guten wie in schlechten zeiten" ^^

Also ich weis nicht wie es dir geht, aber ich gucke ins Internet was für Wetter wird, ich muss es mir nicht selber berechnen ;-)
 
Zuletzt bearbeitet:
Ja Früher war es schöner 2x Vodoo 2 im Sli Betrieb ach war das schön die Frage ist eh wer gibt für so ne Karte 350 - 500 Euro aus also ich sicher nicht Denkt ma drüber nach :D
 
sicher spielt die TDP auch ne Rolle, das bestreite ich nicht, aber bei Yields unter 20% muss man wohl anerkennen, dass jede Form "Resteverwertung" willkommen ist. Die Chace auf einen vollkommen intakten Chip scheint gering zu sein, mit480 oder 448 Shadern wirds deutlich besser aussehen.

Wären 95% komplett einsetzbar, wären die Produktionskosten mindestens 5 mal niedriger wenn man bedenkt dass die 20% Yield wohl auf die 480 Shader beziehen und bei 512 noch niedriger sein werden...
 
Zurück
Oben