News nVidia will Unabhängigkeit beibehalten

Warum wundert ihr euch so über die langen Entwicklungszeiten?
Das was wir heute als Endkunde zu kaufen und angepriesen bekommen ist immer der technische Schnee von gestern. Die arbeiten schon lange wieder an anderen Dingen.

Denkt doch nur mal an die Holographischen Speichermedien, die heute bereits in Testmodellen verfügbar sind, aber erst für 2015 marktreif sind. Weiterhin die SED Technik bei Displays. Das Grundprinzip ist schon lange entwickelt, das komplette marktreife Gerät aber erst demnächst. Handys mit TV oder Bildübertragung habe ich auch schon 1999 auf der Cebit gesehen.

Und bei den Chips ist das nicht anders. Hier ist nicht die Entwicklungszeit für kommende DX-Standards oder sonstige Schnittstellen entscheidend, sondern die der Chiparchitektur. Und das kostet vorallem Entwicklungszeit. Die Schnittstellen und Standards wie DirectX werden doch erst aufgrund des tetchn. Entwicklungstandes festgelegt und nicht umgekehrt.

Die zukünftigen Standards werden schon frühzeitig in der Industrie ausgemacht.
Bis der Endkunde es auch mal erfährt, sind es bereits vollendete Tatsachen.
Und da zeitgleich immer an mehreren Projekten gearbeitet wird, werden auch mal einige ganz unauffällig wieder eingestellt bzw. verworfen. Siehe zb. bei einigen Intelchips. Andere machen das nicht anders. Der Endkunde kann alles essen, muss aber nicht alles wissen. ^^
 
Zuletzt bearbeitet:
Wenn man mal überlegt wie schnell ATI oder Nvidia ihre Grakas auf den Markt schmeisen kann ich mir die Entwicklungszeit von 4 Jahren für den G80 nicht so recht vorstellen.Hat mann etwa damals schon mit Direct X 10 gerechnet?Vor 4 Jahren war Direct X 9 doch noch nicht mal fertig(oder irre ich mich da? Hatte damals ne Geforce 3 TI 500 und die unterstützte noch DX 8.1)Wenn es stimmen sollte dann müssen die kommenden Spiele mit DX 10 aber schon der Kracher werden das ich restlos von dieser 4 jährigen Entwicklungszeit überzeugt bin.Ich lasse mich aber noch nicht von dem Direct X 10 Hype anstecken zumal die beiden Spitzenmodelle von Nvidia noch horrend teuer sind.Ich werde die erste Kartengeneration wie schon bei der G71 Serie überspringen und warte bis Nvidia hoffentlich ne 8900 Serie herausbringt.Der damalige Bug der ersten Geforce 7 Generation hat mich schon genug Nerven gekostet.Trotzdem finde ich es auch gut das sich Nvidia sich seine Unahängigkeit bewahren will denn es gibt schon genug Beispiele von Fusionen die jämmerlich zugrunde gehen(Siehe Benq/Siemens)
 
Zuletzt bearbeitet von einem Moderator: (ein ? pro Satzende langt)
Im laufe der 4jährigen Entwicklungszeit wurde das Konzept auf grund neuer Fertigungstechnicken, neuer Softwarekonzepte mit Sicherheit mehrmals überarbeitet, ergänzt und erweitert. Es ist nicht anzunehmen, dass das Konzept des G80 Chips vor 4 Jahren schon so ausgesehen hat wie er nun auf den Karten verbaut wird.

Irgendwann zieht man einen Strich und friert das Design auf einem bestimmten Level ein, resepektive es wird auf einem bestimmten Level zur Produktion gebracht. In der Zwischenzeit wird das Design kontinuierlich weiterentwickelt, beinflusst durch die Entwicklung anderer Technologien in der Chipherstellung etc.

Zudem kommen natürlich allerhand Variationen des Chips auf den Markt welche defacto keinen grossen Entwicklungsaufwand mehr benötigen, beispielsweise GPU's die man einfach als leistungsschwächer klassiert weil gewisse Bereiche defekt sind und deaktiviert werden müssen. Auf diese Weise wird die Yield-Rate respektive die Ausbeute der Wafer verbessert. Solche Strategien werden jedoch gleich von Beginn an miteingeplant.

MfG, Projektil :-)
 
Ist da nicht bei so langen Entwicklungszeiten die Gefahr gegeben, dass die Technologie (vor allem das Grundgerüst) veraltet istm bevor die Entwicklung überhaupt abgeschlossen ist?
 
Henrico schrieb:
es gibt schon genug Beispiele von Fusionen die jämmerlich zugrunde gehen(Siehe Benq/Siemens)
Äh ja... nur dass das keine Fusion war. :p


@Topic
Also 4 Jahre Entwicklungszeit für eine neue GPU ist doch nicht so sonderlich lang.
Die neue Version der Software, an der wir gerade rumentwickeln ist auch schon seit über einem Jahr in Planungsphase und die erste Beta ist für mitte nächsten Jahres geplant. :D
 
Zuletzt bearbeitet:
Ja nur komisch das die Chips modular aufgebaut werden, somit kann man gleich sagen "Die Entwicklung hat da begonnen wo wir modular Designen" und nicht 4 Jahre. würde man von Grund auf neu basteln - was es sowieso kaum noch gibt - dann könnte man davon ausgehen, aber nicht hier bei der G80. Auch vor 4 Jahren kann ich mir nicht vorstellen das MS so weit fortgeschritten wäre um Ati und Co infos hätte zuschicken können, was nun auf die Entwickler der GPUs an Arbeit zu kommen wird.
Ausführliche Infos belegen auch, das viele Sachen im Chipdesign zum "älteren" ähneln.
 
Zurück
Oben