News Nvidia strebt Fertigung des G92 in 55 nm an

Sebastian

Vice Admiral
Registriert
Apr. 2004
Beiträge
6.273
Nvidia wird voraussichtlich die Fertigung seines aktuellen Grafikchips G92 durch eine Reduzierung der Strukturbreite von 65 nm auf 55 nm weiter verfeinern. Diese Chip-Revision soll gegen ATis kommenden Grafikchip RV770 (siehe auch) antreten und ist dementsprechend gegen Ende des zweiten Quartals zu erwarten.

Zur News: Nvidia strebt Fertigung des G92 in 55 nm an
 
ah, mal wieder ne news von meinem freund sebbekk ;)

in der quelle zum thema DX10.1 heißt es:
The 55nm updates will probably feature a few enhancements, with at least one being DirectX 10.1 support but for now, we can only sit and wait for more info to be leaked.

also dx10.1 kommr vielleicht!

Ob letzterer, wie bislang vermutet, noch in 65 nm gefertigt werden soll, oder aufgrund der aktuellen Aussichten nicht auch in 55 nm gefertigt werden könnte, ist inzwischen durchaus fraglich.
nvidia wird einen teufel tun, und ein fast fertiges high-end design kurzerhand auf 55nm umstellen ;) dem würde ich keine großen chancen beimessen.
 
Und die armen Besitzer von 24" Monitoren dürfen weiter auf eine gescheite Grafikkarte warten. Mittlerweile regt mich das ziemlich auf, hab schon so ein Hals.

Gerade wegen dem ständigen Hinauszögern der Highend-Karte hoffe ich, dass Intel denen ordentlich Dampf macht (höflich ausgedrückt).
 
GeneralHanno schrieb:
also dx10.1 kommr vielleicht!
Ja, vielleicht. TechConnect ist sich da zwar scheinbar sehr sicher, weil sie nicht nur probably schreiben, sondern zu DX10.1 sogar at least, aber es bleibt sehr fraglich, ob das passiert. Also bei G92 und DX10.1 nicht den Kunjunktiv vergessen. ;)
 
Zuletzt bearbeitet:
das mit dem unwahrschein gefällt mir ;)
ich denke vor dem GT200 wird nvidia kein Dx10.1 bringen.
 
,,ATi wird den RV770 anfangs nur für mobile Lösungen anbieten und auch Nvidia soll mit dem G92 in 55 nm angeblich zunächst ausschließlich den Notebook-Sektor bedienen, bevor der Chip Anfang des dritten Quartals auch im Desktop-Segment Einzug hält.''

Was soll denn das? :mad: Warum zuerst im mobilen Bereich?! :freak:
 
naja die unterschiede werden vermutlich primär in einer etwas geringeren leistungsaufnahme liegen. das hängt natürlich auch davon ab, in welchem 55nm prozess nvidia den G92 fertigen lässt. es gibt einen stromsparenden und einen taktoptimierten ...

lange rede kurzer sinn: 10W weniger verbrauch tun beim desktor kaum was zur sache, im mobilen bereich sind das schon welten!
 
Das mit DX10.1 geht ja schnell. Dafür dass laut Nvidia DX10.1 völlig unnötig ist, wollen sie es jetzt doch vielleicht/wahrscheinlich hinzufügen. Und passend zur Veröffentlichung der wieder "neuen" GPUs (mit DX10.1), fällt dann auch Crytek ganz plötzlich ein, dass DX10.1 doch ganz wichtig ist.

Aber was mir als erstes durch den Kopf ging:
Wenn Nvidia jetzt noch einen G92-Shrink macht, dann kann es mit dem Nachfolger GT200 (oder sonst wie) nicht wirklich gut aussehen. Die machen doch keinen Shrink für ein 1/4-Jahr.
 
FULL ACK@ IgG

ich als 23" S-IPS Panel verwöhnter GTX besitzer kann auch nur nochmit dem kopf schütteln. die monitore bekommen langsam aber sicher ne immer höhere native auflösung aber bei den grafikkarten gibt es lediglich mal hier mal da nen neuen lauwarmen aufguss. ICH bin gern bereit für ne neue HIGH-END-Karte 500-600€ auf den tisch zu legen. dann aber bitte singlechip und minimum 30-40% mehrleistung. nach oben hin natürlich gerne mehr. alles was darunter ist, ist des kaufens nicht würdig.
 
Nicht ein bissle spät die Idee? Die User die auf den G92 wechseln wollten haben das sicherlich schon. Wer soll bitte die 55nm Version kaufen?

Nvidia wird mit der feineren Fertigung jedoch Kosten sparen und die Energieeffizienz beziehungsweise das Taktpotential des Grafikchips steigern können
Die Kosten hätte man schon die ganze Zeit sparen können - Energieffizienz ist dagegen lobenswert, auch wenn ich bezweilfe, dass man auf solche extrem guten Werte des G100 kommt.

Das grundlegende Problem, dass ein RV770 jedoch schneller als der G92 sein könnte, wäre damit natürlich noch nicht gelöst
Daher halte ich ein 55nm G92 Chip für nicht angebracht - warum in etwas investieren, wenns am Ende trotzdem langsamer sein könnte

nvidia wird einen teufel tun, und ein fast fertiges high-end design kurzerhand auf 55nm umstellen
Seh ich auch so... halte ich für zu kurzfristig um nochmal umzustellen
 
Zykon schrieb:
Was soll denn das? :mad: Warum zuerst im mobilen Bereich?! :freak:

Da im Mobilen bereich die Frage des Stromverbrauchs eine viel höhere Rolle spielt als bei Desktop PC's die via Netz laufen und nicht Akku.

Im PC bereich spielt es doch keine Rolle ob jetzt ein gesammter System 350 Watt oder 340 Watt zieht.
Im Mobilen Sektor kommt es doch auf jeden Watt an ;)
 
also für das, das nvidia vorher ati immer schlecht gemacht hat. find ich, dass sie sehr schnell dx10.1 + 55nm nehmen wollen. anscheinend kommen die schon langsam ins schwitzen :-P

Das mit mobilen Grafiklösung halt ich für ziemlich seltsam. war es nicht immer so, dass zuerst die high end desktop system rausgekommen sind und danach erst die kleineren ableger?

MfG
Rolf
 
Welch Ueberaschung RV770 ist schneller als G80, nach 2 Jahren wirds auch Zeit das AMDeinen Konkurrenzchip bringt, viel schneller wird RV770 jedoch nicht sein.
G92 wird es nicht besonders schwer haben da noch mitzuhalten, besonders bei 55nm. :)

Sorgen macht mir nur der GT200, wenn der dann im Dezember raus kommt, was hat AMD gegenzuhalten? Einen RV770 X2?


Edit
Schoen das NV offen zugibt, was D3D10.1 ist > reines Marketing.
 
Zuletzt bearbeitet: (Fettschrift)
HOffentlich macht ATI Nvidia platt. Ich mein so nen Mist wie NVidia grad auf den Markt bringt soll ATI es echt ausnützen.
Aber warum schafft es NVidia nicht DX10.1 zu bringen? ATI hat das schon lange draußen.
Ich finde es auch schade dass die mobilen zuerst drann sind. Aber mal sehen was dabei rauskommt.

mfg Kivi
 
Bevor hier IRGEND welche vergleiche zwischen G92@55nm und GT200@65nm gezogen werden: diese beiden chips haben miteinander gar nichts zu tun. sie sprechen völlig verschiede marktbereiche an. einen "GT200 fürs notebook" wird es garantiert nicht vor 2009 geben und solange braucht man eine kostengüstige und stromsparende alternative. diesen job wird der G92@55nm übernehmen.
 
Diese Chip-Revision soll gegen ATis kommenden Grafikchip RV770 (siehe auch) antreten

Na toll, solangsam geht mir das wirklich aufn Sack.
Das gibts doch gar nicht. Ich will endlich meine x1950 Pro in Rente schicken und mir nen
Highendchip holen, und jetzt sowas.

Ich glaub ich kauf mir doch bald ne neue Graka... und dann steig ich direkt auf den Larabee um :freaky:
 
Naja dass der sprung von 65nm auf 55nm viel bringen wird bezweifel ich mal.
Hätte Nvidia sich nicht ne ewigkeit auf dem g80 ausgeruht sondern mal ne wirklich neue generation nachgeschoben müssten se sich um ATIs marketing wohl keine gedanken machen...
 
Wunderbar. Das wird dann die GeForce 9900 oder GeForce 9850. Für den mobilen Bereich ist der shrink gut, aber so eine starke Karte braucht immer noch zu viel Leistung. Go 7800, 8800M, 9800M... kann man doch nur in Desktopreplacemants einbauen... also absolut nicht mein Ding...

Das nVidia keinen Hammer rausbringt, sondern erst einmal den G92 weiter shrinkt, ist nur verständlich. Schließlich ist der DIE immer noch recht groß im Vergleich zu ATI-GPUs und auch die Leistung ist immer noch überragend. Die ATI-Karten kann man Leistungsmäßig schon mit der GeForce 9600 GT aufmischen...

Die ganzen 24-Zoll-Gamer sollen sich halt ein SLI-System auf einem Hybrid-Fähigen Mainboard aufbauen, wenn sie so scharf auf alle Effekte sind. Man kann nämlich auch das eine oder andere etwas runterstellen und dann läuft auch alles mit einer GeForce 8800GTX auf einem 24-Zöller. (Oder ihr kauft euch einfach ein 20-Zöller mit einem hohwertigen Panel, dann reicht auch jede GeForce 8800 und das Geld habt ihr dann für den hochwertigen Monitor ausgegeben.)
 
Zuletzt bearbeitet:
@Unyu

Ich weiss zwar nicht genau warum der G92 durch 55nm schneller werden soll, aber meinetwegen.
Schön ist auch, dass Du schon weisst, dass der RV770 nicht viel schneller als der G80. Andere Quellen sehen das ja irgendwie anders.

Und Nvidia geht sogar soweit aus reiner Solidarität auch DX10.1 zu verwenden.
 
Zurück
Oben