News Neuigkeiten zum G70-Chip von nVidia

500W Netzteil? Das soll wohl ein Witz sein? :freak:
Das kommt mir nie und nimmer ins Haus, noch ein paar Jahre und mein PC braucht nen Starkstromanschluß oder wie?
 
Dann werde ich auch wieder aufrüsten. Wird auch langsam wieder Zeit für eine neue Grafikkarte. Die jetzige Generation der NVidia Karten ist gerade so verfügbar und schon kommt der Nachfolger. Was bringt es immer neue Karten vorzustellen, die sowieso erst in nicht absehbarer Zeit auch käuflich sind.
Ich hoffe sie werden die Karten erst als auslieferbar ankündigen, wenn der Endkunde auch wirklich eine solche Karte kaufen kann. Bei der jetzigen Generation war das die größte Täuschng, die sich die Hersteller bisher geleistet haben. Hoffentlich wird es beim
G70 besser, denn das wird auch höchstwahrscheinlich meine nächste Karte werden.

MfG
 
Es ist glaub ich eherumgekert NV muss draufaufpassen das sie nicht zurückfahlen,wieso worde der NV48 NV 50 gecancelt?
Der NV48 wurde gestrichen weil er nicht notwendig ist oder willst du mir erzählen, dass dieser jämmerliche X850 Refresh irgendwas im Markt bewirkt hat? Den hätte sich ATI
auch sparen können, wobei das konnten sie ja nicht, weil von dem Gedöhns vorher ja so gut wie nix lieferbar war.

Was den NV50 angeht, möchte ich mal wissen wo denn bitte offiziell steht, dass dieser gestrichen wurde. Ausser irgendwelchen bekloppten Gerüchten gibts da doch
null komma nix handfestes. Ich glaub eher, dass dieser nach hinten verschoben wurde, weil M$ das Longhorn zum Xten mal nach hinten verschoben hat.
Da macht ein NV50 keinen Sinn mehr, wenn es keine API Unterstützung für neue Technologien gibt. Das leidige Schicksaal dürfte auch bei ATI das ein oder andere Design
(R400?) :) erlitten haben.

Yup - die sollte doch der R520 locker in die Tasche stecken :) . Vorrausgesetzt die Specs entsprechen wirklich der Wahrheit. Wenn doch, so hätte NV sich imo diesen Refresh sparen können.
Ich würde davon ausgehen, dass der R520 in 0.09 geringfügig vorn liegen wird. Wie AMR aussehen wird weiss ich nicht. SLI ist jedenfalls erprobt und bringt die Performancekrone. Da muss sich ATI erstmal strecken, denn von heute auf morgen funktioniert AMR auch nicht.
Spannend wirds dann, wenn der G70 in 0.09 aufgelegt wird und das wird dem Nvidia Management zu urteilen noch dieses Jahr der Fall sein. Sprich im 4. Quartal dürfte die
Ankündigung folgen.
Sollte ATI keinen signifikant entscheidenden Vorsprung mit dem R520 bei Fertigungsprozessvorteil aufweisen können, wird der G70@0.09 den R520 wohl deutlich schlagen.
Momentan siehts mir jedenfalls danach aus, als ob Nvidia mit transistorheavy Designs besser umgehen kann als ATI. Bei der aktuellen Generation tritt das ja mehr als deutlich
zu Tage (6800GT, 6600GT etc..)
Die Frage ist auch, wie weit der R520 nach hinten verschoben ist. Es kann also durchaus sein, dass das Zeitfenster für den R520 bis zum G70@0.09 nur sehr gering ausfällt.
Vielleicht war es gar nicht so blöd von Nvidia erstmal auf 0.11 zu setzen. Mit der 6600GT hat man diesen Prozess ja bestens im Griff - deutlich besser als ATI mit der X700 Reihe.
Inwieweit die größeren Chips mit mehr Transistoren hier vernünftig zu produzieren sind, muss sich noch zeigen.
 
Ich hab ja jetzt schon meine dritte nvidia karte (ti 500, ti 4200, 6600gt agp)
Aber laut den angaben wird wohl die ati die nächste. Aber man wird sehen, was die benches sagen. Ich kauf eh nicht nach hersteller. Immer nur nach Preis/Leistung :D
 
Lol, sorry, aber das ist ein totaller humbug, NV50 wurde nicht gecanceled, oder ähnliches. Dadurch dass Longhorn und WDF2.0 sich verspäten wurde er nur verschoben, welchen Sinn hat es eine neue Generation zu bringen wenn man nicht das nötige API hat...
 
Na Wolfgang, Crytek hat schon mit dem 64er Patch den Punkt "fixed SM3.0-stuff with ATI-hardware"(sinngemäß) drin. Die Developer haben die Karten also vermutlich schon länger. Zudem ist so ein direktes Dementi immer äußerst verdächtig... ;)

Zu dem vermeintlich geringem Takt: der 110nm-Prozeß bei TSMC kommt nur in Grundausstattung ohne Extras wie SOI oder low-k-Isolierung. Hohe Takte sind damit nicht zu erwarten. Zudem muß nVidia die Core-Spannung niedrig halten, um nicht gleich ein externes Netzteil liefern zu müssen. (...obwohl ich denen zutrauen würde, auch diese Technik zu adaptieren... :lol:)

Die NV4x-Architektur auf 110nm gibt es ja schon. Da wird sich nVidia wohl an der Konkurrenz orientieren und die 7er Reihe wohl just vor jenen auf dem Markt positionieren - im Idealfall nicht zu früh (die 6er müssen noch raus) und nicht zu spät...
 
Zuletzt bearbeitet: (oller Dativ...)
Warst schneller ... :) Aber gut erklärt. Anders kann man auch nicht sehen, ich denke Nvidia hat eine gute Strategie gewählt im Bezug auf 0.9µ. Erstmal ATI uns TSCM erstmal erfahrung sammeln beim fabrizieren, und dann bei guten Yields selber umsteigen.
 
oh ne ey schon wieder was neues, ich glaub es nicht. kommt nur mir das so vor oder werden die abstände rapide kürzer, ich mein die letzten karten haben immerhin noch ein jahr gehalten? kann doch nicht sein das meine x800 bald schon wieder völlig veraltet ist? will die jemand kaufen ja=?
 
HoMie schrieb:
ganz ruhig. das sind die daten von der GTX (also ultra) variante. wer sich die normale GT oder drunter kauft muß bestimmt nicht solche nt-werte erfüllen.

Mir ist durchaus bewußt, dass es für die High-End Version gilt. Wenn schon, denn schon^^
Ich will ja auch lediglich wissen was wäre wenn.

Also 24A auf 12V, 550Winsgesamt; könnte sowas reichen?
 
Na Basti, bisher waren eigentlich 6-Monats-Zyklen üblich. Inzwischen ist der letzte, große Release auch schon wieder ziemlich exakt ein Jahr her. Von daher ist eigentlich schon Entspannung eingetreten. Außerdem dürfte die "6er-Generation" noch eine Weile gut ausreichen, die Software lahmt ja wieder hinterher...
 
Hofe das die Game Hersteller erstmal die Geforce 6 ordentlich ausreizen bevor sie ihre Games für die nächste Generation optimieren....
Kann mir doch nicht alle halbe Jahre ne neue Karte kaufen! Die Gt war schon teuer genug...
 
Ich werde wohl noch eine Weile bei meiner Radeon 9800 non-Pro bleiben. Nicht gleich in Massenpanik des Kaufrausches erliegen! ;)
 
Zuletzt bearbeitet:
@ Christoph

"Woher wollt ihr wissen was ich weiß? :)"

...Öhm, naja von dir würde ich das gerne wissen wollen. :D Des klingt nemmich wirklich nach gut informiertem Webreporter.
(Sagen wir so, ohne weitere Fragen zu stellen: Lohnt sich das Warten auf ATi?)

Ansonsten sind das nette Daten, jetzt noch wieder auf die dazugehörigen Grafikdemos warten und denn gehts wieder heiß her in den Benches....
 
TOBeTheROPe schrieb:
Ich hab mir doch grad vorm knapp nem Jahr meine 6800GT zugelegt und da musste ich schon kämpfen ,dass ich überhaupt eine bekomme. *heul* Zudem braucht man für die 7er Serie ja auch ein PCIe- Board. Da werd ich wohl erstmal nicht zuschlagen. Erstmal abwarten was da so auf uns zurollt.

Würde mich nicht wundern wenn kurz nach dem Release der 7er Serie schon wieder was Neues auf dem Plan steht. o_O

Gruß
TOBe


Mit ner 6800GT bist du ja auch erst mal gut bedient. Was kommt denn da in nächster Zeit raus, was bei dir nicht mehr flüssig laufen sollte?

Ich denke wirklich Schwung könnte in die Grafik-Karten Entwicklung kommen, wenn Spiele mit Unreal3 Engine auf den Markt rücken. Die NextGen-Konsolen werden vielleicht auch wieder einen kleinen Technik-Schub geben. Darf ja nicht sein, dass PC-Spiele lange Zeit schlechter aussehen :rolleyes:...
 
HolyDude02 schrieb:
Mit ner 6800GT bist du ja auch erst mal gut bedient. Was kommt denn da in nächster Zeit raus, was bei dir nicht mehr flüssig laufen sollte?

Ich denke wirklich Schwung könnte in die Grafik-Karten Entwicklung kommen, wenn Spiele mit Unreal3 Engine auf den Markt rücken. Die NextGen-Konsolen werden vielleicht auch wieder einen kleinen Technik-Schub geben. Darf ja nicht sein, dass PC-Spiele lange Zeit schlechter aussehen :rolleyes:...
Zur Jahreswende kommt The Elder Scrolls IV: Oblivion zeitgleich auf PC unx XBox 360. Ist zwar auch noch ne Weile hin und bis dahin ist der R520 schon eine Weile auf dem Markt, aber es ist noch deutlich früher als die ersten U3-Titel. Kurz gesagt: Schaut nicht immer nur auf die Engines von Epic und Id. ;)
 
Stimmt. Zu GF3 / GF4 - Zeiten habe ich mich optisch an Morrowind festgebissen, das sah damals verdammt gut aus...
 
CyReZz schrieb:
Mir ist durchaus bewußt, dass es für die High-End Version gilt. Wenn schon, denn schon^^
Ich will ja auch lediglich wissen was wäre wenn.

Also 24A auf 12V, 550Winsgesamt; könnte sowas reichen?

da nvidia sich immer luft in ihren nt-voraussetzungen lässt, wirst du wohl kaum probleme haben.
nv muß auch immer gut schätzen um sich schon jetzt abzusichern, könnte ja sein, dass z.B. 24 ampere nicht reichen bei jemanden der nen kompletten server tower voll hat und sich dann beschwert ;-) :freak: .
 
Zuletzt bearbeitet:
Gut, das stimmt. Mein Rechner (siehe Link in Signatur) ist "recht leer" was das Innenleben im Vergleich zu vielen anderen angeht.
 
Mhh, Netzteil ist bei mir nicht das Problem eher der Preis der Grake ;)
Allerdings wird das ja wieder super lange dauern bis die Karte denn dann mal zu Verfügung stehen.
Bis die 68GTs kamen hat es ja auch super lange gedauert. Aber so eine 78GT wäre schon ok, mal gucken wir groß der Peformance unterschiedlich zu einer alten 68gt wirklich ist.

mfG
EvilMoe
 
JUHU

endlich wieder mal ein schritt zurück, trotz neuen algorytmen zu verwenden, baut man einfach nochmal die selbe scheiße daneben. trotz verdoppeln von alles wird die grafikkarte nur 50% schneller saugt aber dafür 100% mehr strom. und wirklich besser wird sie dadurch nicht.
Ich kaufe diese nicht, ich warte bis eine graka rauskommt die nicht mehr saugt wie meine jetztige dafür aber schneller ist, sonst lohnt es sich ja nciht. im moment ist meine Graka die schnellste bei dem stromverbrauch (außer vieleicht die von S3 aber die unterstützt ja keiner)

und nochwas zu nvidia gegen ati.
ich habe eine ati graka wegen den oben genannten gründen. doch wenn man sich keine gedanken über stromverbrauch macht, sollte man zu einer nvidia greifen, weil nvidia einfach besser unterstütz wird. egal ob sie schneller ist oder langsamer mit nvidia hat man grundsätzlich weniger probleme mit der software.
 
Zurück
Oben