Bericht Bericht: Nvidia GF100: Technische Details

MWR87 schrieb:
Ich denke auch, das die GTX 380 schneller als die aktuelle DualGPU Karte von AMD. Fragt sich nur zu welchem Preis ... wenn die GTX 380 "nur" doppelt so schnell ist, aber das 4Fache kostet wird sie trotzdem wenige Käufer binden ...

Wo soll die Performance herkommen?
OK, wenn die HD 5970 wegen fehlenden oder mangelhaften Crossfire Support nur mit einer GPU läuft sicherlich aber nichtmal die Grafiken in dem Artikel lassen eine solche Vermutung zu..
 
Ist ja schön das Nvida in ihren Folien von der 3D-Leistung etc schwärmen. Was die meisten aber hier bestimmt interessiert hätte ist, wie die den Stromverbrauch in den Griff bekommen wollen. In dem Bereich hätte ich technische Neuentwicklungen viel eher begrüßt. Etwas immer weiter zu steigern ist ja schön und gut. Aber das wirklich schwierige dabei, was ATI recht gut gelungen ist, den Verbrauch niedrig zu halten bzw im Idle sogar zu senken scheint da die größere Herausforderung zu sein.
 
Hmm bald hat das warten ein ende, bald sind wieder 600€ für ne Graka dahin *freu*

Und bald darf mein PC mit ner neuen NVIDIA karte werkeln

Hach das leben ist so schön...
 
Viele tolle Marketingnamen die es a.) vorher schon gab und b.) die der Cypress auch beinhaltet (z.B. den FPU-Standard). MMn hat das Teil immernoch das Problem der Skalarprozessoren: Zu viel Platzbedarf für die komplexe Infrastruktur um 512 einzelne Shaderprozessoren zu koordinieren, zu viel Transistorverbrauch. Er wird vllt. etwas schneller als der Cypress sein aber das Problem wie bei RV770 vs. G200 bleibt. Das Ding kostet einfach zuviel für das was es leistet.
Und bis Tesslation ein limitierender Faktor wird (falls das überhaupt mal irgendwann der Fall sein sollte) werden sicher noch Jahre vergehen.
 
Ist ja ne schöne Werbeaktion von Nvidia, ohne harte Fakten und ohne nachweisbare Leistungsdaten Schlagzeilen auf jeder Fachseite zu haben. Aber iwie ziehe ich dann doch einen sauberen Leistungsvergleich in der Praxis deutlich vor - und das wird ja wohl noch was dauern :freak:
 
Schöner Artikel. Da heißt es nach wie vor: abwarten.

Und bitte Fanboys, haltet euch zurück mit den Kommentaren :freak:
 
Vor allem muss man sich mal die lächerlichen Steigerungen zu Gemüte führen.
Den ganzen Schmarrn zu den internen Effizienzsteigerungen der einzelnen Einheiten kann man gleich erstmal ignorieren.
Wenn man dann die Steigerungen im Endergebnis anguckt, dann kommt die Ernüchterung.
Bei (optimistischen) Steigerungen von 60% im Vergleich zur GT200 ist man nur minimal vor der HD5870.
Dafür hat der Chip aber ein mehr als 50% größeres Die, was Yield und Preis negativ beeinträchtigt.
Insofern wird die Preisleistung entweder nicht stimmen oder den Jungs nur wenige Euros einbringen.

Vielleicht wird ja der Tesla in seinem Bereich mehr Vorteile bringen, dann kann NVIDIA auch überleben.

Grüße vom:
Jokener
 
Ned Flanders schrieb:
@ CB
kann man denn aus dem Herstellungsprozess und der groben Zahl der Transistoren etwa schätzen wie gross das Die wird?
Gruss Ned
Es gibt da (geschätzte) Zahlen, jedoch habe ich die jetzt nicht mehr so im Kopf. Gerade klein war der Die auf jeden Fall nicht. Aber wohl kleiner als GT200 (65nm).

Da ein RV870 die fünffache Geometrieleistung eines RV670, und ein RV670 nach Nvidias eigenen Angaben eine deutlich höhere Geometrieleistung als ein GT200 hat...
Um ehrlich zu sein verstehe ich deinen Satz gerade mal gar nicht...oder es ist noch zu früh =)

Ich hoffe auch, wir bekommen demnächst einen Test zu den mir noch ganz unbekannten Modellen der Radeon-HD-5000 mit 1000MB Framebuffer. Die bekannten HD5000 haben ja nur wenige MB Framebuffer, und nutzen ihren Speicher hauptsächlich für Texturen und dergleichen.
Ich glaube zu wissen worauf zu hinaus willst. Aber mittlerweile nennen selbst ATi und Nvidia den Speicher der Grafikkarte Framebuffer.

Ich setz gleich mal ein Fax an dpa und die anderen Agenturen auf, und bezieh mich auf euch. Wolfgang hat ja echt Ahnung und dem kann man ja auch trauen bei sowas. Keine Angst, ich setz dazu seinen Namen als Quelle der News, und geb das nicht als meine aus.
Also bis jetz habe ich mich gefragt, ob du nur ein ziemlich sarkastischer Mensch bist. jetzt frage ich mich, ob es nicht doch etwas anderes ist...
 
@notnick
... das ist unterste schublade (gott den satz verwende ich erschreckend oft hier im Forum)
sich an dem ausdruck "derivat" aufzuhängen ist kindisch ... es ist klar, das er damit die "vergleichbaren einheiten der konkurenzfirma" meinte :rolleyes:

@topic
also das sneak prev. find cih schonmal gar nicht schlecht, da es wiedermal eine fragezeichen aus unserem spekulationthreat streicht ^^ wobei mir mehr natürlich besser gefallen hätte ;) da bin ich mal gespannt was final bei rauskommt ^-^
 
Ich muss sagen interessant finde ich die Entwicklung der interen Speicher auf den GPUs (L-Cache).

Also scheint ja die GTX380 bestimmt locker an die HD5970 ran zukommen^^
 
Danke, Clusted! Genauso ist es und mehr kann man dazu auch nicht sagen.
Warten wirs ab, ich kauf mir für die Zwischenzeit eine 5850. ;) Im Sommer gehts dann weiter.
 
G00fY schrieb:
Ist ja schön das Nvida in ihren Folien von der 3D-Leistung etc schwärmen. Was die meisten aber hier bestimmt interessiert hätte ist, wie die den Stromverbrauch in den Griff bekommen wollen. In dem Bereich hätte ich technische Neuentwicklungen viel eher begrüßt. Etwas immer weiter zu steigern ist ja schön und gut. Aber das wirklich schwierige dabei, was ATI recht gut gelungen ist, den Verbrauch niedrig zu halten bzw im Idle sogar zu senken scheint da die größere Herausforderung zu sein.

Also was sie im 3D-Modus verbraucht ist mir ja fast egal, wenn NVidia dafür sorgt, dass die GPU im Idle mit weniger Strom versorgt wird und sich heruntertaktet, dann verbraucht sie sicher ähnlich wenig, wie die aktuellen ATIs. Persönlich finde ich es wichtig, dass sie dort wenig Verbraucht, denn die meiste Zeit über läuft die Karte ohne Last im System mit.
In 3D-Anwendungen kann sie dann auch ruhig mehr Verbauchen, wenn die Leistung stimmt und sie keine Hitzeprobleme bekommt, was aber mit einem guten Kühler handlebar sein sollte, Lautstärke spielt da auch eher eine untergeordnete Rolle.
 
gf10043z.jpg


GF100-44.jpg


http://www.hardwarecanucks.com/foru...-nvidia-s-geforce-gf100-under-microscope.html
 
So berauschend klingt das alles aber nicht. Jetzt wollte ich mir eigentlich als nächstes eine 360GTX anschaffen, aber zum vermeintlichen Starttermin der Karten gibt es wieder nichts neues. Kann mir einer sagen, ob es noch Sinn macht zu warten auf Fermi oder doch eine 5850 die bessere Option ist?
 
Zurück
Oben