Bericht Bericht: Nvidia GF100: Technische Details

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.615
Es ist so weit. Nach Monate langen Verzögerungen gibt Nvidia erste offizielle Informationen zum „Grafik-Part“ der GF100-GPU, die auf GeForce-GTX-300-Serie zum Einsatz kommen wird, bekannt. Wir haben uns die Architektur etwas genauer angeschaut, wollen einen ersten Einblick in den GF100 geben und versuchen abzuschätzen, wie sich die späteren Serienkarten schlagen werden.

Zum Artikel: Bericht: Nvidia GF100: Technische Details
 
Moin,

liest sich ja recht interessant die neuen technischen Details.
Bin gespannt, ob die Karte in der Realität wirklich soviel mehr als die
Radeon 5xxx bieten wird, damit Nvidia in dieser Graka Kriegs Runde
noch einen Fruß in die Tür bekommt.
 
Ich wage zu sagen, dass es schön langsam zeit wird, dass Fermi erhältlich wird, schließlich warten hier ein paar Leute auf eine Preisschlacht :D
 
200-600% mehr Tesselation Performence zur HD5870 :o das wird übel für AMD
 
War eig klar, dass so ein Monsterchip nur schnell sein kann... Aber AMD hat ja einen gewissen Polster durch die HD4 und 5k's und arbeitet ja imho schon wieder an einer neuen Generation welche am Jahresende released werden soll.
Zudem können die mit dem Preis wesentlich weiter nach unten da der Chip viel kostengünstiger ist.
Sollte die Stromaufnahme des GF100 immens sein und sich die Yield-Rate nicht DRASTISCH bessern, so hat AMD eig immer noch eine recht gute Aufstellung, selbst wenn der NVidia Chip doppelt so schnell arbeitet. Das P/L muss halt stimmen. Wir dürfen gespannt sein, dann des Geld wird immer noch im Mainstream Markt gemacht...
 
oh man wie ich es manchmal hasse wenn ich recht habe ;)

https://www.computerbase.de/forum/t...1-geruechtekueche.633836/page-58#post-7241788

Wird wohl nur "Architekturmüll" geben, aber keine Taktraten der Karten!

Und falls wirklich Benches dabei sein sollten dann sind die unter Garantie von Nvidia und unter Garantie "cherrypicked".

Auch ist damit klar das die Videos die die letzten Tage auf Youtube von GF100 liefen von der GTX 380 waren und nicht wie von manchen hier geglaubt/erhofft der GTX 360.
 
@ CB

kann man denn aus dem Herstellungsprozess und der groben Zahl der Transistoren etwa schätzen wie gross das Die wird?

Das ist ja auch eine nicht unerhebliche Eckdate zum Preis und somit zum Erfolg.

Mehr als 3 Milliarden Transistoren klingt für mich in erster Linie sehr sehr teuer...

Der Radeon 58xx Chip ist ja mit 2,2 Milliarden Transistoren und 334 mm² nicht gerade schmächtig.

Ein aktueller Phenom II bringts gerademal auf 760 Millionen.

Gruss Ned
 
Hauptmann schrieb:
200-600% mehr Tesselation Performence zur HD5870 :o das wird übel für AMD

Hättest mal den Rest noch Gelesen ;). Das Fermi schneller wird war schon von zu beginn an klar aber die Zusatz Info sollte man nicht verschweigen was die Tesselation Performance angeht ;)

Diese zeigen die Performance der Tessellation auf dem GF100, die je nach Applikation doppelt bis mehr als sechs Mal so schnell wie auf dem RV870 ist. Da die Ergebnisse von Nvidia stammen (und zudem nur eine spezielle Berechnung zeigen), sind sie wie gewohnt mit Vorsicht zu genießen.
 
Naja, was NVidia behauptet und dann wirklich ist ist eine andere Sache. Ich warte erstmal die ersten richtigen Benchmarks auf nicht-nvidia-optimierten Spielen ab.
 
klingt doch alles hochinterresant
aber wie schon gesagt mal sehen wie die leistungsaufnahme und lautstärke wird
 
Ich will ja niemanden den Spass verderben aber nimmt man die Werte bei der Vergleichstabelle unter dem Punkt "Textureinheiten" und überträgt sie beispielsweise auf die Crysis Warhead Werte in dem Test dann liegt der GF100 (bei gleicher Taktfrequenz wie eine GeForce GTX 285) bestenfalls gleichauf mit einer Radeon HD 5870.
Ein weiterer Orientierungspunkt ist der Vergleich der AA Performance bei H.A.W.X. im Punkt "ROPs und Speicherinterface".
Überträgt man diese Werte auf diesen Test und bezieht sich ebenfalls auf den GTX285 vs. HD 5870 VErgleich, dann operiert der GF100 wohl ebenfalls auf HD 5870 Niveau oder ev. ein bischen darüber.

Mir ist zwar durchaus bewusst das die Framerate noch von deutlich mehr als diesen beiden Punkten abhängt, zumal wir die Vergleichsbasis nicht kennen aber es ist zumindest schon ein Orientierungspunkt.
 
go nvidia go

ist ja nicht mehr auszuhalten, dass die HD5870 immer noch 350 Euro kostet! Ich will ne Preisschlacht sehen ;D
 
Die Preisschlacht nach oben?
Die GF100 Karten dürften deutlich teurer in der Herstellung werden...ich bezweifle das da allso viel Spielraum für eine Preisschlacht bleibt.
 
Erzählen kann man viel, es ist und bleibt ein Papiertiger. Was zählt sind Fakten und die gibt es nach wie vor nicht.

Ich glaube, dass dies nun eine Maßnahme ist um Schadenbegrenzung zu betreiben. Denn auf der Cebit haben sie wohl einiges verspielt.
 
naja,dass sie jetzt eine NDA für ein sneak preview raushaun heißt wohl wirklich, dass sie noch min. 2 Monate brauchen. Das gibts ja gar net.

Die perfomance, wenn man sichs genau anschaut liegt knapp bei 60% über G200, dh sie wäre nur ganz knapp schneller als die 5870, und dabei rede ich von der GTX380.

Noch dazu kommt, dass in dem Video, welches vor ein paar tagen aufgetraucht ist, es sich definitiv um eine GTX380 gehandelt habe.


gruß
 
na toll, ich hab mir heute eigentlich auch mehr erhofft. also kann ich getrost zur ati greifen, ich glaube nicht das diese hier soviel schneller wird und ewig warten will ich auch nicht mehr! Bevor der Fermi kommt gibt es ja bald schon die 6000er von ATI:evillol:


MFG XeonKing©!!!
 
Mehr als ein abartiger Stromverbrauch und vermutlich mega teuer fällt mir dazu nicht ein ^^
 
Ich denke auch, das die GTX 380 schneller als die aktuelle DualGPU Karte von AMD. Fragt sich nur zu welchem Preis ... wenn die GTX 380 "nur" doppelt so schnell ist, aber das 4Fache kostet wird sie trotzdem wenige Käufer binden ...
 
Schinzie schrieb:
Noch dazu kommt, dass in dem Video, welches vor ein paar tagen aufgetraucht ist, es sich definitiv um eine GTX380 gehandelt habe.

woher willst du das wissen?
 
Hat man bei Nvidia Probleme mit dem Grundrechnen?

Ich zitiere: "Nach eigenen Angaben konnte die Geschwindigkeit um den Faktor acht im Vergleich zum GT200 erhöht werden. Die Kalifornier zeigen, um dies zu untermauern, einige selbst erstellte Benchmarks gegen eine Radeon HD 5870. Diese zeigen die Performance der Tessellation auf dem GF100, die je nach Applikation doppelt bis mehr als sechs Mal so schnell wie auf dem RV870 ist."

Da ein RV870 die fünffache Geometrieleistung eines RV670, und ein RV670 nach Nvidias eigenen Angaben eine deutlich höhere Geometrieleistung als ein GT200 hat...

...gelle? Da wundert mich gar nicht, wenn Nvidia nicht so richtig in die Socken kommt, wenn es schon an so einfachen Dingen hapert. Da ich nun selbst aber auch nicht der hellste bin, hoffe ich mal, ich bekomme hier die schwierigeren Vokabeln aus Wolfangs Text erklärt.

Es heißt da auf der zwoten Seite: "Die Größe des Framebuffers von der schnellsten GF100-Karte wird damit voraussichtlich 1,5 GB und damit 50 Prozent größer als bei den vorherigen GeForce- und bei den schnellsten Radeon-HD-5000-Karten sein."

Nun weiß ich von Nvidia, daß die Karten insgesamt nur 1,5 GB Speicher haben werden. Wenn das nun alles als Framebuffer verwendet wird, ist das ja toll, weil man dann ganze Filme oder zig Minuten Spiel komplett im Grafikspeicher horten kann. Ich frag mich nur, ob bei Fermi dann die Texturen direkt aus dem Hauptspeicher geladen werden, oder unmittelbar in der GPU gepuffert.

Ich hoffe auch, wir bekommen demnächst einen Test zu den mir noch ganz unbekannten Modellen der Radeon-HD-5000 mit 1000MB Framebuffer. Die bekannten HD5000 haben ja nur wenige MB Framebuffer, und nutzen ihren Speicher hauptsächlich für Texturen und dergleichen.

Das hier habe ich auch nicht verstanden: "Der in der Raster Engine enthaltene Rasterizer (von denen es im GF100 also gleich vier Stück gibt, im Vergleich zu zwei wohl etwas weniger komplexen Derivaten auf dem RV870) berechnet dann die Pixelbedeckung."

Demnach hat Nvidia also für AMDs RV870 Rasterizer gebaut oder entwickelt und lizensiert, wenn ich meinem Fremdwörterbuch glauben kann, das mir erklärt, was Derivate sind. Die HD5000er sind also in erster Linie dank Nvidias Technologie DX11fähig. Ist das offiziell von Nvidia bestätigt? Habt ihr dazu bei AMD schon nachgefragt?

Weil ich mein, das sind schon tolle Nachrichten, und die sind auch unheimlich interessant. Ich mein, wo doch jeder glaubt, AMD hätte den Tesselator selber entwickelt und nicht nur bei Nvidia "geklaut" sag ich mal salopp.

Ich setz gleich mal ein Fax an dpa und die anderen Agenturen auf, und bezieh mich auf euch. Wolfgang hat ja echt Ahnung und dem kann man ja auch trauen bei sowas. Keine Angst, ich setz dazu seinen Namen als Quelle der News, und geb das nicht als meine aus.

Um Traffic braucht ihr euch auch nicht sorgen. Ich stell das hier kopiert auf meinen Server, damit eurer entlastet ist.
 
Zuletzt bearbeitet: (Nur bei ner Zahl verschrieben vor Aufregung...)
Zurück
Oben