News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.361
Im Rahmen der hauseigenen „GPU Technology Conference“ hat Nvidia die Katze aus dem Sack gelassen und erste Spezifikationen zur kommenden High-End-Grafik-Lösung präsentiert. Demnach hatte die Gerüchteküche vorab schon größtenteils recht, der Codename des neuen Chips lautet „Fermi“.

Zur News: Offiziell: „Fermi“ a.k.a. GT300
 
wiegut der gt300 verkauft wird ist nur noch eine frage des preises^^

ich hab zwar keine glaskugel aber das hört sich extrem teuer in der herstellung an
 
sehr beeindruckend find ich wirklich 3 milliarden transistoren das wird auf jeden fall ein riesen die
 
Das hört sich nach ordentlich Leistung an. Ich bin wirklich sehr gespannt was das im Endeffekt gibt :)
 
Wenn diese Zahlen auch in der Realen Computerwelt verwirklicht werden können, Anzahl = Leistung, dann ergebe das eine Leistungseigerung von über 200% zum GT200!
 
ist das ein hybried zwischen GPu & CPU?? oder hab ich was falsch verstanden
 
Uh, brutale Leistung die da auf uns zukommt... wahrscheinlich auch zu einem brutalem Preis ;p

@ Makso
Da spricht wohl der Fanboy aus dir? ;)
 
Zuletzt bearbeitet:
Die Grafikkarte (wenn man sie überhaupt noch so nennen kann) ist der schiere Wahn:
http://www.realworldtech.com/page.cfm?ArticleID=RWT093009110932&p=1
http://www.nvidia.com/content/PDF/fermi_white_papers/NVIDIAFermiArchitectureWhitepaper.pdf

Allerdings wird man sehen müssen, wieviel sich daraus in der Praxis für den anspruchsvollen Durchschnittsanwender & Gamer umsetzen lässt. ATI hat zb mit Eyefinity gezeigt, wie wann mit wenig technischen Fortschritt aber durchdachten Anwendungsszenarien einen praktischen Mehrwert schafft.

Edit:
http://www.nvidia.com/object/fermi_architecture.html
http://www.anandtech.com/video/showdoc.aspx?i=3651
 
Zuletzt bearbeitet:
Khaosprinz schrieb:
Uh, brutale Leistung die da auf uns zu kommt... wahrscheinlich auch zu einem brutalem Preis ;p

woher willst du das wissen. erst die benchmarks werden zeigen welche Grka besser mit DX11 auskommt
 
Also bei mir funktioniert der Webcast auch nicht. Dabei warte ich seit 2 Stunden darauf...
 
Nvidia scheint immer noch an der "Riesen-Die-Strategie" festzuhalten. Das wird wieder sehr schlechte Yield-Raten und Ausbeutung von einem 300mm Wafer wie früher beim GT200 geben. Das wird dann sehr teuer, sehr heiss, sehr gross, sehr laut und natürlich auch sehr schnell.
Ich bin zwar kein Profi und konnte an dem Material nicht viel abgewinnen aber 3 Mrd. Transistoren und 512 Shader in 40nm kommen bestimmt locker auf 400mm² Fläche; wenn nicht, sogar mehr.
 
naja, mit gut 30% mehr Transistoren als der RV870 dürfte der Fermi-Die den Gt200 in Größe und abwärme auf jeden Fall überflügeln, da helfen auch 40nm nix. Bin auf die Leistung gespannt, soweit ich´s verstanden hab ist der Fermi seit dem G80 ne neuentwicklung, nicht wie der der GT200 der mehr oder weniger ein hochgepimpter G92 ist der ja nicht mehr ist als ein Die-Shrink vom G80.

Ich bin gespannt!
 
Zuletzt bearbeitet:
Josefferson schrieb:
Also bei mir funktioniert der Webcast auch nicht. Dabei warte ich seit 2 Stunden darauf...


bei mir auch nicht. nicht mit firefox und auch nicht mit IE8
 
Man darf weiter gespannt bleiben ob der GT 300 doppelt so schnell wird wie die GTX 285, wenn man die Rohdaten vergleicht.

MfG Pantherfibel
 
Mhm also ich möchte wissen, wann dieses Wunderwerk auf den Markt kommt.
Eins schafft Nvidia - eine RIESEN Erwartungshaltung aufzubauen...

Mal sehen, ob klappt
MfG
 
Makso schrieb:
ist das ein hybried zwischen GPu & CPU?? oder hab ich was falsch verstanden

Nein, wie kommst du dadrauf.
Die GPU übernimmt immernoch die selben Aufgaben wie früher, und einfache und besonders paralelle, kann sie immernoch so verarbeiten wie sonst.

Der Cache ist nur da, damit man nicht so oft Daten aus einem 6 GB RAM laden muß, das würde schon etwas länger dauern..:freak:
 
Hmm..
Intressant intressant. Ich bin auf erste Benchmarks scharf.
Ich glaube aber ehrlichgesagt, dass Nvidia da ein bisschen MArmelade ums Maul schmiert.
Mich intressieren keine GGPU oder CGPU Berechnungen, sondern Grafikleistung und da muss man erst sehen was hinten rauskommt.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben