Bericht Bericht: Nvidia GF100: Technische Details

Solange hier keine Werte aus unabhängigen und transparten Test kommen muss man immer erst einmal zweifeln ob das heir nicht nur die handverlesenen Werte sind. Und das gilt für Nvidia wie auch AMD.

Und mir persönlicht reicht "gleich auf" oder "ein bisschen besser" nicht. Wenn man NVs Preispolitik der Vergangenheit betrachtet kann man davon ausgehen das ihr Flagschiff einen ordentlichen Preis haben wird. Warum sollte ich eine Karte kaufen die nur wenig Mehrleistung bringt im Gegenzug aber teurer ist als die Konkurenz und fast 6 Monate später auf den Markt kamm?

Aber das mit der Leistung wollen wir mal erst sehen. In einem ordentlichen Test, mit einem breiten Sprektrum an Benchmarks. Vl. ist die Karte ja so überlegen oder es ist eben nur alles heiße luft was NV so erzählt hat. Wir werden es sehen.
 
Nett, wenns so wird wie in den benches versprochen. Ich warte immernoch ungeduldig auf nen Test :D naja, aber meine GTX260 wird wohl noch ne Weile im Gehäuse bleiben...reicht ja immerhin noch aus :)

Zu den Preisen: Vergesst mal bitte nicht, was davon alles bezahlt werden muss: Entwicklung, Mitarbeiter, Herstellung..blablabla, der empfohlene VK der ATI´s geht, find ich. Woher der derzeit hohe Preis resultiert, wisst ihr ja.
 
Es ist immer wieder belustigend, Nvidias Strategie zu beobachten:

Allein mit der Rohleistung werden sie es nicht schaffen, ATi zu schlagen. Auch wenn GF100 vielleicht 5% schneller als RV870 sein wird, in Sachen Stromverbrauch und Preis wird Nvidia bei so einem Monsterchip nicht mithalten können.

Also werden die neuen Technologien ausgeschlachtet: Diese wudnerschöne Neuerfindung "Tesselator", die so gar nichts neues ist, wird gepusht und man muss sich darauf verlassen, dass die Spieleschmieden es benutzen, um einen Vorteil gegenüber ATi zu haben.
Andererseits schafft es Nvidia nicht, mit ATis neuen Technologien mitzuhalten (siehe Eyefinity).

Alles in allem werden sich die zwei Riesen nicht viel geben, der Tesselator wird eine genauso große (oder eher kleine?) Bedeutung wie PhysiX einnehmen, Nvidia erobert knapp die Leistungskrone und bezahlt (bzw. der Kunde tut es) mit einem teuren Chip und hohem Energiebedarf.

Was man dem GF100 aber lassen muss: Es ist endlich mal eine neue Architektur (die einen neuen Namen wirklich verdient hat), die unter der Haube einiges verbessert, was die Effizienz wohl ein gutes Stück steigern kann. Also glücklicherweise mehr als nur die Verdoppelung der ALUs.
 
Zuletzt bearbeitet:
Also man muss schon mal ganz klar zwischen Herstellerpreiempfehlung und dem was gierige Händler wegen der Knappheit daraus machen unterscheiden.

Davon mal abgesehen bin ich vom durch Nvidia gezeigten schwer enttäuscht.
Wie kann man einerseits solch hochtrabende Folien zeigen und andererseits keinen realen Benchmark mit einem lauffähigen Vorserienmodel? Das legt die Vermutung nahe das entweder keine lauffähigen Vorserienmodelle vorhanden sind (incl. Treiber noch nicht fertig) oder aber die Performance doch noch nicht pralle ist wie angekündigt (Treiber noch nicht optimiert). Beides Fälle in denen Nvidia gut daran getan hätte etwas tiefer zu staplen.
Aber man muss ja die Kunden bei Laune halten :freak:
 
Zuletzt bearbeitet:
Andererseits schafft es Nvidia nicht, mit ATis neuen Technologien mitzuhalten (siehe Eyefinity).

Das will Nvidia mit 3D Surround machen, wenn sie eine EyeFinity-ähnliche Technik bringen würden, würden alle ähnlich meckern: billiges plagiat blablabla. Deswegen eben 3D...
 
Pupp3tm4st3r schrieb:
Das will Nvidia mit 3D Surround machen, wenn sie eine EyeFinity-ähnliche Technik bringen würden, würden alle ähnlich meckern: billiges plagiat blablabla. Deswegen eben 3D...
Das Problem ist: Nvidia braucht, um 3 Monitore anzusteuern, 2 Grafikkarten. Da schafft es ATi mit nur einer Grafikkarte bis zu 6 Monitore anzusteuern.

Und ich würde es auch nicht Plagiat nennen, dass Nvidia die ALUs auf seinem Chip verdoppelt hat, nur weil es ATi mit seiner aktuellen Generation genauso gemacht hat...
 
@Klamann

von welchem mond kommst du denn? tesselation ist keine NV erfindung sondern ne DX11 vorraussetzung die auch AMD mit der 5K schon bietet

und zu eyefinity haben das gegenstück namens 3d surround

informieren statt dummes zeug verbreiten...

edit:
an unter mir:

die generationen sind alle von langer hand in der entwicklung ... der gf 100 wird schon ewig entwickelt, genau wie die neue architektur bei AMD ... die 6 monate unterschied machen da nurnoch nen maginalen unterschied
 
Zuletzt bearbeitet:
Dass der GF100 schneller als Cypress werden wird ist gar kein Thema, er hatte ja auch wesentlich mehr Zeit zur fertigstellung. Ich erwarte von NV einen 1A-Chip.

ATI werkelt nämlich schon lange an der Nachfolgergeneration.
 
Bin mal gespannt. Einerseits sehen manche Behauptungen von NV erst mal ganz toll aus, andererseits hauen mich die wenigen verwertbaren Spielebenchmarkdatn nicht wirklich vom Hocker.
Dabei sieht der GF100 auf dem Papier zwar leistungsfähig aber auch teuer aus. Andererseits liest sich das ganze nach einer wirklixh leistungsfähigen GPGPU-Karte.
Letztendlich bleibt wohl nichts anderes, als weiter auf den Release und erste, verwertbare Tests zu warten und vor allem zu sehen, wie Nvidia sich letztlich vom P/L gegen ATi schlägt. Und zwar nicht nur in der Königsklasse.
 
zum Thema 3D-Vision: Schaut euch doch einfach mal die Auflösungen an und die benötigte Bildwiederholrate. Sollte schon zeigen, dass da bissl mehr Performance vonnöten ist. Zumal sowas nur dreingaben sind, von "nötig" würde ich bei keiner der beiden Techniken sprechen, mir reicht mein 24"er zum Spielen völlig aus. Und fürs Stino-Office reichen wohl auch 2 Monitore, behaupte ich einfach mal.
 
Klamann schrieb:
Allein mit der Rohleistung werden sie es nicht schaffen, ATi zu schlagen. Auch wenn GF100 vielleicht 5% schneller als RV870 sein wird, in Sachen Stromverbrauch und Preis wird Nvidia bei so einem Monsterchip nicht mithalten können.
Sehe ich anders - alleine aufgrund der Rohleistung, sollten sie es schaffen. Insgesamt gehe von im Mittel von 30-40 % aus.
Klamann schrieb:
Also werden die neuen Technologien ausgeschlachtet: Diese wudnerschöne Neuerfindung "Tesselator", die so gar nichts neues ist, wird gepusht und man muss sich darauf verlassen, dass die Spieleschmieden es benutzen, um einen Vorteil gegenüber ATi zu haben.
Als ATI noch davon ausging, dass im Fermi nur ein Software Tesselator sitzt, haben sie das immer wieder brav und emsig betont. Jetzt ist er angeblich plötzlich nicht mehr so wichtig - dabei ist das gerade neben ComputeShaders eine der großen DX11 Features, Spieleentwickler bekommen mehr Geometrie quasi geschenkt.

Allerdings wird sich Nvidia das insgesamt einiges Kosten lassen...
 
Die reale Performance bei 4xAA soll ja nur 60% gegenüber der GTX285 betragen.
Wenn dies wirklich so sein sollte, dann kann Nvidia nicht die Preise bestimmen und muss wieder + - 0 wirtschaften.
ATI kann mit einer HD5890 gleichziehen. Die 130% welche ein GF100 unter 8xAA flotter sein soll, als ein GTX38x kann ich nur in V-Ram limitierenden Settings glauben.
Ich bin ja auch erste tests gespannt, die wohl erst in 2 Monaten kommen werden.
Die Euphorie einiger User kann ich nicht verstehen, auch wenn Nvidia mit neuem AA etc.. herankommt.
Die Karte wird bestimmt gut, keine Frage. Allerdings können sie mit ATI wirtschaftlich nicht mithalten, wenn sie nur 60% schneller ist als die alte Generation.
 
Zuletzt bearbeitet:
Also bei NV wie immer viel heiße Luft um nichts. Ich befürchte sogar, der Fermi wird in der Praxis langsamer als ATIs Cypress. P/L mäßig hat NV schon jetzt verloren, ein Monsterchip kombiniert mit einer Monsterkühlung und einem Monster-Stromvrbrauch, kann nie und nimmer gegen AMD anstinken. Die Geschichte wird wohl wie mit den 200er NVs enden: Um die GPUs nicht zu verschenken, wird die Produktion eingestellt.
 
@danko71: die benchmarks werden bewusst unter verschluss gehalten. das war noch nie anders, dass die benchmarks erst nach fall des nda veröffentlicht werden.
und dass es mindestens vorserienmodelle gibt, beweisen schon die gestern aufgetauchten videos (von den pressevorführungen mal ganz zu schweigen).

@Respekt:
Dass der GF100 schneller als Cypress werden wird ist gar kein Thema, er hatte ja auch wesentlich mehr Zeit zur fertigstellung.
das sagt doch gar nichts. das war bei 2900xt und fx5800 auch so und die waren alles andere als schneller als ihre konkurrenz ;)
 
Hauptmann schrieb:
200-600% mehr Tesselation Performence zur HD5870 :o das wird übel für AMD
Da kann ich einfach nur wieder aus alten Beiträgen zitieren: "Balken sind sooo schön!" :freak:

Alle Tests von Nvidia (ob Tesselation- oder Spieletest) sind nicht wirklich zu gebrauchen, um ein objektives Urteil zu fällen. Die Tests werden von den Herstellern ausgewählt, weil dort ihre Karten am besten dastehen.
 
Einhörnchen schrieb:
Insgesamt gehe von im Mittel von 30-40 % aus.

Die Far CRy 2 Benches zeigen da nur 15% Merhleistung zur HD5870, welche wie ich finde komischerweise etwas langsamer rendert als sonst.
 
wadenbeisser schrieb:
Ich will ja niemanden den Spass verderben aber nimmt man die Werte bei der Vergleichstabelle unter dem Punkt "Textureinheiten" und überträgt sie beispielsweise auf die Crysis Warhead Werte in dem Test dann liegt der GF100 (bei gleicher Taktfrequenz wie eine GeForce GTX 285) bestenfalls gleichauf mit einer Radeon HD 5870.
Ein weiterer Orientierungspunkt ist der Vergleich der AA Performance bei H.A.W.X. im Punkt "ROPs und Speicherinterface".
Überträgt man diese Werte auf diesen Test und bezieht sich ebenfalls auf den GTX285 vs. HD 5870 VErgleich, dann operiert der GF100 wohl ebenfalls auf HD 5870 Niveau oder ev. ein bischen darüber.

Mir ist zwar durchaus bewusst das die Framerate noch von deutlich mehr als diesen beiden Punkten abhängt, zumal wir die Vergleichsbasis nicht kennen aber es ist zumindest schon ein Orientierungspunkt.

GF100 vs GT200 bei gleichem takt, denke ich mal die frage ist wie taktet die neue architektur...

Klamann schrieb:
Es ist immer wieder belustigend, Nvidias Strategie zu beobachten:

Allein mit der Rohleistung werden sie es nicht schaffen, ATi zu schlagen. Auch wenn GF100 vielleicht 5% schneller als RV870 sein wird, in Sachen Stromverbrauch und Preis wird Nvidia bei so einem Monsterchip nicht mithalten können.

Stromverbrauch wen interessiert bitte der Stromverbrauch (bei volllast)?! Das ist ne High-End-Grafikkarte sollange ich mir kein neues netzteil kaufen muss was juckt mich da der stromverbauch? wenn ich energie sparen will fahr ich fahrrad und kauf mir keine HIGH-END-Grafikkarte...

______________________

Omg spaetestens ende Februar will ich mir einen neuen pc kaufen und meine WaKü upgraden und wenn ich bis dahin nicht mal weiss wie die stark die fertige GTX380 sein wird rege ich mich auf!!!
Ich hab den text nicht komplett gelesen also kann es sein das ich etwas uebersehen habe aber koennte es unter umstaenden sein das zwischen den zeilen zu lesen ist das Multi-GPU-Systeme bei dieser architektur besser funktionieren?

Wenn gibts endlich CB-Benchmarks der karte und kann man mit der fertigen karte rechnen?!
 
Zuletzt bearbeitet:
Lübke schrieb:
@Respekt:
das sagt doch gar nichts. das war bei 2900xt und fx5800 auch so und die waren alles andere als schneller als ihre konkurrenz ;)

Ja, und du siehst ja wie der R600 dann da hing. Wie der Ochse am Berg.
 
Zurück
Oben