Bericht Bericht: Nvidia GeForce GTX 400

Natürlich sieht man den Monitorinhalt bei 3d Spielen 3d ähnlich, die Bilder haben Tiefe und räumliche Darstellung.

Es ist ähnlich als würde man durch eine Fensterscheibe gucken.

@cem28
Wenn man nicht gerade in einer Schuhschachtel lebt kann man 3 Monitore aufstellen. Man braucht nur mehr platz auf dem Schreibtisch.

Außerdem kann man so zocken udn arbeiten, denn man muss nicht einen dieser 3D fähigen Monitore nehmen, sondern kann was vernümpftiges kaufen. § Monite sind beim Arbeiten ebenfalls sehr hilfreich.

Mehr Blickfeld ist für mich mehr wert als eine verbesserte Tiefendarstellung mit ordentlichen Nebenwirkungen.
 
Was ich jetzt garnicht nachvollziehen kann, warum jetzt 3D Vision auf einmal das Maß aller Dinge sein soll. Dafür braucht man auf jedenfall keine GTX 400 Karte. Abgesehen vom "Augenkreps" gibt es noch viel zu viele Dinge die erst noch ausgemerzt werden müssen, damit 3D Vision für Spiele wirklich zu empfehlen ist. Und zum 3D Filme schauen braucht man keine GTX 400 Karte, denn die sind dafür einfach zu laut, zu teuer und auch zu Stromhungrig.

Hier noch ein Link wo 3D Vision getest wurde:
http://www.gamestar.de/hardware/tests/monitore/1953880/test_nvidias_geforce_3d_vision.html
 
Zuletzt bearbeitet:
Hallo,

also ich finde das die 480 GTX gar nicht sooo viel Leistung erbringt.

Wenn ich mir das Testsystem anschaue hätte ich von der Karte doch weitaus mehr erwartet.
500 € ist ein echt stolzer Preis.

Ich finde man sollte die neuen Karten hier nicht überheblich anpreisen, denn das Bild was manchesmal bei einem Test dargestellt wird weicht meist doch stark von der Realität ab.

Ich habe selbst nur gegenüber der GTX 275 mit 896 MB einen Performanceschub von 28 % feststellen können, und das nicht mal in allen Spielen.

Ich habe z. B. den Phenom 940 AM2+ 4 GB Corsair und die GTX 275.

Bei Metro (z.B) habe ich continuierlich 58 Fps, bei einer Aufläsung von 1920 x 1080, 8 x AA und 16 ASF.

Die Karte kostet neu nur noch 219.- Euro...

Wieso in eine GTX 480 investieren, wenn die alte Generation immer noch mehr Leistung fürs Geld bringt, und dazu Stromsparender ist.

An dieser Stelle möchte ich noch hinzufügen....das mir öfters der direkte Vergleich zu alten Nvidia Karten fehlt.


Hoffe einigen bei Ihrer Kaufentscheidung geholfen zu haben ;-)
 
@Shurkien
was willst du uns mit deiner Aussage genau mitteilen? Ich verstehe es nämlich nicht.

In gewisser Hinsicht gebe ich force-1 durchaus recht. Die frage ist doch, was bringt DX11, optisch gesehen im Gegensatz zu DX10 wirklich.

Wenn ich mal den Heaven Benchmark so betrachte und ich Tessa einschalte, ist es zwar ganz schön, wie toll die Stacheln von dem Drachen aussehen. Aber son holpriges Kopfsteinpflaster wie unter Tess-Einstellungen habe ich noch nie gesehen. Leute die so Kopfsteinpflaster verlegen, müssten eingesperrt werden.
 
@ Shurkien

nein natürlich nicht mit Directx 10, sondern mit Direcxt 9...und Physix Advanced wird bei DX9 nicht aktiviert.
Nun...da der Unterschied "derzeit" nicht so gravierend zwischen DX9 + DX11 sind, und auch nihct allzuviele Spiele erschienen sind oder erscheinen, stehe ich nach wie vor zu meinem oben geschriebenen Post.

Da Du ja noch die 9800 GTX+ inne hast, kannst Du also nicht wirklich vergleiche ziehen.
Gerade solche Aussagen von Dir, verwirren die Käufer und denken man bräuchte diese Karte...
Aber genau das ist es ja...man braucht diese derzeit nicht.

Früher hat man sich eine Karte gekauft, weil die Riva TNT (ich hoffe Du kennst diese) bei diversen Spielen schwächelte....und man hatte nur noch Standbilder....damals wechselte man dann zu ner Geforce und alles lief wieder flüssig.

Genauso gravierend war der Unterschied zwischen der Geforce und der Geforce 2 GTS (Du erinnerst Dich?)..dazwischen lagen 90 % Unterschied an Leistung, und die Karte kostete 250.- DM

Noch ein Beispiel

Die FX 5900er... (damals knapp 400 Märker)....die Karte war eine der schnellsten auf dem Markt...
Wurde aber durch die 3x schnellere 6600 GT von Nividia ( 130 Mark ) schnell übertrumpft.

Das sind Unterschiede die zum Kauf überzeugen.
Nicht 28 % zwischen einer GTX 480 und einer GTX 275
Preislich schon gar nicht.. 499.- zu 219.- bei ebay noch günstiger...

Also denke ich, sollte ein Bericht, sowie eine Kaufempfehlung auch auf solche Nebensächlichkeiten hinweisen, und nicht mit dummen Kommentaren wie Deinen, die Forum User verunsichern.

Nichts für ungut....;-)
 
Du liegst bei den Preisen ziemlich daneben, meine Geforce 2 GTS 32MB hat mich seinerzeit 599,- DM, die 6600GT ein paar Monate nach Erscheinen ca. 250,- Euro gekostet ... ;)

Aber das ist sowieso Schall und Rauch, vor kurzer Zeit sahen die Preise für Karten in den entsprechenden Leistungsklassen deutlich "sympatischer" aus, aber das ist vorbei, insofern: neue Situation, neue Regeln.
 
Zuletzt bearbeitet:
Nicht 28 % zwischen einer GTX 480 und einer GTX 275
Preislich schon gar nicht.. 499.- zu 219.- bei ebay noch günstiger...

28%?
Das sind mehr. Soviel Abstand hat die ja !!!STELLENWEISE!!! schon zur HD5870

Aber 275 und 480 lassen sich schwer vergleichen
Da die 275 kein DX11 und kein Tess hat.

Zum Preis:
Du darfst nicht vergessen das die GTX480 neu auf dem markt ist.
Die GTX275 jedoch ist schon um einiges älter (fast nen Jahr iirc?)
 
Geh, es hat Zeiten gegeben da haben die aktuellsten NVIDIA Karten 700 Euro oder mehr gekostet. Wer die schnellste single-Karte JETZT haben will/muss, darf halt in die Tasche greifen. Ich seh da nichts Schreckliches. Ist ja nicht so als ob ATI keine Konkurrenz darstellt und als wäre man gezwungen NVIDIA ihre Karten abzukaufen :rolleyes:
 
Tesselation wird, denke ich, in letzter Zeit hier etwas zu viel gehyped.
Bisher bringt es nämlich rein gar nichts, außer in Dirt 2 und hier wurde es sinnvoll implementiert und zog dementsprechend auch nicht soviel Leistung.
 
Irgendwie schwindet die Hoffnung, dass nVidia den GF100 umkrempelt um ihn effizienter zu machen, denn offensichtlich ist nVidia mit der Verlustleistung ganz zufrieden. Ein aktuelles Zitat aus einem kürzlich geführten Interview mit Nvidias general manager of MCP business, Drew Henry:

"To this question Drew Henry replies that he thinks the “15-20W higher” power consumption of the GTX480 and GTX470 compared to the GTX285 isn’t a big deal, especially as it’s targeting performance users. He goes on to say that “to pay a little higher electricity bill in exchange for 10 percent more in performance, I believe consumers will think this is a worthwhile trade.”"

Quelle: http://www.digitimes.com/news/a20100414PD217.html
 
Ich denke mal, dass sie das Problem definitiv erknannt haben. So blind kann man ja garnicht sein.
Vor allem weil sie von 15-20w(stimmt ja nicht mal) mehr gegenüber der GTX285 reden, versuchen sie einfach nur ihre Missgeburt zu relativieren. --> Keine dieser Firmen würde zu geben, dass sie Mist gebaut haben.
 
Hab nochmal nachgeschaut. Die GTX 480 liegt eher 40-100W drüber :-D nVidia ist zwar für vieles bekannt, aber bestimmt nicht wenn es daraum geht Fehler zu bestätigen oder einfach nur die Wahrheit zu sagen.
 
DvP schrieb:
Irgendwie schwindet die Hoffnung, dass nVidia den GF100 umkrempelt um ihn effizienter zu machen, denn offensichtlich ist nVidia mit der Verlustleistung ganz zufrieden.
Nun ja, ich denke schon, dass sie sich bewusst sind, dass die Energieeffizienz einfach katastrophal ist und dementsprechend an Verbesserungen arbeiten werden. Sie müssen den aktuellen Kram halt irgendwie promoten.
 
Wolln wirs hoffen ;-)
 
Oder nen besseren Kühler draufpappen.
Man nehme mal den Kühler der HD5970 Toxic von Sapphire. Die Karte taktet mit 900mhzChiptakt verbraucht 30Watt mehr als die GTX480 und es gibt online auch glaub ich einen Lautstärketest, der besagt, dass die Karte relativ gesehen leise ist.
Aber kein Wunder wenn man sich den Kühler der Toxic mal ansieht.
 
@Schaffe89: habe in einem anderen Thread auch geschrieben, dass es neben der Radiallüfter-Version noch eine Triple-slot-Kühler-Version geben sollte. SLI würde hier zwar flach fallen, ist bei so einer Karte wohl aber auch nicht wirklich nötig.
Die Frage ist dann halt, zu welchen Preisen solch eine Karte auf den Markt kommen könnte.
 
Es gibt doch boards mit mehr als 2 Pci-E slots... wer will bekommt das schon hin, man braucht nur eine längere Sli Brücke, ich hab nur keien Ahnung ob es sowas gibt... Crossfirebrücken gibts in verschiedenen Längen.
 
Nimm halt nen Board mit 3x PCI-e
Für 3Way SLI nimmst halt soein Board mit 7xPCIe
 
Zurück
Oben