Test Test: Nvidia GeForce GTX 480

Wirklich enttäuschend - dazu wird ein sehr hoher Preis kommen.
Wenn man dann noch Verbrauch und Lautstärke zusammen nimmt wüsste ich keinen Grund wieso man da sein Geld rein stecken sollte.

Wer PhysX braucht / will kann zur alten Generation greifen die absolut ausreicht.
Wer unbedingt die beste Leistung will geht eben zu ATI wobei ich die Karte jetzt auch nicht besonders toll finde.
 
Achso, wer rehabilitiert jetzt eigentlich diesen Charlie? Bzgl. Fermi stimmt nachträglich betrachtet ja auf erschreckende Weise ein Großteil seiner sehr negativen Vermutungen mit dem endgültigen Produkt überein.

Grüße
franeklevy
 
ich glaube der sitzt jetzt in seinem kämmerchen und genießt die reaktion auf den fermi mit einem grinsen aufm gesicht^^


gruß
 
die leistungskrone bleibt bei ati. die 5970 bleibt weiterhin die schnellste karte.

nur komischerweise zählt das bei einigen nur, wenn nvidia mit ner karte mit 2 gpus oben steht. *g*
 
einen dualfermi können wir dann wohl in der jetztigen form abschreiben^^


gruß
 
@Eisenfaust:
Im Spielzeugland wird 'Fermi' gewiß keine großen Sprünge machen, wohl aber dort, wo wirklich Geld verdient und Rechenkraft gebraucht wird.

um mich mal selbst zu zitieren:
Wahrscheinlich werden auch viele von den angeblich tausenden Vorbestellern im GPGPU-Bereich die Karte nicht nutzen. Ohne Zweifel die Leistung ist gut, aber bei einer so schlechten Effizienz dürfte sie sich wohl nur in den wenigsten RZ wiederfinden. Sollte man den Fermi wirklich professionell nutzen, so dürften die damit verbundenen Investitionen in Kühlung und neue Netzteile den möglichen Leistungsgewinn schnell zunichte machen.

@annabla:
Nvidia hatte mehr als genug Zeit, hatte dutzende Verschiebungen und hat es nicht geschafft. Wie soll nun innnerhalb kürzester Zeit ein Respin und damit eine 485 möglich sein? Glaubt ihr nicht auch, dass dies bereits geschehen wäre, würde es so einfach möglich sein? Ich vermute es wird keine weitere Karten nach oben hin geben, auch keine Dual-GPU Karte.

Grüße
franeklevy
 
anfangs dachte ich auch das NV mit nem refresh-Chip Boden gutmachen wird. Aber der Fermi hat wirklich viel zu viele Nachteile, NV wird sich wie zu 5800 FX Zeiten auf ne komplett neue Architektur stürzen, ich könnte Wetten abschließen, der Fermi ist in nem halben Jahr Geschichte!
 
Zuletzt bearbeitet:
Ein neuer eintrag für Fail Blog :D

Da die schnellsten ATI und Nvidia fast gleich von der Leistung sind (außer den Spielen welche extra für Nvidia gefertigt wurden), würde ich sagen, wie erwartet, ein Flop.

Zu hoher Preis, zu laut, zu warm, zu großer Stromfresser...

Fail...

PS: Als neues Feature sollte Nvidia mit der Zusatzfunktion werben, dass man die Spiegeleier auf dem Chip machen kann :D :D :D
 
Hoppla, da kann man auf jedenfall nur sagen, FINGER WEG :evillol:
 
Wenn die Karte so heiß wird, was soll das im Sommer dann noch werden, wenn die Lüfter schon warme Luft ansaugen? Ich sehe schon die ersten Rechner bei der nächsten LAN den Hitzetot erleiden.

Ich finde die Performance der Karte wirklich nicht schlecht, aber zu welchem Preis diese erkauft wurde ist mir nicht einleuchtend.
 
Am besten gleich auf Wakü umrüsten - dann lebt sie vielleicht 2 Jahre.............:evillol:
 
Ich kann nicht glauben was für ein Produkt nach so langer Zeit den Markt erreicht.:lol:
Flop und pfffffffffffft
Vielleicht sollte Nvidia das Kernkraftwerk bauen und nicht Bill Gates :evillol:
 
franeklevy schrieb:
Achso, wer rehabilitiert jetzt eigentlich diesen Charlie? Bzgl. Fermi stimmt nachträglich betrachtet ja auf erschreckende Weise ein Großteil seiner sehr negativen Vermutungen mit dem endgültigen Produkt überein.

Grüße
franeklevy

Ich frage mich auch wer die ganzen User rehabilitiert, die seit Monaten auf die Probleme hinweisen und Nachrichten über Release-Termine und Kartons (die leer waren wie sich mittlereweile rausgestellt hat) in Frage gestellt haben. Ich war einer derjenigen, die viele Beschimpfungen ertragen mussten, und das nicht nur von Usern. Lustig hat man sich gemacht, sich amüsiert. Dabei hatten die Zweifler die ganze Zeit recht. Wäre wirklich schön gewesen, wenn auch mal über solche Gerüchte berichtet worden wäre. Stattdessen wurden sie immer mit dem Hinweis auf Bild-Zeitung Niveau abgeschmettert.

Finde ich aber schön zu sehen, dass viele den hohen Verbrauch nicht akzeptieren. Auch wenn die meisten das wohl auch hauptsächlich wegen der Lautstärke machen. Nur so wird man bei Nvidia anfangen sich über effizientere Lösungen Gedanken zu machen, wenn der Kunde das Produkt ablehnt.
 
@bobafetti:
Das NV das Kernkraftwerk baut wär echt mal ein Hammer vor allem weil die dann noch Lärmschutzwände und weiteres dranhängen müssten^^
Viel kann man da echt nimmer sagen....
 
Hm Schade
Weder die NV noch die ATi Karten waren für mich "gut" beide eher enttäuschend.
Werd ich wohl noch ne Gen. mit meiner 9800GTX+ rumdümpeln :D
 
GTX 480 v. HD 5870 2GB Grundlage:
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index52.php
http://www.pcgameshardware.de/aid,7...t-Was-bringen-2048-MiB-VRAM/Grafikkarte/Test/
http://www.pcgameshardware.de/aid,7...ias-GF100-Generation/Grafikkarte/Test/?page=2

GTX 480:

Vorteile:
+ Schnellste single GPU
+ 1,5 GB Vram ausreichend im Verhältnis zur Rohleistung
+ 3D Vision, PhysX, Cuda -> sehr gute PhysX und GPGPU Performance
+ DX 11
+ Offiziell 32x CSAA + 8x TSSAA + Inoffizielle Modi wie zb. 32xS + 4x TSSAA weiterhin im Treiber
+ exklusives, inoffizielles DX10/11 Sparse Grid Fullscene Supersampling Anti-Aliasing (SGSSAA) per Trick: http://www.pcgameshardware.de/aid,7...alitaet-in-modernen-Spielen/Grafikkarte/Test/
+ Sehr gutes AF
+ Gute Tesselation Leistung und daher unter Umständen bessere Leistung in zukünftigen Spielen, wobei bei Metro 2033 kein Vorteil vorhanden ist: http://www.pcgameshardware.de/aid,7...t-Was-bringen-2048-MiB-VRAM/Grafikkarte/Test/
+ Sehr guter Treibersupport (TWIMTBP, Linux etc.)
+ Grafikkarte ist kleiner als bei der HD 5870 und findet so in mehr Gehäusen Platz
+ Alltags taugliche Versionen erhältlich: http://edel-grafikkarten.de/NVIDIA/GTX-480


Nachteile:
- Idle Stromsparen mangelhaft (49,3Watt PCGH)
- Viel zu hoher Last Stromverbrauch (235 Watt PCGH)
- TDP orientiert sich nicht an 100% Lastverbrauch bzw. PCIe Specs. werden massiv überschritten. Netzteilschaden droht! (250Watt TDP -> 320Watt realer Verbrauch bei 100% Auslastung)
- offizielle max. OC Versionen nur bedingt möglich, da sonst mit 400Watt Leistungsaufnahme zu rechnen ist, was Luftkühlung ans absolute Limit führt...
- Extrem schlechte Performance per Watt
- Unnötiger verschwenderischer Stromverbrauch beim Multimonitorbetrieb
- Viel zu laut im Idle (1,6 Sone PCGH)
- Extrem laut unter Last (6,9 Sone PCGH)
- FPS Vorsprung schwindet im Verhältnis zur Konkurrenz, bei höher werdender Auflösung und Modi, obwohl genug Vram und Bandbreite zur Verfügung steht, wahrscheinlich Probleme mit der Architektur...
- Kein offizielles SGSSAA, oder offizielles SSAA(Holzhammer)
- Versagt bei einigen Games die Leistung brauchen zb. Crysis/ Metro DX11 bzw. keine konstant gute Leistung sondern Achterbahn der FPS
- Im Schnitt zu langsam( nur ca. 10-15%) für die Leistungsaufnahme und den Preis (HT4U Parcours zb. nur 8%!)
- fehlendes DTS-HD und Dolby True HD
- kein Displayport



HD 5870 2048MB

Vorteile:
+Power Play 3.0 funktioniert einwandfrei(20Watt)
+2048MB GDDR5 Vram -> Vram geht in ein paar Jahren garantiert nicht aus!
+Sehr gute Performance per Watt
+Eyefinity
+DX 11
+offizielles DX9 Sparse Grid Fullscene Supersampling Anti-Aliasing (SGSSAA)
+teilweise fast genauso schnell bzw, schneller als GTX 480 zb. Metro 2033: http://www.pcgameshardware.de/aid,7...t-Was-bringen-2048-MiB-VRAM/Grafikkarte/Test/
+Leise im Idle (0,5 Sone)
+HDMI mit Audio, Grafikkarte @ Soundkarte
+TDP orientiert sich an 100% Lastverbrauch bzw. PCIe Specs. werden vorbildlich eingehalten
+fast schon lautlose Designs erhältlich: (0,3 Sone): http://edel-grafikkarten.de/ATI/HD-5870/HD-5870-Prolimatech-MK-13-Edition


Nachteile:
-Texturflimmern immer noch leicht vorhanden, AF verbessert, aber immer noch nicht so gut wie bei der Konkurrenz
-zu laut unter Last -> nix für Silentrechner (3,6 Sone)
-Kein PhysX bzw. GPU Physik
-Kein CUDA bzw. wenig ATI Stream Programme und daher aktuell immer noch schlechterer GPGPU Support
-Schlechterer Treibersupport bzw. schlechtes Treiberteam. (zb. GTA 4; Anno 1404) -> warten auf Treiber bei neuen Games
-"Auspuff" verlängert Grafikkarte unnötig
- kein DX10/11 Sparse Grid Fullscene Supersampling Anti-Aliasing (SGSSAA)






So, wie versprochen kein Blatt vor dem Mund bei Versagen von Fermi, Kritik und Verbesserungen erwünscht:

Haar genau die gleiche Situation wie bei der Radeon 9700 Pro v. Geforce FX 5800 Ultra.
Auf Biegen und Brechen an die Leistungsspitze, wie damals viel zu spät und 100% Fail, obwohl das NV erklärte Ziel erreicht wurde...

Übrigens genauso fail wie zb. 9800GX2; HD4870 X2/ HD5970 1GB und HD 2900XT.

Die GPGPU Leistung interessiert hier aus Gamer Sicht erstmal nicht, solange die Basis(Games) nicht überzeugend durchgezogen wird. Für den GPGPU Supercomputermarkt dürfte Fermi als GTX 470 Quadro durchaus gerade bei Intel Server für große Augen sorgen... Aber das ist ein ganz anderes Thema.


Ich vermisse auch Empire: Total War in sämtlichen Benches, das Game ist eigentlich ein GPU Killer inkl. hohen Vram Verbrauch. Wenn jemand Tests mit HD 5000er oder Fermi damit findet, lasst es mich wissen.

Wenn ATI wirklich keine HD 5890 bringt machen sie einen großen Fehler. Mit mGPU Karten(HD 5970 2x2GB) zu kontern hilft ATI bei der verlorenen single GPU Krone kein Stück. Vorallem die HD 5870 ist einen Tick zu langsam zb. für Crysis, wahrscheinlich auch für Empire, da muss noch was kommen von ATI sonst kann(muss) man ja gleich auf die HD 6000/Fermi Refresh warten. :rolleyes:

Fazit von der GTX 470 gibts wenn CB einen Test bringt. Wird aber ähnlich schlecht ausfallen, weil Thermi gegen das Effizienz Monster HD 5850 einfach kein Land sieht.

MfG Kasmo
 
Zuletzt bearbeitet:
Eigentlich ist es logisch: Wenn ein Produkt wirklich gut ist, dann werden vorab reichlich Informationen geleakt. Umgekehrt wird aber wirklich alles unternommen, das Unvermeidliche so weit wie möglich hinaus zu zögern. Charlie hatte übrigens nicht einfach nur Recht, er muss handfeste Insider-Informationen erhalten haben. AMD hat einen Maulwurf bei Nvida, da bin ich mir sicher.
 
Zurück
Oben