Wie die HD 4850 eigentlich hätte werden sollen..? Das kann ich sagen: Sie hätte wie versprochen die Geforce 8800 "Ultra" schlagen sollen. In Leistungsangelegenheiten passiert das so gut wie nie. Abgesehen von der Doom3-Engine bzw. manche Spiele ohne AA (wer spielt sowas?). Das kann auch an den Treibern gelegen haben, denn in Sachen Software ist ATI immer auf dem letzten Platz. Ein Grund, warum ich immer wieder versuche mir keine zu holen. Hab schon zu oft damit ins Klo gegriffen.
Aus eigener Erfahrung kann ich sagen, dass die 4850 damals immer 5-15% langsamer war als meine alte Ultra war. Wäre die 4850 noch langsamer auf den Markt gekommen, hätte sie keine Gefahr dargestellt. Im Idle hat sie so 50-70W und auf last so 100-120W (geschätzt). Die Ultra hatte hingegen 70-80W Idle und bis zu 170W (geschätzt) im Lastbetrieb. Das lag aber an der alten Technik des G80! Hier steht es G80@90nm gegen RV770@65nm. Hätte Nvidia jemals den G80 in 65nm oder kleiner herausgebracht, wäre es das Grafikmonster schlechthin geworden. Eventuell hätte sogar der GT200 alt ausgesehen - zumindest was den Verbrauch/Leistung angeht. Die 9800er Reihe achte ich als "Fehlschlag" und nicht wirklich als Weiterentwicklung

. Chips in G92 bis G94 hatten nie die Klasse / Power des G80, auch wenn sie auf dem Papier schneller sind. So schlimm das auch ist, Wahrheit tut oft weh! Genau deshalb ignorieren wir sie auch immer. Manche tun dies, indem sie die Tatsachen verdrängen

.
Natürlich muss ich zugeben, dass die ATI auch ihre Vorteile hat. Als einzigste leistungsfähige Single-Slot-Grafikkarte passt sie in jeden HTPC. Der Preis von anfangs 130€ war das eigentliche Erfolgsmodell. Damit hat man Nvidia ein Schnippchen geschlagen. Die 8800 GT/GTS war und ist einfach zu teuer im direkten Vergleich der Single-Slot-Karten. Alternativen sucht man vergebens.
Einzig das Preis-/Leistungsverhältnis war der unbeschriebene Killer im Grafikkartensegment. Erst als die 4870 (512MB) unter 250€ gerutscht ist, haben die Leute massenweise aufgerüstet. Entweder auf die 4870 oder die GTX260 von Nvidia gekauft. Extreme Overclocker sind dann aber auch auf GTX280 / HD 4870 X2 umgestiegen. Monströse SLI oder Crossfiresysteme lasse ich hier einmal außen vor, denn der Preis spielt hier kaum eine Rolle, weil man mit den alten 8800ern noch teurere Karten gewohnt war.
Zu meinem / unserem aller bedauern sind sämtliche Karten wegen des geänderten Dollarkurses im Schnitt um 20-40€ teurer geworden. Ein Umstand der auch der 4850 zu schaffen macht. Denn in der Region nahe 200€ verliert sie so langsam ihre Attraktivität - zumindest was Leistung angeht. Denn gegen die große Schwester bzw. die GTX hat sie keine Chance!
Ich bin nicht unbedingt ein Fan von extreme Overclocking, aber für viele ist das der einzige Weg, noch das letzte bißchen Leistung aus der "Kleinen" rauszuholen. Bedauerlich, denn dafür ist sie eigentlch gar nicht ausgelegt. Der Single-Slot-Kühler schafft je nach Modell die höheren Temperaturen garnicht oder belohnt den Aufwand mit erhöhten Kreischtönen. Um das dann wieder auszugleichen bräuchte man einen größeren / besseren Kühler. Halt, denkt da der eine oder andere, dann wäre ja der Hauptvorteil der Karte futsch. Wie man es macht ist es verkehrt.
Fazit:
Man mag mich ja jetzt als Fanatiker oder sogar als Fanboy hinstellen, doch ich versuche alles immer möglichst pragmatisch zu sehen. In der Kurzfassung kann ich aus unzähligen Erfahrungen sagen, dass ATI es immer wieder schafft solche Pseudo-Testsieger zu produzieren. Im Fazit könnte immer stehen "Gute Technik, doch leider versaut es der Treiber / die Treiberoptimierung"! Beispiele hierfür könnte das nicht und niemals mehr vorhandene Powerplay 2.0 der 4870 genannt werden. Der gleiche Mythos wie die versprochenen Stromeinsparungen bei der 8800 GTX/Ultra, das selbe in Grün damals von Nvidia
Ich habe jetzt viel auf ATI eingeschlagen, aber Nvidia bekommt auch noch etwas ab. Solange diese "Missgeburt" von GT200 auf dem Markt ist, sehe ich schwarz für die Grünen! Da hilft auch ein B, C, 216, GX2 oder was auch immer nichts.