Test Test: Zotac GeForce GTX 480 AMP!

Pumpi schrieb:
Es kann aber auch sein das zum Weinachtsgeschäft schon das erste Spiel raus kommt, wo die Mehrleistung der 480 brauchbar genutzt wird, in bezug auf Tesselation ! Wenn ich mir dann grad ne 5870 PCS+ gekauft hätte, würd ich mich schwarz ärgern. Das für lumpige 50 €

So schlecht sind die HD5000er in Tesselation nun auch wieder nicht, das sie alle unbrauchbar werden sobald mehr Leistung gefordert wird.
Du stellst die ATI-Karten so dar, als ob sie überhaupt kein Tesselation könnten. :rolleyes:

Von PhysX ganz zu schweigen, das läuft nun mal am besten mit einer richtigen Graka, oder auch in Zukunft mit zwei SLI karten im Verbund, am besten !

PhysX braucht wirklich kein Mensch, da es schon längst Physikberechnung auf dem Computer gibt dank Havok.
Auch ist keine richtige Graka von nöten, da selbst bei ordentlichen Implementierung PhysX auf einer CPU laufen würde.
Zudem, Gott bewahre uns davor, extra für PhysX eine zweite Graka anschaffen zu müssen.
Wenn das der Fall ist, was es ja zu scheinen tut, siehe MafiaII, dann geht PhysX sehr schnell unter, noch bevor das nächste Weihnachtsgeschäft anläuft.
 
Zuletzt bearbeitet:
Du stellst die ATI-Karten so dar, als ob sie überhaupt kein Tesselation könnten.

Hab ich mich vielleicht schlecht ausgedrückt.

Auch ist keine richtige Graka von nöten, da selbst bei ordentlichen Implementierung PhysX auf einer CPU laufen würde

Hätte wenn und aber, die Realität spricht in einigen bereichen/Spielen eine andere Sprache !

NVIDIA denkt halt sie könnten ATI den Kundenkreis wegschnappen. Dem ist aber nicht so

Wie standhaft die ATI Gemeinde ist wird man sehen, wenn noch 2-3 Dinger wie Mafia 2 rauskommen wird es sicher schwer, selbst für den härtesten P/L Freund.

Wenn ATI nicht in die Puschen kommt mit ihrem 3D, dann werden sie Kunden verlieren. Es wird nicht mehr lange dauern das es die Regel ist das Vernünftige 3D Unterstützung bei den guten Games gleich richtig implementiert wird. Zum Weinachtsgeschäft ist es denke ich spätestens so weit ! Das kann sehr entscheidend sein für die Zahlen.
 
Aha, du glaubst also das ein Großteil der Kunden soviel Geld fürs zocken ausgeben wird? Unausgereifte 3D-Brillen, 120 Hz Tripple Dispalys, mit hässlichen Kanten im Bild, wohlbemerkt?

Nun, da liegst du denke ich falsch, denn so macht man kein Geld! Das funktioniert vielleicht bei der Wii, Leuten Spielzeuge zu verkaufen aber da stimmt der Preis auch einigermaßen. NVIDIA versucht hier geradezu eine Spaltung des Kundenkreises zu vollziehen. Exklusiv und Nicht-Exklusiv.

Wenn noch zwei so Dinger rauskommen stört´s mich nicht und die meisten bewussten Kunden ebenso nicht.
So wichtig ist PhysX durch Mafia II nun auch wieder nicht. Immernoch recht bedeutungslos. Zudem gibt es wiegesagt immer gebrauchte PhysX-Karten und der Rest kann mir den Buckel runter rutschen. Damit sorgt NVIDIA nur noch mehr dafür, dass Konsolen an die Macht kommen, indem viele PC-Gamer auch noch ausgesperrt werden, anstatt offene Standards zu schaffen. Aber klar, so kann einem niemand die Butter vom Brot nehmen.

NVIDIA muss es echt nötig haben bei solch starker Konkurenz. :D
Hätten sie anständige Karten gebracht, würden die Leute auch kaufen. Sowas wie die GTX 460
kam wirklich in letzter Sekunde und war längst überfallig, um nicht ganz den Anschluß zu verlieren.

Sollte NVIDIA mal wieder anständige High-End Produkte für den Spielesektor bringen, bin ich auch gewillt zu kaufen aber so wird das nichts..
 
Zuletzt bearbeitet:
Ich sehe das Weihnachts Mc-Media special förmlich vor meinen Augen : 120 Hz display/NV kit/GTX 470 = 449-499 €

Dann kommt ATI und sagt : Jo, wir haben aber 10% mehr Leistung und verbrauchen 15 % weniger Strom !

Jetzt mal ganz im Ernst, was werden die leute wohl kaufen ?

NVIDIA muss es echt nötig haben bei solch starker Konkurenz.

Ja, meine derzeitige Lieblingsfirma hat es wirklich nötig alle Register des Wettbewerbs zu ziehen !

Wenn AMD/ATI sich erstmal so richtig berappelt haben, und das werden sie wohl, dann hat NV wahrscheinlich nicht mehr viel zu lachen.

Und wenn ATI mit ihren lahmen Zusatzentwicklungen so weitermacht, habe ich dann auch entsprechend weniger zu lachen. Ich hätte aber gerne etwas mehr als eine gut angesteuerte Pixeltapete in 9000x5000 ! Die bringt mir nämlich nicht viel wenn ich 50 cm davor sitze.
 
Pumpi schrieb:
Ich sehe das Weihnachts Mc-Media special förmlich vor meinen Augen : 120 Hz display/NV kit/GTX 470 = 449-499 €

Komm, mach dir nichts vor.
Der 3D-Trend ist so schnell vorüber wie er entstanden ist.
Im Blöd-Markt habe sie schon alle 3D-Brillen weg gesperrt und die LCDs sind auch längst wieder auf Normalbetrieb.
Keiner will sich eben dies antun. Mit so einer klotzigen Brille vor die Glotze setzten ist wirklich ein NO GO und ebenso auch bei Games ! :cool_alt:

3D gibt es schließlich nicht erst seit kurzen.
Schon vor 20 Jahren gab es auf RTL und Co diverse Versuche so eine Brille an den Mann zu bringen. Aber es hat sich eben nie durchgesetzt und wird sich auch nie durchsetzten.

Eher würde ich lieber 3 Monitoren nebeneinander stellen, so wie bei ATIs-Eyefinity, was deutlich mehr bringen würde und auch ohne extra Brille funktioniert.

Dann kommt ATI und sagt : Jo, wir haben aber 10% mehr Leistung und verbrauchen 15 % weniger Strom !

Wie sich die neue 6000er-Generation schlagen wird ist noch weit offen.
Kann auch 50% Mehr Leistung sein bei 50% weniger Verbrauch. :p
Alles reine Spekulation.
Vielleicht entpuppt sich die 6000er auch als Epic Fail... Wer weiß ?


Jetzt mal ganz im Ernst, was werden die leute wohl kaufen ?

Diese Frage ist wohl schon lange geklärt.
Nvidia muss einiges tun um ihre Marktposition zu verteidigen. Die Quartalszahlen spreche da eine deutliche Sprach ! Da wird dann eben die belanglosen Feature wie PhysX oder 3D gehypt und als unverzichtbarer Standard verkauft.
Wer sich davon beeinflussen lässt und dadurch unverhältnismäßige Hardwareberge anhäuft ist eben selber Schuld.
Zum Glück sind die meisten Leute gegen solche Suggestionen immun und entscheiden sich für das Produkt mit dem größeren reellen Nutzwert.
 
Zuletzt bearbeitet:
Der 3D-Trend ist so schnell vorüber wie er entstanden ist

Mit Sicherheit nicht, das Kino lebt auf, es werden zig Millionen investiert und das ganz bestimmt nicht nur für einen kleinen Hype. Auch die PC Plattform wird davon nachhaltig profitieren. Die heutigen Systeme sind nicht mit der Tutti Frutti Zeit vergleichbar. Natürlich war das damals grotten schlecht.

Ich hab hier unter anderem auch noch einen Acer 23.6" 120Hz stehen, ich hatte drei Tage das NV kit. Leider musste ich feststellen das meine Spiele noch nicht ausreichend optimiert waren/sind. Von daher ging das Kit zurück, aber die klare Erkenntnis bleibt : Es ist eine neue tolle atemberaubende Ära die uns da ansteht. Im neuen Jahr sind die Kinderkrankheiten dann beseitigt und ich kauf mir wieder ein Kit, vielleicht sogar von logitech, billiger ! Vielleicht sind die auch so gnädig und machen ATI's job mit, und kredenzen es den roten Jüngern :)

Eher würde ich lieber 3 Monitoren nebeneinander stellen, so wie bei ATIs-Eyefinity, was deutlich mehr bringen würde und auch ohne extra Brille funktioniert.

Ist wirklich ne geile Technik, werd ich dann vielleicht auch nochmal mit NV und SLI in Angriff nehmen ! Bei so viel Pixeln sollten es ja eh besser zwei Graka's sein, schön das es sowas auch in funktionsfähig gibt ! Um aus Erfahrungen anderer diese Erkenntnis zu gewinnen, darf man natürlich nicht nur in einem ATI dominierten Forum unterwegs sein (was jetzt nicht abwertend gemeint ist, es geht doch nichts über ne gesunde Kontroverse).

Wobei man bei dieser Technik auch sagen muß, wenn einen ne leichte Brille stört dann tun es wohl auch Balken mittem im Bild !

Die Quartalszahlen spreche da eine deutliche Sprach

Die Quartalszahlen sprechen für uns keine klare Sprache, sie sprechen wahrscheinlich nicht mal für alle Manger bei NV eine klare Sprache. Was da im einzelnen nun in die letzten Quartalen mit reingekommen ist, ist für uns bestimmt nicht einmal zu erahnen, selbst wenn wir über verschiedene vermutungen im 3D Center darüber lesen !

Wer sich davon beeinflussen lässt und dadurch unverhältnismäßige Hardwareberge anhäuft ist eben selber Schuld.

Ich habe noch nie einen überflüssigen Hardwareberg gesehen, ist das möglich, nicht wenn er grün ist :)

Wir können im Moment Elektronikschrott zu Geld machen, solange es weiterhin Menschen gibt die behaupten man könne ne 9600er zum PhysX'en benutzen !
 
Zuletzt bearbeitet:
Celinna schrieb:
Wer wegen Stromkosten jammert sollte erstmal seinen Anbieter wechseln !

Wir waren früher(bis letztes Jahr) auch bei einem lokalen Anbieter da haben wir für ca 4500 kwh im Jahr 1050€ gezahlt.
Nach Wechsel zahlen wirs fürs gleiche nurnoch 710€.

Nur wenn man zu Faul ist sich mal 5mins dafür Zeit zu nehmen selbst Schuld.

Ja, tu was für die Umwelt. Nimm billigen Strom aus Auslands Kernkraftwerken und freu dich, weniger zu bezahlen, oder welchen Anbieter hast du? Man kann auch einfach mal alles ausblenden und sich freuen.

Zwirbelkatz schrieb:
Es gibt auch "Sportwagen" mit rund 250 KG Gewicht und einem 120 bis 150 PS starkem Motorradmotor. Schon mal was von Leistungsgewicht gehört? Energieeffizienz? Nein? Schade ;)

Ja, ich fahre eine Toyota Celica S T23 mit 143PS und verbrauche 6,9l super auf 100km bei ausgewogen Landstraße und Autobahn bei moderater aber nicht lahmarschiger Fahrweise. Der Wagen ist von 1999. Wo ist der Vorsprung durch Technik im Jahre 2010?
Die scharfen Motorrad-Maschinen sind auch nicht gerade für wenig Verbrauch bekannt.

Ich bin weder für, noch gegen Fermi.
Jedoch kennt niemand eine feste Größe, woran man hohen oder niedrigen Verbauch misst. Wenn jetzt Matrox kommt und zufällig irgendwas bombastisches auf den Markt wirft, was nochmal 20% weniger verbaucht, sind ATIs auch nicht mehr sparsam, oder? Dann macht die Matrox-Lobby Witze über die Idioten mit ihren Stromschleudern.

Haha, meine ATI Radeon 9800 Pro kommt noch mit nem Molex-Stecker aus und mein alter Rechner mit einem 300W-Netzteil. Das war vor 7 Jahren High-End und verbraucht weitaus weniger als heute. Warum meckert niemand, dass alle aktuellen Grafikkarten "viel zu viel" verbrauchen?

Aber du und alle anderen scheißen einfach drauf. So sieht es aus. Stattdessen gibt es hier eine Lobby nach der anderen und jedes noch so sinnlose und triviale Argument bietet Nährboden für das aufgequollene Ego der jeweiligen Fraktion.

Tun ein paar Radeon-Besitzer so, als hätten sie Green-IT im Rechner, weil andere Karten mehr verbrauchen. Wie lächerlich ist eigentlich? In Deutschland ist auch alles toll, solange es woanders schlechter ist. Grandiose Einstellung einiger User.

Zotac kann auch nicht hexen und sie bieten eine tolle GTX480 an. Worüber muss man sich das Maul zerreißen?
 
Zuletzt bearbeitet:
Ich frage mich ob auf den ATI Grafikkarten Verpackungen eigentlich der grüne Umwelt Engel drauf ist, oder ob selbst denen die schose zu peinlich ist ?

Mal zum Thema : Die Zotac AMP ist so gut das ich sie mir wohl zu meiner anderen GTX 480 im Referenz-design in den Rechner setze. Je nachdem wie meine CPU reagiert (temperaturmäßig), könnte ich mir vorstellen die im ref-design auch noch umzubauen auf den Arctic Accelero GTX extreme (wohl erst nach der Garantie-Zeit von einem Jahr). Dann gibt's 2x 480 bei 800mhz ohne Voltmod. Ist in gewisser Weise ja auch sparsam.
 
Dann stimmt aber die Gehäusebelüftung nicht.... ich hab mit der Wärme keine Probleme. PCB ist gerne al wärmer als man so denk, aber der Chip oder andere Komponenten.. alles super!
 
@Pumpi

da hast du dein ATI-Fanboiforum. Gibt ja wohl doch einige NVIDIA-Nutzer hier. ;)
Wenn du noch mehr Objektivität suchst, empfehle ich dir folgende Seite: www.nvidia.com

3D-Brillen gabs im übrigen tatsächlich schon mit der Elsa Erazor III.
Niemanden hats damals interessiert, obwohl die Brillen günstig waren.
 
Zuletzt bearbeitet:
sidestream schrieb:
Haha, meine ATI Radeon 9800 Pro kommt noch mit nem Molex-Stecker aus und mein alter Rechner mit einem 300W-Netzteil. Das war vor 7 Jahren High-End und verbraucht weitaus weniger als heute. Warum meckert niemand, dass alle aktuellen Grafikkarten "viel zu viel" verbrauchen?

So weit ich weiß passiert genau das seit dem Launch der GTX260 und vor allem der HD4000er Serie (HD4770 ausgenommen). Selbst in den Fazits der ComputerBase Redaktion sind diese Worte zu finden. Unnötig zu erwähnen, dass die Grafikpracht in Spielen und die Leistungsanforderung an Grafikkarten in den letzten 7 Jahren extrem gestiegen ist. Dass ein Netzteil mit 300 Watt heute nicht mehr ausreichend ist für einen Spielerechner, das stimmt gelinde gesagt nicht. :) Man sollte/könnte sich die "richtige" sparsame Hardware heraussuchen und dann geht es ohne Probleme.

Anstatt 2 Schritte weiter zu denken kommt dann der Rundumchlag in der Form "ihr seid ohnehin Ökos, was wollt ihr denn hier"? Aber es gibt rationale Gründe warum ein niedrigerer Stromverbrauch besser ist:

1. Weniger Stromkosten übers Jahr
2. Weniger Lärm durch notwendige, schneller drehende Gehäuse und Netzteillüfter
3. Kein horrend teures Highendnetzteil ist notwendig
4. Die Bude heizt sich nicht so arg auf
5 Man kann weniger heiße Hardware mit einfacheren Mitteln leiser unter Last halten und so Filme oder Spiele tendenziell ungestörter genießen.
6. Immer mehr Rechner halten Einzug in das Wohnzimmer und Ersetzen den Fernseher und die Stereoanlage und sollten tendenziell gut ausschauen und am besten sparsam sein.

Wem das alles egal ist soll doch nur bitte nicht so tun, als ob diese Fakten was mit Umweltschutz zu tun hätten. Fernab davon ist die GTX460 eine einigermaßen vernünftige Karte. Möchte man sie noch sparsamer haben untervoltet man sie, ist es einem egal übertaktet man sie auf das Niveau einer GTX470; mit rund 850 bis 900 MHz GPU Takt.


Es ist insgesamt schade, dass man dann befürchten muss (wie Conehead es gesagt hat), dass sich die Kunden immer mehr zwischen 3 Lagern entscheiden müssen. Entweder ATI/AMD oder Nvidia oder gleich eine Konsole.
Es nervt im Grunde, dass man sich solche halbgaren Argumente um die Ohren schlagen muss, weil manche Software nur auf manchen Produkten zufriedenstellend läuft.

Metro hat eine lächerlich kurze Spielzeit, es muss jeder selbst wissen, ob er dafür eine 450 Euro teure GTX480 kaufen möchte. Ob man es dann flüssig spielen kann ist eine weitere Frage.



Vielleicht sind die auch so gnädig und machen ATI's job mit, und kredenzen es den roten Jüngern
Ich denke nicht, dass es vorrangig grüne oder rote Jünger gibt. Ich habe 10 Jahre lang Nvidia Karten gehabt aber ich mache deren derzeitige Politik nicht mehr mit. Und so wie mir geht es vielen. Zum einen ist Geiz für viele Geil und sie freuen sie eine "Highend" HD4870 für um die 100 Euro zu erhalten, für andere aber ist es schlichtweg zweifelhaft ob man sich den dritten oder vierten G80 Abklatsch ins Gehäuse stecken möchte.
Die GTX260 und GTX275 Reihe ist nicht umsonst EOL und das ist ein Fakt und hat nichts mit einer irgendwie gearteten Vorliebe für eine Marke zu tun.

Wenn Nvidia in einem Jahr eine Grafikkarte im 28nm Prozess heraus bringt, die sparsamer ist als eine AMD Karte, dann bin ich der Letzte der sie nicht kaufen würde.

Dann gibt's 2x 480 bei 800mhz ohne Voltmod. Ist in gewisser Weise ja auch sparsam.
Die Rechnung hätte ich gerne erklärt. :)
 
Zuletzt bearbeitet:
Hm.

Ja, nur irgendwie ist es doch nicht überraschend, oder? Mir kommt die Grafikkarten-Industrie vor wie der amerikanische Automarkt noch vor nicht allzu langer Zeit.

Motto: Höher, schneller und weiter.

Wenn irgendwann Energie knapper und teurer wird, wird es die gleiche Entwicklung auch im PC-Bereich geben, da bin ich mir sicher. Andere Elektrogeräte wie Bildschirme machen es vor mit Konkurenzkämpfen bei Verbrauchswerten. Kühlschränke sind da noch krasser mit ihren Einstufungen, aber bei dem geliebten PC schaut einfach niemand auf den Gesamtverbrauch... oder nur die wenigsten.

Ich kann mich da nicht ausschließen. Ich bin bereit den Kompromiss von Leistung und mehr Verbrauch einzugehen. Meine Ideologie endet dahingehend, dass unsere derzeitige Energiegewinnung eine Sackgasse ist. Bis zum Erwachen spiele ich das Spiel mit, solange ich es bezahlen kann und gut.
Je eher wir von Kern- und Kohlekraft wegkommen, desto besser. Je mehr gespart wird, umso länger werden wir hingehalten und desto länger müssen wir die immer teurer werdenen Kosten für fossile Energien bezahlen (Zum Beispiel Las Vegas hat ein Kohlekraftwerk... der Bau von Solarenergie in der Region liegt doch nahe. Wird wohl auch die Zukunft sein.). Ist ne zugegebenerweise merkwürdige Denkensweise, aber so lange die Menschen lieber billigen Strom aus irgendwelchen Kernkraftwerken aus Frankreich oder dem Osten kaufen, kommen wir nicht wirklich weiter mit dem Thema hier in Deutschland.

Während sich bei den CPUs über die Jahre nicht viel getan hat, wenn ich an den Thunderbird mit 1,4GHz denke, haben die Grafiklösungen einen gewaltigen Sprung hingelegt.

Dual-Slot ist mittlerweile Standard. Triple-Slot vielleicht im Kommen. Vielleicht ist das der Punkt, wo der ATX-Standard abgelöst werden sollte. Sowas wie ein Einbau von zwei Platinen in einem Gehäuse. Also dass die Grafikkarte ähnlich wie das Mainboard eingebaut wird und entsprechende Kühllösungen möglich sind. Verbindung über ein Brücke, ein einheitlicher Standard und fertig ist das Konzept. Allerdings in meinen Überlegungen noch nicht SLI/CF-tauglich.^^ Sowas in der Art wird wohl unvermeidlich, wenn die Chips nicht kühler werden in absehbarer Zeit.

Wenn die EVGA GTX480 mit werksseitigem Wasserkühler (Garantie und so) nicht so teuer wäre, wären solche Grafikkarten eine wirkliche Otion.

Und einen aktuellen High-End-Zocker-Rechner - also wirklich das Beste verbaut im Vergleich zu 7 Jahren zuvor - kann man sicher nicht mit einem 350W-Netzteil befeuern. Nehen wir eine i7 Plattform mit Quad-SLI oder CF, werden wohl 1000W nötig. Die Leistung einer Radeon 9800XT mit 256MB hat damals ausgereicht um sämtliche Toptitel zu zocken auch noch Jahre später. Die Entwicklung ging zwar weiter heute, aber in dem Bereich nur mit mehr Saft.^^

Der erste Schritt wäre, bei gleich bleibenden Leistungen den Verbrauch zu senken. (Oder mehr Leistung zu gleichbleibendem Verbrauch)
Der zweite Schritt wäre, trotz höherer Leistung den Verbrauch zu senken.
 
Zuletzt bearbeitet:
Ich kann mich da nicht ausschließen. Ich bin bereit den Kompromiss von Leistung und mehr Verbrauch einzugehen. Meine Ideologie endet dahingehend, dass unsere derzeitige Energiegewinnung eine Sackgasse ist. Bis zum Erwachen spiele ich das Spiel mit, solange ich es bezahlen kann und gut.

Dual-Slot ist mittlerweile Standard. Triple-Slot vielleicht im Kommen. Vielleicht ist das der Punkt, wo der ATX-Standard abgelöst werden sollte. Sowas wie ein Einbau von zwei Platinen in einem Gehäuse. Also dass die Grafikkarte ähnlich wie das Mainboard eingebaut wird und entsprechende Kühllösungen möglich sind. Verbindung über ein Brücke, ein einheitlicher Standard und fertig ist das Konzept. Allerdings in meinen Überlegungen noch nicht SLI/CF-tauglich.^^ Sowas in der Art wird wohl unvermeidlich, wenn die Chips nicht kühler werden in absehbarer Zeit.


Erst mal danke für die sinnvolle und sachliche Stellungnahme. Sowas ist leider zu selten!

Zu Quote 1:
Kann man so sehen, irgendwie ist diese Einstellung auf ihre Art auch "vernünftig". Es wird nichts geändert werden, bis dann endlich der Crash da ist und Kohle und Öl verbraucht sind. Jedenfalls dann nicht, wenn nicht eine mindestens gleichwertig billige (günstige) Lösung zur Verfügung steht. Selbst dann würde es abermillarden kosten, die bestehende Infrastruktur zu verändern.

Zu Quote 2:
Ein völlig neuer Formfaktor wäre in sofern intelligent, dass er bspw. die Grafikkarte in den Zenit der Kühlung rücken sollte. Das jedoch wird an der Tatsache scheitern, dass der weit überwiegende Großteil der Benutzer keine derart aufgebaute Highendkarte möchte. Ansonsten sind µATX und mini ITX ernstzunehmende, neue Formfaktoren, die jedoch die Kühlung der Grafikkarte natürlich nicht neu erfunden haben.

Der erste Schritt wäre, bei gleich bleibenden Leistungen den Verbrauch zu senken. (Oder mehr Leistung zu gleichbleibendem Verbrauch)
Der zweite Schritt wäre, trotz höherer Leistung den Verbrauch zu senken.

Ich denke, dass AMD das verstanden hat. Man braucht nur in Richtung "Fusion" zu schauen.
Nvidia wird das in Zukunft ebenfalls verfolgen, denn mit ihrer derzeitigen Strategie können sie nicht weiter fahren. Es wird noch das Fertigungsverfahren im 28nm Prozess geben, doch dann kommt vermutlich lange nichts mehr und man wird sich umorientieren. Da bin ich sicher.
 
Zuletzt bearbeitet: (Typo)
Nuja es gibt schon Hardcore NV oder ATI Verfechter die sofort explodieren, wenn etwas gegen "ihren" Lieblingschiphersteller gesagt wird. Ich kenne da genug und zähle mich auch selbst manchmal dazu ^^'.

Deswegen bedauere ich das sehr, dass NV in den letzten 2 Jahren eine derart schlechte Arbeit gemacht hat. Da merkt man deutlich wie arg unter Druck NV steht!

Mal Hand aufs Herz, wenn das so weiter geht dann stehen die bald dort wo ATI zu Zeiten der HD3000er und deren Vorgänger stand. In Anbetracht dieser Tatsache wird es wohl auch bald kein "The Way It's Meant To Be Played" mehr geben, weil NV sich das nicht mehr leisten können wird.

Der exorbitante Stromverbrauch der GTX400er Reihe (460 ausgenommen) ist ein Beispiel dafür in welche Richtung eine Weiterentwicklung natürlich nicht gehen sollte. Aber dazu haben ja meine Vorredner schon genug richtige Worte verloren.

Allerdings ging es ja hier in dem Thread ja eigentlich um die GT480amp! von Zotac und diese Karte ist wirklich zu empfehlen, WENN man unbedingt (so wie ich) wieder auf NV setzen und eine Highend-Karte sein Eigenen nennen möchte. Ohne Zotac wäre wahrscheinlich eine Toxic von Sapphire in meinem Rechenknecht gelandet.

lg
 
Die Geschichte wiederholt sich.
Die guten alten Geforce Zeiten bis zur Geforce 4 und Radeon 8xxx.
Da hatte Nvidia die Nase vorn. Ich kann mich noch an das Zitat meines Nachbars erinnern
beim Kauf einer Radeon 7xxx irgendwas. "Ne Ati... wenn das mal gut geht."

Später lief die 9800XT mit 256MB allen anderen den Rang ab. Nvidia war mit der FX5700
nicht wirklich erfolgreich. Die Kühlung erinnert zwar schon an die heutigen
Grafikkarten, aber die 9800 Pro kam noch mit einem läppischen Mini-Kühler von Titan aus.
Den hab ich damals dann irgendwann ersetzt und heute sitzt darauf ein universal
Chipsatzkühler von Thermalright.^^

Dann hat die 8800er Serie irgendwann mal eingeschlagen... Ich habe mich auch
zwischendurch lange nicht mehr mit dem Thema beschäftigt.

Nunja... die Geschichte wiederholt sich. Vielleicht sind die Fermis wie damals das
Transistormonster ne Generation, die man auslassen kann.^^ Dennoch sind sie
leistungsstark und nicht zuletzt das fasziniert. Nvidia mochte ich ne zeitlang mehr
aufgrund der nView-Fuktionen. Hab sie aber später auch nicht wirklich vermisst während
meiner Zeit mit ATI.

Ich habe zur Zeit, wo sich meine GTX8800 verabschiedete, auch mit dem Gedanken gespielt,
ne Radeon zu kaufen. Warum auch nicht? Ich habe einfach eine Karte innerhalb eines
Preisspektrums gesucht und da war es mir egal, ob NV oder ATI. Das beste Angebot wärs
gewesen, hätte ich meine Alte nicht backen können.

NV würde ich vorziehen weil ich ein SLI-Board habe. Ich habe es genau wie damals noch
nie für SLI benutzt, aber man weiß ja nie.^^

So, wie ich das sehe, reicht mein übertakteter C2D (läuft aber nicht permanent so hoch. Im Alltag gammelt der so bei 3GHz) und seine Platform noch locker ein Jahr, wenn nicht länger bei entsprechender Grafikpower. Der Umstieg ist momentan zu teuer und der Zugewinn dafür zu gering und die Unterstützung für mehr als 2 Kerne als Spieler noch nicht so essentiell. Evtl. kann ich irgendwann mal nen günstigen Quad nachrüsten. Sehe da aber keinen Bedarf momentan.

Hersteller wie Zotac wollen natürlich die Gegebenheiten nutzen und Karten wie die des Reviews stellen mit Sicherheit die höchste Form der GTX 480 dar.

Ich sehe eine GTX480, deren Schwächen man in manchen Punkten Herr geworden ist.
 
Zuletzt bearbeitet:
Das Hauptkriterium für NV ist meiner Ansicht nach der Treiber. Ich hab bisher noch keine großen Probleme mit irgendwelchen Spielen gehabt, die neu auf den Markt gekommen sind (ja, auch hier spielt "The Way It's Meant To Be Played" eine entscheidende Rolle). Ich hab gar nicht die Lust dazu, jedes mal wenn ein Spiel neu auf den Markt kommt, auf einen neuen Treiber warten zu müssen, damit ich ein ordentliches Spielerlebnis erreiche. Auch sind solche Tools wie der nhancer ein absolutes Muss für mich, um entsprechendes AA in den Spielen zuschalten zu können und Kantenflimmern und solche Sachen zu vermeiden. Bei älteren Games macht auch Ambient Occlusion eine Menge her.

Die 480 hat gerade für solche Spielereien genügend Reserven.

Kann natürlich auch sein dass ATI mittlerweile an dieser Stelle nach gebessert hat, aber das wissen die Radeon-User genauer.

P.S.: zu meinem Leidwesen funktioniert der nHancer nicht mit der aktuellen GeForce-Treiberversion -.-
 
Zuletzt bearbeitet: (Korrektur)
The Way it´s ment to be played ist eien Werbung und hat mit der Funktionalität eher weniger zu tun.
Davon abgesehen gibt es in den letzten 2 jahren insgesamt auch nur etwa 4 Spiele welche auf ATI anfangs mit Bugs liefen.
 
Zurück
Oben