Bericht Bericht: GeForce GTX 470 und GTX 480

PediM² schrieb:
Wenn ich das Thema schon höre. Ein Computer mit so einer Grafikkarte (immerhin 3 Mrd. Transitoren) wollen eben versorgt werden.

Jo, siehe AMD ;)

Ohne AMD würde Nvidia wahrscheinlich richtig gut aussehen, aber da AMD nunmal mit der HD5XXX gute Arbeit geleistet hat, muss die Messlatte auch woanders angesetzt werden!
 
@holdrio: Was gibts da nicht zu verstehen? Durch die bessere Gehäusebelüftung beim Lian Li muss die Grafikkarte eben nicht z.B. mit 60% Lüftergeschwindigkeit drehen um die GPU auf ca. 90°C zu halten, sondern es genügen schon z.B. 50% Lüftergeschwindigkeit (die Werte sind jetzt aus der Luft gegriffen). Dadurch bleibt die Temperatur unter Last mehr oder weniger gleich, aber die Lautstärke sinkt.
 
Gabs nicht ein neues Bios bei den Karten, das schon ab 85° alles daran setzt die nicht heisser werden zu lassen?
Sonst muss es wohl wirklich so sein, die Lüfterdrehzahlen in % oder RPM angeben im Test wäre natürlich interessant gewesen, gleiche Temps und klar unterschiedliche Lärmwerte sieht so schon komisch aus.
 
miagi schrieb:
nein nicht du sondern ich hab spanung geschrieben bzw. Standartspanung hatte ich geschrieben und du hast nur das t bemaengelt xD das war der witz ^^

ACH SO!! ^^

Ja wie gesagt, ist mir im Prinzip egal mit der Rechtschreibung, aber bei Standart muss ich einfach einschreiten ^^

holdrio schrieb:
Wüsste immer noch gerne (siehe #133), warum (tempgesteuerte....) Karten in dem X-900 trotz praktisch identischer Lasttemps plötzlich so viel leiser sein sollen... ;)

Weil da mehr kühle Luft reingeblasen wird. Gerade weil die Temps identisch sind, wird das ganze dann leiser (wenn die Temps niedriger wären, wärs logischweise wieder lauter)

Klar?

:)

Gab mal auf THG glaub ich ein Video, da hat man das gesehen. 12cm Lüfter auf die Heizplatte der 480 war ein deutlich Unterschied in der Lautstärke (Logisch)
 
Die mit albernen Thermisignaturen oder wer ist da gemeint? :p

KAOZNAKE schrieb:
Weil da mehr kühle Luft reingeblasen wird. Gerade weil die Temps identisch sind, wird das ganze dann leiser (wenn die Temps niedriger wären, wärs logischweise wieder lauter)

Klar?

:)

Ja :)
90° scheinen die beide dann als "Wohlfühltemperatur" zu betrachten, daran muss man sich auch erst mal gewöhnen. ;)
 
dgschrei schrieb:
Was den AF Käse angeht der hier verbreitet wird, möchte ich einfach noch mal auf den Test der HD5870 von Anandtech verweisen, in dem auch das AF untersucht wurde. Ergebnis: die HD5870 ist die einzige Karte, die echte Winkelunabhängigkeit hinkriegt. Von daher ist das nichts weiter als gebetsmühlenartiges Wiederholen des Nvidia Marketings. :rolleyes:

http://www.anandtech.com/show/2841/13

Nur Schade das man diesen perfekten Kreis nicht mehr erhaelt, wenn man die exe des AF-Testers in ATI's_AF_stinks.exe umbenennt. Flimmern und Bugwelle haben sich in 'real life applications' naemlich kein bisschen veraendert.

What you won’t see however is a difference, particularly with our static screenshots. When discussing the matter, AMD noted that the difference in perceived quality between the old algorithm and the new one was practically the same. After looking at matters we find ourselves in agreement with AMD; we were not able to come up with any situations where there was a noticeable difference, beyond the obvious AF quality tests that are designed to identify such changes.

Versuch zwischen den Zeilen lesen zu lernen, dann verstehst Du warum man angeblich keinen Unterschied zu dem alten und dem neuen Algorithmus erkennen koennen soll.

Wie auch, die "wahrgenommene"(hint: ganz schoen merkwuerdige Rhetorik die ATI hier waehlt) Qualitaet eines brilinearen AF kann nie und nimmer genau gleich einem perfekten trilinearen AF sein. That's just not possible. Ausser natuerlich im AF-Tester (mit Treibererkennung wohlgemerkt). Das interessiert aber scheinbar nur Anandtech (naja und Dich).
 
Zuletzt bearbeitet:
Arhey schrieb:
@Feyn
Nunja jeder weiß, dass PCGH sehr pro nvidia ist. Und selbst die meinten beim Test der GTX4x0, dass die Bildqualität von der ATIs den nvidias im nichts nachsteht. Als einzigster Vorteil für nvidia wurde die Performance aufgeführt.
Links darfst du posten.

dgschrei schrieb:
Was den AF Käse angeht der hier verbreitet wird, möchte ich einfach noch mal auf den Test der HD5870 von Anandtech verweisen, in dem auch das AF untersucht wurde. Ergebnis: die HD5870 ist die einzige Karte, die echte Winkelunabhängigkeit hinkriegt. Von daher ist das nichts weiter als gebetsmühlenartiges Wiederholen des Nvidia Marketings. :rolleyes:

http://www.anandtech.com/show/2841/13
schöne af blume, nur sagt das wenig über die bildqualität in "richtigen" games aus. hier mal ein paar quellen:

Auch hier hätte man mehr tun können, denn nVidias "HighQuality"-Modus bietet nach wie vor eine etwas bessere Bildqualität (besonders in Bezug auf die Flimmerneigung von Texturen) und kostet dafür nicht besonders viel an Performance.
http://www.3dcenter.org/artikel/sap...vs-zotac-geforce-gtx-285-295/auswertung-fazit

Allerdings wurden anscheinend nicht alle der mitlaufenden Filter-"Optimierungen" abgeschafft: So neigt auch der neue anisotrope Filter des RV870-Chips weiterhin zum Texturenflimmern, ausgelöst durch eine (irreguläre) Unterfilterung.
http://www.3dcenter.org/artikel/zum-launch-von-radeon-hd-5850-5870

hier gibt es einen ganzen abschnitt zu dem thema inkl crysis screenshots die eindeutig mip map banding zeigen: http://www.pcgameshardware.de/aid,7...11-Techdemos-von-AMD/Grafikkarte/Test/?page=3
das soll laut pcgh auch in anderen spielen auftreten: doom3, gta4 eflc, q3

klar, viele werden es nicht sehen. anti aliasing sieht ja auch nicht jeder... aber mich (und viele andere auch) stört es sehr, wenn man beim laufen diese linien vor sich herschiebt. sowas ist 3d grafik von vor 10 jahren und hat nichts verloren bei einer aktuellen graka.

das geheule von wegen stromverbrauch bei der 470 im vergleich zur 5870 kann ich auch nicht verstehen. das macht bei 2h zocken pro tag nichtmal 10€ im jahr, wobei ich 2h jeden tag schon für recht viel halte.
das einzige problem wäre für mich die lautstärke und solange es keine ordentliche luftkühlung für eine karte wie die 470 gibt, kommt mir sowas auch nicht ins haus. mir würde eine arctic cooling lösung wie bei der gtx280/285 gefallen: unter last nicht über 60° und selbst aus einem leisen pc nicht herauszuhören :)
 
Zuletzt bearbeitet:
ottoman schrieb:
hier gibt es einen ganzen abschnitt zu dem thema inkl crysis screenshots die eindeutig mip map banding zeigen: http://www.pcgameshardware.de/aid,7...11-Techdemos-von-AMD/Grafikkarte/Test/?page=3
das soll laut pcgh auch in anderen spielen auftreten: doom3, gta4 eflc, q3
Selbe Zeitschrift:
http://www.pcgameshardware.de/aid,6...te-im-Benchmark-Test/Grafikkarte/Test/?page=5
Nach ausführlichen Tests und Direktvergleichen kommen wir zu dem Schluss, dass das HD-5000-AF - bis auf einige wenige Ausnahmen wie Crysis - absolut gleichwertig zu dem Treiberstandard von Nvidia ist ("Qualität" inklusive der "Trilinearen Optimierung").
 
Homer schrieb:
Flimmern und Bugwelle haben sich in 'real life applications' naemlich kein bisschen veraendert.

ottoman schrieb:
hier gibt es einen ganzen abschnitt zu dem thema inkl crysis screenshots die eindeutig mip map banding zeigen

Komisch das Computerbase da was anderes sagt.

"Zudem existiert auf der Radeon HD 5800 kein brilinearer Filter mehr (per Treiber), weswegen es, anders als bei der Konkurrenz, keine Bugwellen gibt. "

Wenn die schon nix sehen, seid ihr für mich ganz einfach Korinthenkacker. Nehmts nicht persönlich, das ist als ob man sich beim neuen Ferrari drüber aufregt, das 10-Speichenfelgen viel besser aussehen würden als 9-Speichenfelgen. :freak:

ottoman schrieb:
sowas ist 3d grafik von vor 10 jahren und hat nichts verloren bei einer aktuellen graka.

Offensichtlich bist du noch nicht so lange "dabei".

2000 sah das noch so aus (Deus Ex):

deusex_1.jpg


Dewegen so einen Aufstand zu machen, find ich einfach maßlos übertrieben. Kritik OK, aber im Rahmen muss es bleiben.
 
Complication schrieb:
Selbe Zeitschrift:
http://www.pcgameshardware.de/aid,6...te-im-Benchmark-Test/Grafikkarte/Test/?page=5
Nach ausführlichen Tests und Direktvergleichen kommen wir zu dem Schluss, dass das HD-5000-AF - bis auf einige wenige Ausnahmen wie Crysis - absolut gleichwertig zu dem Treiberstandard von Nvidia ist ("Qualität" inklusive der "Trilinearen Optimierung").
Mag ja richtig sein. Nur kenn ich niemanden der so spielt. Jeder dem Bildqualität wichtig ist, stellt auf HQ und Tri-Optimierung off.
Der Unterschied zwischen beiden Einstellungen ist nicht zu verachten.
 
Irgendwie finde ich die Diskussion hier erheiternd.

Meiner Meinung nach lässt sich weder der Kauf der aktuellen NVidias, noch der der aktuellen Atis mit Vernunft begründen.
Und wer Fleisch isst, hätte selbst bei einem Verbrauch von 10kW die Fresse zu halten :lol:
 
Am geilsten ist ja "MSI's Afterburner" haha :D
Ich versuche mir einen günstigen Wasserkühler auf ebay für meine GTX260 zu ergattern um die Temp + dB zu senken. Die GTX4xx gen. ist mir noch zu teuer ...
 
mit einer gtx 260 im rechner sollte man sich mmn erstmal noch zurueck halten und auf die naechste generation warten. Das ist meine empfehlung, bei mir wars "kritisch" weil ich ein PCIe 1.0 mobo und eine 8800 GTX hatte mit deren leistung ich nicht mehr zufrieden war.

das allg. gesagt bin ich von der generation auch nicht voll zufrieden, im Vorfeld wurde einem von der 40nm generation teilweise 5-fache leistung gegenueber der vorgaenger generation verspochen. So war ich von der leistung der 5870 als sie raus kam auch unzufrieden, ich hatte mir viel mehr erhofft also 50% mehr als die realität hatte ich schon erwatet... echt schade, das Ati den idle verbrauch im vergleich zur 4870 in den griff gekriegt hat wurde wohlwollen zur kenntnis genommen aber mehr auch nicht. Und bevor die benchs von der GTX480 da waren hatte ich auch gehofft das sie 50 bis sogar 100% schneller als die ati ist, waere geil gewesen, leider weit ab der realitaet.
 
Zuletzt bearbeitet:
Complication schrieb:
Nach ausführlichen Tests und Direktvergleichen kommen wir zu dem Schluss, dass das HD-5000-AF - bis auf einige wenige Ausnahmen wie Crysis - absolut gleichwertig zu dem Treiberstandard von Nvidia ist ("Qualität" inklusive der "Trilinearen Optimierung").
PC-Hardware wie - Software entwickelt sich ständig weiter.
 
Complication schrieb:
Selbe Zeitschrift:
http://www.pcgameshardware.de/aid,6...te-im-Benchmark-Test/Grafikkarte/Test/?page=5
Nach ausführlichen Tests und Direktvergleichen kommen wir zu dem Schluss, dass das HD-5000-AF - bis auf einige wenige Ausnahmen wie Crysis - absolut gleichwertig zu dem Treiberstandard von Nvidia ist ("Qualität" inklusive der "Trilinearen Optimierung").
ja, gleichwertig zum nvidia standard. aber was passiert wohl, wenn man das auf "hohe qualität" stellt und "Trilineare Optimierung" auf "aus"?
dazu werden in deinem zitat ja sogar noch ausnahmen genannt, bei denen es "noch schlechter" ist. versteh mich nicht falsch, die af qualität ist gut bei ati und hat sich mit der neuen generation deutlich gesteigert, nur geht es eben noch besser.

KAOZNAKE schrieb:
Komisch das Computerbase da was anderes sagt.

"Zudem existiert auf der Radeon HD 5800 kein brilinearer Filter mehr (per Treiber), weswegen es, anders als bei der Konkurrenz, keine Bugwellen gibt. "
dann schau dir mal meinen link zu pcgh an, da gibt es sogar einen screenshot, der die "bugwellen" eindeutig beweist. auf bildern sieht man es natürlich kaum, aber in bewegung ist es wirklich bescheiden.
ich zocke übrigens seit 15 jahren und weiß sehr wohl wie die grafik damals ausgesehen hat. mir ging es auch um die grafikkarten von vor 10 jahren, bei denen diese "bugwellen" noch viel ausgeprägter waren. jeder weiß was damit gemeint ist, wenn er damals schon gespielt hat und in einem shooter mal auf den boden geschaut hat.
wer es nicht sieht: schön für ihn, muss man sich um sowas keine sorgen machen. es ist aber vorhanden und läßt sich auch beweisen. und für einige ist das thema kaufentscheidend, da bin ich nicht der einzige :)


FrittenFett schrieb:
schon, aber bei grakas im wert von 350€ und einem rechner für über 1000€, den die meisten hier haben, sind solche kosten doch einfach nebensächlich. das thema braucht man nicht künstlich aufblasen mit begriffen wie "thermi" oder "grillforce". man könnte fast denken, mit einer 470/480 statt einer ati muss man mit 3stelligen stromnachzahlungen rechnen. davon ist man aber weit entfernt, wenn man mal drüber nachdenkt.
natürlich braucht die aktuelle nvidia generation zu viel strom, was sich auch in der lautstärke äussert. diese grakas sind aber noch lange keine "mini-kraftwerke" und wer sowas behauptet macht sich einfach unglaubwürdig.
 
Zuletzt bearbeitet:
.xXASUSXx. schrieb:
Soweit kommts noch, ha, ist ja gekommen...
Alsob man ein AUto kaufen würde, dass so viel verbraucht, dass man via Chiptuning die Leistungveringern müsste. einfach :lol:
Interessanter Aspekt !!

Tatsächlich werden ja Autos per Chiptuning "overclockt", vieleicht
gehen die Tuner bald den entgegengesetzten Weg.
Bei den (steigenden) Benzinkosten, wäre
das kein Wunder.

Die neuen Geforce 4xx´er erinnern mich, an Auto-Maßstäben gemessen,
eher an einen US-Schlitten mit V8-Bigblock:D
 
Da die 480 Leistung im Überfluss hat hab ich mich auch mal ans undervolten gemach. Von 0,988 auf 0,900 im Standarttakt bin ich gekommen. Damit läuft alles stabil. Temps sind maximal 81 Grad bei 59 Lüftersteuerung was nur sehr schwer aus meinen anderen Gehäuselüftern und Festplatten rauszuhören ist. Dabei ist der Verbrauch wohl nirdriger als ne 280 GTX oder ähnliches. Ich könnte nicht glücklicher sein mit der Karte.
 
Performer81 schrieb:
Da die 480 Leistung im Überfluss hat hab ich mich auch mal ans undervolten gemach. Von 0,988 auf 0,900 im Standarttakt bin ich gekommen. Damit läuft alles stabil. Temps sind maximal 81 Grad bei 59 Lüftersteuerung was nur sehr schwer aus meinen anderen Gehäuselüftern und Festplatten rauszuhören ist. Dabei ist der Verbrauch wohl nirdriger als ne 280 GTX oder ähnliches. Ich könnte nicht glücklicher sein mit der Karte.

jo du musst aber auch beachten das nicht jede gpu gleich ist und das ne andere gpu von den werten nur traeumen kann. deine standardspannung ist 0,988 V das ist wenig. Bei der gtx 480 die CB getestet hat waren es 1,062 V das schon ein grosser unterschied.
Ich hab mit meiner gtx480 auch viel glueck gehabt, hat mans nicht geht wenig(er) :P
 
Zurück
Oben