Test Test: ATi Radeon HD 4890 vs. Nvidia GeForce GTX 275

Nö hammse nicht, hättest dir im test @ CB alles angeguckt, dann hättest gesehen dass ne HD4890 in gleichen Taktraten wie ne HD4870 gleich schnell läuft.
Treiberoptimieren haben sie vor allem für die HD4870 1GB gemacht die jetzt schneller ist als eine GTX260 mit 216 shadern. Am Anfang lag sie teilweise noch 5 bis 8% dahinter.
Bei ATI ist es grundsätzlich eher (besser) wie bei Nvidia was Treiber angeht, jeden Monat nen neuen und für die alten Karten jeden 3Monat nen neuen Treiber.
Mich stört nur der Name der GTX275 im Verhältnis zur GTX280, da die mit dem kleineren Namen schneller ist. Wer will jetzt noch ne GTX285 kaufen?
Bei ATI muss man nicht oft auf neue Treiber warten, totaler Blödsinn. Sogut wie alle Spiele sind letztes jahr kurz nach dem release einwandfrei auf ATI Karten gelaufen.
Kann auch flamen und sagen, scheiß Nvidia Treiber Grid läuft unspielbar darauf...(laut CB Test)... da muss man immer auf neue Treiber warten.... o.O
 
Zuletzt bearbeitet:
Das die GTX 275 doch so gut abschneidet finde ich schön, aber ATI wird sicherlich per Treiber wieder nachlegen.
 
Die Lautstärke der HD4890 mag ja unter Last lauter sein, jedoch sind die Temps der GTX275, sprich 88 grad ziemlich hoch.
Vorher war die HD4870 leise und heiß.
Dafür ist jetzt die HD4890 etwas lauter und kühl.
Genauso wie bei der HD4870 die GTX275 eben jetzt leiser und heiß ist.
Man trifft sich also in der Mitte... wenn man die Temps gegen die Lautstärke des Lüfters aufwiegt.
 
leider mal wieder zu NV lastig.... die NV und die ATI schenken sich unter Last nichts... quasi Gleichstand... nur wieso säuft die NV mehr ? da kann man nicht von Ausgleich sprechen....

vermutlich bläst NV, CB ein wenig Kohle in den Hintern....:o
 
Geile Namensgebung nVidia![ironie aus]
Schade dass die 4890 doch net an die 285er rankommt ;/...

[VORSICHT NOOBFRAGE :D]: Achja ehm warum stehen bei der uebertaktbarkeit bei nvidia 3 werte und warum bei ati nur 2?
 
Sieht so aus als ob Volker doch recht hatte, es hat sich überhaupt gar nix getan.:o Leistung war vorher schon klar wenn man eine 4870 auf 4890 Niveau übertaktet hat. Das der Idleverbrauch gleich(CB) bzw. sogar leicht gestiegen ist(PCGH), dafür hat einfach meine Vorstellungskraft nicht gereicht. Bei dem chinesischen Test ist der Idleverbrauch auch gestiegen. Unfassbar, ATI ist also der Meinung das im High End Segment die Leistungsaufnahme im Idle egal ist. (vielleicht sollten sie mal bei BMW vorbeischauen Leistung + Spritsparen geht sogar bei Sportwagen)


Die GTX 275(185.63) liegt nur leicht vor der GTX 280(180.48) wegen den unterschiedlichen Treibern, die Namensgebung stimmt also.

4890CF stellt auch keine neuen Geschwindigkeitsrekorde auf, hätte man GTX 275 SLI(185.63) getestet hätte sich das Blatt wieder gewendet. Und nein eine GTX 295(181.22) ist nicht das gleiche wie GTX 275 SLI, 2 einzelne Karten(mit brand neuen Treiber 185.63) können durchaus viel besser skalieren als eine Doppelkarte wie man an 4870 X2(8.11) v. 4890CF(8.592.1) sieht.

Bin ja gespannt ob ATI Powerplay bei der HD 5800 hinbekommt oder wieder auf so billig wie möglich verkaufen setzt...

https://www.computerbase.de/2008-11/konsolen-grosse-unterschiede-beim-stromverbrauch/
Weil vorher einer meinte Konsolen verbrauchen ja so wenig im Idle, Xbox 360(162-117Watt), PS3(181-153) jeder aktuelle Rechner schlägt die exorbitanten Werte einer aktuellen Konsole. Einige ATI Karten kämpfen mit der XBox 360(117Watt) aber sonst außer bei low end Konsolen ala Wii keine Chance.
Hier mal ein paar Werte zum Vergleich: https://www.computerbase.de/forum/threads/sammelthread-energieverbrauch-eures-systems.443181/

Der neue Geforce Treiber 185.63 ist echt gut gelungen, alles was 9.3 herauskämpfte ist nun wieder weg. :lol:
http://www.pcgameshardware.de/aid,6...Grafikkartentreiber-im-Test/Grafikkarte/Test/


MfG Kasmo
 
Zuletzt bearbeitet:
@SoEvilicious

Bei nVidia kannst du folgendes Takten: Chiptakt, Shadertakt und Speicher
Bei ATI kannst du folgendes Takten: Chip und Speichertakt

Bei nVidia läuft der Shadertakt generell separat während ATI diesen mit dem Chiptakt koppelt, deshalb hat ATI 2 Werte und nVidia 3 Werte.

@hardhaus
So ein Stuß liest man leider viel zu oft. Vergleiche mal mit anderen Seiten, die Ergebnisse sind Prozentual übertragbar.
 
Wäre ja auch nicht gerade sinnvoll @der eine der toast mag
naja meiner meinung nach sollte man wenn man 2 GraKas gegen einander antretten lässt einen Sieger auch nennen...
Da sollte man den Faktor abwiegen dass so ziemlcih alle mit AA und AF zocken (stören tut ja keinen ^^) und das da die ATI schneller ist und von daher den Sieg hollt..
evt. noch andere wichtige Faktoren die für die allgemeinheit wichtig ist...
Lautstärke ist kein krterium da ich noch nie eine ATI 48.. gesehen habe die auf 100 % aufdreht und da richtig laut wird... sowas ist einfach unrealistsisch und von dacher nicht von Relevanz
mfg

aja @ grong

bei dir scheint ja die werbung richtig zu funktionieren :rolleyes:
 
Zuletzt bearbeitet:
der nachteil "zu laut" bezieht sich ja nur aufs referenzdesign, das werden die boardpartner ja zu ändern wissen^^ wird ja niemand gezwungen, den referenzlüfter zu kaufen^^
warum ati jetzt aber ihr gutes image bei der 3er reihe mit dem niedrigen verbrauch wieder so übelst zertrümmern musste... schade schade^^ hoffentlich wird die 5er wieder genügsamer^^
 
Mal wieder ein sehr netter Test. Allerdings haette ich doch gerne mal einen direkten Verglecih zwischen CUDA und Steam gesehen. Tip an die Redaktion: Holt euch mal Power Director 7 von Cyberlink. Das unterstuezt sowohl CUDA als auch Steam beim Videoediting. Waere doch mal interessant, die Unterschiede innerhalb eines Programs zu sehen.
 
Raucherdackel schrieb:
Bezüglich Spulenfiepen:



Quelle: PCGH


Na toll...
ATI - zuviel Strom
NVIDIA - 2D zu laut, fiept

Dann also doch bei der 8800GTS bleiben.... unglaublich mit welchen Kinderkrankheiten man sich z.B. in der 9. Generation der GeForce-Karten auseinandersetzen muss....:freak:

Zwirbelkatz schrieb:
Das ist ein Zitat aus dem Test aus der Rubrik Lautstärke.
Ich muss doch bitten da ein wenig zu differenzieren: Meine GTX260² ist mit einem angepassten Lüfterprofil (Minimum 18%) und minimiertem Idle-Takt (150/300/80) aus meinem extrem leisen System nicht herauszuhören. Man kann durchaus vieles per "RivaTuner" Software regeln, ein Nebensatz wäre an dieser Stelle angebracht und würde gleichzeitig viele Werte relativieren und den Lesern hier einen Hinweis geben, dass es Lösungswege gibt.


@Hd4890
Die Leistung gefällt, ein noch höherer Stromverbrauch ist aber kein berauschendes Ergebnis. An der Taktschraube drehen können die Benutzer auch selbst. Diese Kritik geht natürlich ebenfalls in Richtung GTX260,275 und 280 sowie 285.


Ich finde es gut, dass explizit nicht darauf hingewiesen wird, dass es Tools zum Steuern der Lüftersteuerung / Taktrate gibt.
1. Habe ich als berufstätiger Endanwender keine Lust meine teuer erkaufte Hardware in meiner Freizeit händisch zu optimieren
2. Wer sagt denn, dass der potentielle Käufer ein Windows OS betreibt? Gibt es unter Linux entsprechende Tools? Hier wird es nicht so einfach werden...

Also - bitte weiterhin die Hardware so testen, wie sie auf den Markt geworfen wird.
 
Zuletzt bearbeitet:
Ich verstehe auch nicht, warum es kein Hersteller schafft, eine wirklich gute Karte auf den Markt zu bringen.
Dazu muss man halt auch mehr berücksichtigen, als nur die Leistung...
Der eine bietet gleich keinen Stromsparmodus an, der andere auch nur einen halbherzigen mit Einschränkungen...
Im Punkt Lautstärke machen es beide schlecht...
Irgendwie scheint es zu den beiden Herstellern noch nicht so wirklich durchgedrungen zu sein, dass sich die Leistung eines Produkts nicht nur aus der Rechenleistung besteht...


@ Tobias123

Deine zwei Punkte würde ich auf der Stelle unterschreiben!
 
computerbase schrieb:
Der Radiallüfter misst einen Durchmesser von 70 cm und ist identisch mit dem Exemplar auf der GeForce GTX 285.

geil. und das passt noch ins gehäuse? ::freak:

traurig aber wahr, selbst mit einer ein dreivierteljahr alten 4870 gibt es momentan sowas von KEINEN grund irgend was neues zu kaufen...
 
Die Laien kann ich ja verstehen, wenn sie meckern, da sie an der Karte nichts machen können. Aber alle Schrauberfreaks hier können mit maulen aufhören. Es gibt doch fast nichts schöneres, als einen alternatives Kühlsystem zu verbauen. ;)
 
Ich frag mich bei den Tests wenn es um "Highend" Karten geht immer, wieso man bei den geringen Auflösungen überhaupt ohne Qualitätseinstellungen testet...

Um Nvidia Punkte für das gesamt Ergebnis zu schenken?

Fakt ist doch, das kaum jemand der sich eine Highend Karte holt und noch mit 1280x1024 Spielt AA und AF nicht auf Max. stellt. Auch bei 1600x bei den Karten gibt es eigentlich keinen Titel den man mit max AA und AF nicht flüssig spielen könnte.

Ich finde max. AA und AF schon seit einiger zeit eine Standart Einstellung und fahr damit bei allen spielen die ich spiele gut...


Mann sollte bei den Auflösungen 1280x und 1600x nur noch die Qualitätseinstellung in die Endbewertung einfließen lassen, da nur das real ist.
 
Ich find die Karten nicht schlecht, was ihr hier urteilt ist viel zu übertrieben.
Wird schon Gründe haben warum die Karten nicht weniger Verbrauchen.
Auch noch nicht geklärt ist warum die ATI Karte in anderen Tests, wie in dem vom Gamestar auf einmal im Idle 30% weniger verbraucht.??
@ Seppuku dann bewerbe dich doch bei ATI oder Nvidia und verbessers dann, ich finds gut so wie es ist.
 
Die GTX 275 macht mich richtig an! Aber leider komm ich mit meiner 9800GTX noch super zurecht.
 
Zwirbelkatz schrieb:
Meine GTX260² ist mit einem angepassten Lüfterprofil (Minimum 18%) und minimiertem Idle-Takt (150/300/80) aus meinem extrem leisen System nicht herauszuhören. Man kann durchaus vieles per "RivaTuner" Software regeln, ein Nebensatz wäre an dieser Stelle angebracht und würde gleichzeitig viele Werte relativieren und den Lesern hier einen Hinweis geben, dass es Lösungswege gibt.

Wenn die GTX 275 den selben Lüfter wie die GTX 285 verwendet, geht das leider nicht, da lässt sich die Lüfterdrehzahl bei vielen nicht unter 40% regeln. Und 40% empfinde ich als relativ störend.

Grundsätzlich bin ich auch dafür, die Karten so, wie sie ausgeliefert werden, zu testen. Klar kann man selbst noch Hand anlegen, aber es gibt einem Keiner die Garantie, dass das auch funktioniert.
Ich hatte auch schon eine HD4870 die sich nicht unter 400/450 MHz und über 780/925 takten ließ, ohne dass Bildfehler auftraten.

Ich selbst hatte in den letzten paar Jahren auch keine Grafikkarte, die nicht auf die ein oder andere Weise modifiziert war. Aber wenn man die Zeit dafür aufbringt, hat man denke ich auch die Zeit, sich über einen solchen Test hinaus mit dem Produkt zu beschäftigen.
Daher könnte man solche Modifikationen vielleicht einmal in einem separatem Artikel aufgreifen. Der Test sollte sich aber auf die eigentlichen Produkte, so wie man sie im Laden zu kaufen bekommt, konzentrieren.

Darum an CB: Guter Test, weiter so!
 
TalBar schrieb:

Ganz meiner Meinung. Doch irgendwie heißt es die 4890 soll bei 209 sich ansiedeln. Moment ist das ncoh nicht der Fall :rolleyes: kost noch 234 oda so.
Trotzdem Danke für den Test
 
Zurück
Oben