News Im Test vor 15 Jahren: AMDs Radeon HD 6800 gegen die GeForce GTX 460

Ja, die Karte war sicher nicht schlecht. Meine letzte AMD-Karte war die 7970 GHz Edition. Mit 3 GB war sie zur der Zeit eine Hammerkarte. Besser als die 680 von Nvidia.
 
  • Gefällt mir
Reaktionen: konkretor
LETNI77 schrieb:
Warum? Die HD 7970 war damals Top! Keine Mittelklasse.
Nvidia musste sogar mit ihrer GTX 680 etwas stuggeln.

Mittefeld zu der Zeit war relativ voll und günstig.
Auch später waren RX 470/570 und RX 480/580 günstig und haben sich auch gut verkauft.
Oh, da habe ich mich wohl mehrdeutig ausgedrückt:
CDLABSRadonP... schrieb:
Also eine Karte, die die Stärken der Mittelklasse nicht gut fortsetzt?
Damit war gemeint, dass Tahiti und Cayman jeweils nicht die Stärken der Karten auf Basis der Mittelklassechips, also Pitcairn und Barts, fortsetzen konnten. Während die beiden Mittelklasse-Kracher waren, war das Highend eher solala. (Tahiti aber klar besser als Cayman)
 
  • Gefällt mir
Reaktionen: LETNI77
Ach ja, damals™

Da war AMD wieder mal schneller. Später kam raus, dass ja die Bildqualität im Vergleich zu Nvidia ja unglaublich viel schlechter sei und das wurde dann in jedem Graka Test inflationär betont.

Aber dass damals Nvidia bei vielen Spielen einfach mal weniger Dinge renderte (zum Beispiel Vegetation, die nicht angezeigt wurde, damit das Spiel schneller lief), wurde breit verschwiegen.

Auch damals schon gab es NDAs und Nvidias Druck auf die Medien.

Bin deswegen wieder aus der Branche ausgestiegen.
Ergänzung ()

LETNI77 schrieb:
Heute wie damals.☝️

Eine HD 6870 war langsamer als die HD 5870 😁
Und Heute wie damals ist der Name unwichtig.

Es zählt im Endeffekt nur eines: Was bekomme ich für wieviel Geld?

Gestern zum Beispiel ein Vergleichsvideo der XBox Ally S und der Switch 2 gesehen. Doppelter Preis, aber nicht doppelte Grafik. Einziger Pluspunkt war die längere Akkulaufzeit.
Das bedeutet: 500€ nur für mehr Akkulaufzeit.

Genau so sollte man vieles im Leben bewerten...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 4lter5ack
Beides Karten die man verbauen konnte, hab damals meine HD5770 gegen eine GTX570 Gewechselt um in STO 8xSSAA per nvidia Inspector frei zu schalten, sowie beim 16xAF LoD-Bias auf - 2 zu setzen,um 64xAF zu erreichen. Das bis heute ruhigste, flüssigste sowieso schärfste Bild, gefühlt bis heute. Dazu noch gpu Spannung runter und takt hoch.
 
Gullveig schrieb:
Ach ja, damals™

Da war AMD wieder mal schneller. Später kam raus, dass ja die Bildqualität im Vergleich zu Nvidia ja unglaublich viel schlechter sei und das wurde dann in jedem Graka Test inflationär betont.
„viel schlechter“ ist übertrieben - den die hatten „damals“ noch kein Upscaling 😉

Damals waren die Bilder generell klarer, zumindest auf dem PC, heute sieht man nur Milchglas-Effekte.

Aber ich kann bestätigen, dass meine GTX 470 hübschere Bilder produziert hat, als die HD 5870 meines Bruders.

Aber mit einer HD 7970 änderte sich das.
Ergänzung ()

Gullveig schrieb:
Gestern zum Beispiel ein Vergleichsvideo der XBox Ally S und der Switch 2 gesehen.
Mann kann das nicht vergleichen, Nintendo ist eine andere Welt.

Bei Asus bezahlt man auch den Namen mit. 😉

Zu MS sage ich lieber nichts, sonst landet mein Post im Aquarium. 🙄
 
Zuletzt bearbeitet:
Mit dem selbst auserkorenen Widersacher, der GeForce GTX 460, machten beide Grafikkarten kurzen Prozess.
1-4% schneller mit AA/AF bei quasi gleichem Preis und nur 2-3% OC Potential, während bei der 460 20% und mehr drin waren und das bessere AF hatte. Sehr tendenziöse Formulierungen.

Die 460 konnte man auf 6870 Niveau takten für 50 Euro weniger.
Effizienz insgesamt ähnlich durch den gleichen Idle/ besseren Verbrauch der 460 bei Video/BluRay.
 
Zuletzt bearbeitet:
Mit der HD6850 hab ich damals das PC Gaming angefangen.
Ich hatte keine Ahnung und im Prinzip hats ein Schulkollege ausgesucht und zusammen gebaut.
Hab die Karte dann bis zur rx480 behalten. Ich wusste einfach nicht, dass man einfach Upgraden kann.
Dank Computerbase und der tollen Community weiss mans heute besser.
 
Bierliebhaber schrieb:
War halt ne ganz andere Zeit. Damals gab's wie beispielsweise hier jährlich 40% Mehrleistung für 150€ oder 60% Mehrleistung für 200€, ausgehend vom direkten Vorgängerder HD5770,
Ja die Mehrleistung der 6000er Serie war wirklich unglaublich.^^ Die 10% waren sogar noch weniger als bei Blackwell.
Die 6770 war eine umgelabelte 5770.
Bierliebhaber schrieb:
heute gibt's nur alle 2-3 Jahre Updates und im Fall von nVidia gerade zahlt man im Zweifel 1500€ für 10% mehr, wenn man bei den 80ern "zuhause" ist...
1500 für 10% mehr? Ich dachte 4080S und 5080 hatten den gleichen MSRP?
Bierliebhaber schrieb:
Damals könnte man entspannt jährlich 150€ ausgeben, alles immer mit maximalen Details spielen, hatte dadurch immer die neusten Features und hat gar nicht mal viel Geld ausgegeben.
Hört sich irgendwie nach ziemlicher Märchenstunde an. HD 6850 und maximale Details?

https://www.computerbase.de/artikel/grafikkarten/amd-radeon-hd-6870-und-hd-6850-test.1346/seite-18

Metro, Crysis, Battleforge usw. in Full HD gerade so 20-40 FPS, ohne Hilfsmittel wie DLSS/FSR und starkem Flimmern, recht harte Zeiten.
Bierliebhaber schrieb:
Heute müsste eine 5080 10 Jahre halten um das wieder reinzuholen.
Solche Karten halten auch bis zu 10 Jahre, ne 6850 war nach 2 Jahren outdated, heute kann man selbst noch mit einer 1080 ganz gut spielen. Soviel schlechter geworden, ist es auch wieder nicht.
 
Gullveig schrieb:
Aber dass damals Nvidia bei vielen Spielen einfach mal weniger Dinge renderte (zum Beispiel Vegetation, die nicht angezeigt wurde, damit das Spiel schneller lief), wurde breit verschwiegen.
sorry dass ich hier für Nvidia mal eine Lanze brechen muss... aber Dinge nicht zu rendern, die nicht sichtbar sind (weil verdeckt), um eine bessere Performance abzuliefern, ist intelligent!
 
  • Gefällt mir
Reaktionen: Quidproquo77, guillome, Taxxor und 3 andere
Meine 6850 läuft heute noch im 2. PC unter Linux. Mein Nachwuchs darf da manchmal dran spielen.
 
beckenrandschwi schrieb:
160W fürs nichts tun ist krass, auch wenn es der komplette Rechner ist.

Das ist aber vor allem der Rest dieses Rechners. Ich hatte ein System mit einer 5770 (und spaeter 6770), das bei ca. 100W idle war (mit beiden Karten, die aber fast baugleich waren). Ein spaeterer Rechner hatte mit iGPU 22W idle, mit der 6770 50W idle. Die hat also ungefaehr 28W zum Idle-Verbrauch beigetragen. Da die 5770 den gleichen Idle-Wert hatte und im Test die 5770 und 6870 im Idle-Wert gleich sind (und die 6850 4W hoeher), wird der Idle-Verbrauch dieser Karten wohl auch um ca. 30W liegen und der Rest des CB-Testsystems bei 135W Idle-Verbrauch. Bei mir war Idle uebrigens mit 2560x1600 mit Dual-Link-DVI, falls das eine Rolle spielt.
 
Ich bin April 2011 von einer ATI Radeon™ HD 3200 G (onboard) auf die HD6850 umgestiegen.
Mir war egal wieviel % schneller die war im Vergleich zu einem eingebildeten Vorgängermodel. Und wie die Karte heißt war mir auch Banane.
Gekostet hat sie 99€ (Amazon Blitzangebot), darauf kam es an. Ob sie immer noch funktioniert weiß ich nicht, aber 2021 hat sie ihr zehnjähriges Jubiläum bei einem Kumpel gefeiert. Für den Preis war sie hervorragend, damals.
 
Quidproquo77 schrieb:
Ja die Mehrleistung der 6000er Serie war wirklich unglaublich.^^ Die 10% waren sogar noch weniger als bei Blackwell.
Die 6770 war eine umgelabelte 5770.


Du ignorierst natürlich völlig, dass AMD das Namensschema geändert hat, damit du die 6000er schlechter dastehen lassen kannst...
Die 6850 hat beim Release in etwa so viel gekostet wie die HD5770. Und die HD6850 ist 40% schneller als diese.

Ist deiner Meinung nach z.B. auch die 9800GTX der Nachfolger der 8800GTX gewesen?


Quidproquo77 schrieb:
1500 für 10% mehr? Ich dachte 4080S und 5080 hatten den gleichen MSRP?


Ich habe mich natürlich auf Marktpreise vernünftier Custom-Designs bezogen... aber auch das hätte dir eigentlich klar sein sollen, oder?


Quidproquo77 schrieb:
Hört sich irgendwie nach ziemlicher Märchenstunde an. HD 6850 und maximale Details?

https://www.computerbase.de/artikel/grafikkarten/amd-radeon-hd-6870-und-hd-6850-test.1346/seite-18


Bis auf wenige Ausreißer passt das doch? Und wie gesagt, damals haben die Karten ein Bruchteil der heutigen gekostet und man konnte bequem jedes Jahr upgraden...

https://www.computerbase.de/artikel/grafikkarten/amd-radeon-hd-6870-und-hd-6850-test.1346/seite-18
Quidproquo77 schrieb:
Metro, Crysis, Battleforge usw. in Full HD gerade so 20-40 FPS, ohne Hilfsmittel wie DLSS/FSR und starkem Flimmern, recht harte Zeiten.


Man merkt, dass du damals noch nicht gespielt haben kannst. Damals gab es noch richtiges AA, und man musste sich nicht zwischen dem grausamen TAA und Upscaling entscheiden... es kommt natürlich immer auf das Spiel an, aber damals gab es nicht mehr Flimmern als heute.


Quidproquo77 schrieb:
Solche Karten halten auch bis zu 10 Jahre, ne 6850 war nach 2 Jahren outdated, heute kann man selbst noch mit einer 1080 ganz gut spielen. Soviel schlechter geworden, ist es auch wieder nicht.


Lustig, mit einer 5080 so lange spielen zu wollen...
Und noch lustiger zu behaupten eine 6850 sei nach zwei Jahren outdated gewesen. Ist natürlich immer eine Frage des Anspruchs, aber gerade diese Generationen von AMD hatten wirklich eine extrem lange Haltbarkeit, also Cypress bis Hawaii. Wobei Cayman zwischen den drei anderen grandiosen Generationen natürlich schon klar am schwächsten war. Gerade Cypress und Tahiti waren ja legendär.
 
  • Gefällt mir
Reaktionen: zeedy, Wanderwisser und Wichelmanni
Marixx schrieb:
Die leistungssufnahme im idle is ja hart🙈 Das hatte ich gar nicht mehr auf dem Schirm.
War das damals nicht noch das gesamte System und nucht wie heute bei CB nur die GraKa?
Ergänzung ()

catch 22 schrieb:
sorry dass ich hier für Nvidia mal eine Lanze brechen muss... aber Dinge nicht zu rendern, die nicht sichtbar sind (weil verdeckt), um eine bessere Performance abzuliefern, ist intelligent!
Ich glaube er meinte das vegetation ausgeblendet wurde sobald ein entsprechendes Spiel entdeckt wurde.

Treiberanpassungen(injections) an bestimmte spiele waren nicht unüblich, auf beiden Seiten.
 
Zuletzt bearbeitet:
catch 22 schrieb:
sorry dass ich hier für Nvidia mal eine Lanze brechen muss... aber Dinge nicht zu rendern, die nicht sichtbar sind (weil verdeckt), um eine bessere Performance abzuliefern, ist intelligent!
Nein, du hast das falsch verstanden. Es gab da schöne Videos die zeigten, dass auf Nvidia Hardware einfach mal die halbe Vegetation im Bild fehlte, damit sie einigermaßen mit AMD mithalten konnten.
Ergänzung ()

LETNI77 schrieb:
„viel schlechter“ ist übertrieben - den die hatten „damals“ noch kein Upscaling 😉

Damals waren die Bilder generell klarer, zumindest auf dem PC, heute sieht man nur Milchglas-Effekte.

Aber ich kann bestätigen, dass meine GTX 470 hübschere Bilder produziert hat, als die HD 5870 meines Bruders.

Vergleiche mit 8fach SGSSAA zeigten ganz klar, dass Nvidia da viel unschärfer war. Das konnte man mit einem Tool mit negativem LOD beheben. Aber dann flimmerten die Nvidias plötzlich....
 
  • Gefällt mir
Reaktionen: catch 22
Gullveig schrieb:
Nein, du hast das falsch verstanden.
ja, das kann ich bestätigen :)
sry
nicht unglücklich darüber, für Nvidia in diesem Fall doch keine Lanze brechen zu müssen hrrhrr
 
War dasne Zeit..wildes Rum experimentieren mit Hardware.
Hatte damals erst eine 460,dann ne zweite dazu im Dualbetrieb.
Die Speicherbegrenzung war echt hart...Stromverbrauch oje...ganz zu schweigen von den weiteren Nachteilen..aber man konnte sagen:ich fahr s l i 🙂
 
  • Gefällt mir
Reaktionen: 4lter5ack
Ich hatte mir damals im K&M Computerladen eine leicht abgespeckte GTX 460 SE aufschwatzen lassen, das war das erste Mal das ich mit den schäbigen NVIDIA Kundenverarschen in Berührung kam. Irgendwann war der Lüfter der Karte durch, ich habe dann mit Kabelbinder einen anderen Lüfter drangeschnallt („ghetto-mod) und die Karte hält bis heute. Hatte sie vor 2-3 Jahren sogar im Einsatz als eine andere Grafikkarte den Geist aufgegeben hatte und hatte Portal 2 mit ihr durchgespielt. Im großen und ganzen doch ein guter Kauf
 
Zurück
Oben