Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Im Test vor 15 Jahren: AMDs Radeon HD 6800 gegen die GeForce GTX 460
- Ersteller Robert
- Erstellt am
- Zur News: Im Test vor 15 Jahren: AMDs Radeon HD 6800 gegen die GeForce GTX 460
CaptainPicard
Commander
- Registriert
- Juli 2013
- Beiträge
- 2.076
Ich habe noch die Benchmarks meiner 6870.
https://www.3dmark.com/3dm11/7623860
https://www.3dmark.com/3dmv/4910246
https://www.3dmark.com/3dm06/17486252
https://www.3dmark.com/3dm11/7623860
https://www.3dmark.com/3dmv/4910246
https://www.3dmark.com/3dm06/17486252
CDLABSRadonP...
Vice Admiral
- Registriert
- Feb. 2021
- Beiträge
- 6.585
Oh, da habe ich mich wohl mehrdeutig ausgedrückt:LETNI77 schrieb:Warum? Die HD 7970 war damals Top! Keine Mittelklasse.
Nvidia musste sogar mit ihrer GTX 680 etwas stuggeln.
Mittefeld zu der Zeit war relativ voll und günstig.
Auch später waren RX 470/570 und RX 480/580 günstig und haben sich auch gut verkauft.
Damit war gemeint, dass Tahiti und Cayman jeweils nicht die Stärken der Karten auf Basis der Mittelklassechips, also Pitcairn und Barts, fortsetzen konnten. Während die beiden Mittelklasse-Kracher waren, war das Highend eher solala. (Tahiti aber klar besser als Cayman)CDLABSRadonP... schrieb:Also eine Karte, die die Stärken der Mittelklasse nicht gut fortsetzt?
Gullveig
Lieutenant
- Registriert
- Feb. 2024
- Beiträge
- 804
Ach ja, damals™
Da war AMD wieder mal schneller. Später kam raus, dass ja die Bildqualität im Vergleich zu Nvidia ja unglaublich viel schlechter sei und das wurde dann in jedem Graka Test inflationär betont.
Aber dass damals Nvidia bei vielen Spielen einfach mal weniger Dinge renderte (zum Beispiel Vegetation, die nicht angezeigt wurde, damit das Spiel schneller lief), wurde breit verschwiegen.
Auch damals schon gab es NDAs und Nvidias Druck auf die Medien.
Bin deswegen wieder aus der Branche ausgestiegen.
Es zählt im Endeffekt nur eines: Was bekomme ich für wieviel Geld?
Gestern zum Beispiel ein Vergleichsvideo der XBox Ally S und der Switch 2 gesehen. Doppelter Preis, aber nicht doppelte Grafik. Einziger Pluspunkt war die längere Akkulaufzeit.
Das bedeutet: 500€ nur für mehr Akkulaufzeit.
Genau so sollte man vieles im Leben bewerten...
Da war AMD wieder mal schneller. Später kam raus, dass ja die Bildqualität im Vergleich zu Nvidia ja unglaublich viel schlechter sei und das wurde dann in jedem Graka Test inflationär betont.
Aber dass damals Nvidia bei vielen Spielen einfach mal weniger Dinge renderte (zum Beispiel Vegetation, die nicht angezeigt wurde, damit das Spiel schneller lief), wurde breit verschwiegen.
Auch damals schon gab es NDAs und Nvidias Druck auf die Medien.
Bin deswegen wieder aus der Branche ausgestiegen.
Ergänzung ()
Und Heute wie damals ist der Name unwichtig.LETNI77 schrieb:Heute wie damals.☝️
Eine HD 6870 war langsamer als die HD 5870 😁
Es zählt im Endeffekt nur eines: Was bekomme ich für wieviel Geld?
Gestern zum Beispiel ein Vergleichsvideo der XBox Ally S und der Switch 2 gesehen. Doppelter Preis, aber nicht doppelte Grafik. Einziger Pluspunkt war die längere Akkulaufzeit.
Das bedeutet: 500€ nur für mehr Akkulaufzeit.
Genau so sollte man vieles im Leben bewerten...
Zuletzt bearbeitet:
Beides Karten die man verbauen konnte, hab damals meine HD5770 gegen eine GTX570 Gewechselt um in STO 8xSSAA per nvidia Inspector frei zu schalten, sowie beim 16xAF LoD-Bias auf - 2 zu setzen,um 64xAF zu erreichen. Das bis heute ruhigste, flüssigste sowieso schärfste Bild, gefühlt bis heute. Dazu noch gpu Spannung runter und takt hoch.
LETNI77
Commander
- Registriert
- Okt. 2007
- Beiträge
- 2.133
„viel schlechter“ ist übertrieben - den die hatten „damals“ noch kein Upscaling 😉Gullveig schrieb:Ach ja, damals™
Da war AMD wieder mal schneller. Später kam raus, dass ja die Bildqualität im Vergleich zu Nvidia ja unglaublich viel schlechter sei und das wurde dann in jedem Graka Test inflationär betont.
Damals waren die Bilder generell klarer, zumindest auf dem PC, heute sieht man nur Milchglas-Effekte.
Aber ich kann bestätigen, dass meine GTX 470 hübschere Bilder produziert hat, als die HD 5870 meines Bruders.
Aber mit einer HD 7970 änderte sich das.
Ergänzung ()
Mann kann das nicht vergleichen, Nintendo ist eine andere Welt.Gullveig schrieb:Gestern zum Beispiel ein Vergleichsvideo der XBox Ally S und der Switch 2 gesehen.
Bei Asus bezahlt man auch den Namen mit. 😉
Zu MS sage ich lieber nichts, sonst landet mein Post im Aquarium. 🙄
Zuletzt bearbeitet:
- Registriert
- Okt. 2023
- Beiträge
- 4.248
1-4% schneller mit AA/AF bei quasi gleichem Preis und nur 2-3% OC Potential, während bei der 460 20% und mehr drin waren und das bessere AF hatte. Sehr tendenziöse Formulierungen.Mit dem selbst auserkorenen Widersacher, der GeForce GTX 460, machten beide Grafikkarten kurzen Prozess.
Die 460 konnte man auf 6870 Niveau takten für 50 Euro weniger.
Effizienz insgesamt ähnlich durch den gleichen Idle/ besseren Verbrauch der 460 bei Video/BluRay.
Zuletzt bearbeitet:
Gaugaumera
Lt. Commander Pro
- Registriert
- Okt. 2016
- Beiträge
- 1.856
Mit der HD6850 hab ich damals das PC Gaming angefangen.
Ich hatte keine Ahnung und im Prinzip hats ein Schulkollege ausgesucht und zusammen gebaut.
Hab die Karte dann bis zur rx480 behalten. Ich wusste einfach nicht, dass man einfach Upgraden kann.
Dank Computerbase und der tollen Community weiss mans heute besser.
Ich hatte keine Ahnung und im Prinzip hats ein Schulkollege ausgesucht und zusammen gebaut.
Hab die Karte dann bis zur rx480 behalten. Ich wusste einfach nicht, dass man einfach Upgraden kann.
Dank Computerbase und der tollen Community weiss mans heute besser.
- Registriert
- Okt. 2023
- Beiträge
- 4.248
Ja die Mehrleistung der 6000er Serie war wirklich unglaublich.^^ Die 10% waren sogar noch weniger als bei Blackwell.Bierliebhaber schrieb:War halt ne ganz andere Zeit. Damals gab's wie beispielsweise hier jährlich 40% Mehrleistung für 150€ oder 60% Mehrleistung für 200€, ausgehend vom direkten Vorgängerder HD5770,
Die 6770 war eine umgelabelte 5770.
1500 für 10% mehr? Ich dachte 4080S und 5080 hatten den gleichen MSRP?Bierliebhaber schrieb:heute gibt's nur alle 2-3 Jahre Updates und im Fall von nVidia gerade zahlt man im Zweifel 1500€ für 10% mehr, wenn man bei den 80ern "zuhause" ist...
Hört sich irgendwie nach ziemlicher Märchenstunde an. HD 6850 und maximale Details?Bierliebhaber schrieb:Damals könnte man entspannt jährlich 150€ ausgeben, alles immer mit maximalen Details spielen, hatte dadurch immer die neusten Features und hat gar nicht mal viel Geld ausgegeben.
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-hd-6870-und-hd-6850-test.1346/seite-18
Metro, Crysis, Battleforge usw. in Full HD gerade so 20-40 FPS, ohne Hilfsmittel wie DLSS/FSR und starkem Flimmern, recht harte Zeiten.
Solche Karten halten auch bis zu 10 Jahre, ne 6850 war nach 2 Jahren outdated, heute kann man selbst noch mit einer 1080 ganz gut spielen. Soviel schlechter geworden, ist es auch wieder nicht.Bierliebhaber schrieb:Heute müsste eine 5080 10 Jahre halten um das wieder reinzuholen.
catch 22
Rear Admiral
- Registriert
- Mai 2019
- Beiträge
- 6.086
sorry dass ich hier für Nvidia mal eine Lanze brechen muss... aber Dinge nicht zu rendern, die nicht sichtbar sind (weil verdeckt), um eine bessere Performance abzuliefern, ist intelligent!Gullveig schrieb:Aber dass damals Nvidia bei vielen Spielen einfach mal weniger Dinge renderte (zum Beispiel Vegetation, die nicht angezeigt wurde, damit das Spiel schneller lief), wurde breit verschwiegen.
beckenrandschwi schrieb:160W fürs nichts tun ist krass, auch wenn es der komplette Rechner ist.
Das ist aber vor allem der Rest dieses Rechners. Ich hatte ein System mit einer 5770 (und spaeter 6770), das bei ca. 100W idle war (mit beiden Karten, die aber fast baugleich waren). Ein spaeterer Rechner hatte mit iGPU 22W idle, mit der 6770 50W idle. Die hat also ungefaehr 28W zum Idle-Verbrauch beigetragen. Da die 5770 den gleichen Idle-Wert hatte und im Test die 5770 und 6870 im Idle-Wert gleich sind (und die 6850 4W hoeher), wird der Idle-Verbrauch dieser Karten wohl auch um ca. 30W liegen und der Rest des CB-Testsystems bei 135W Idle-Verbrauch. Bei mir war Idle uebrigens mit 2560x1600 mit Dual-Link-DVI, falls das eine Rolle spielt.
Ich bin April 2011 von einer ATI Radeon™ HD 3200 G (onboard) auf die HD6850 umgestiegen.
Mir war egal wieviel % schneller die war im Vergleich zu einem eingebildeten Vorgängermodel. Und wie die Karte heißt war mir auch Banane.
Gekostet hat sie 99€ (Amazon Blitzangebot), darauf kam es an. Ob sie immer noch funktioniert weiß ich nicht, aber 2021 hat sie ihr zehnjähriges Jubiläum bei einem Kumpel gefeiert. Für den Preis war sie hervorragend, damals.
Mir war egal wieviel % schneller die war im Vergleich zu einem eingebildeten Vorgängermodel. Und wie die Karte heißt war mir auch Banane.
Gekostet hat sie 99€ (Amazon Blitzangebot), darauf kam es an. Ob sie immer noch funktioniert weiß ich nicht, aber 2021 hat sie ihr zehnjähriges Jubiläum bei einem Kumpel gefeiert. Für den Preis war sie hervorragend, damals.
- Registriert
- Aug. 2018
- Beiträge
- 3.023
Quidproquo77 schrieb:Ja die Mehrleistung der 6000er Serie war wirklich unglaublich.^^ Die 10% waren sogar noch weniger als bei Blackwell.
Die 6770 war eine umgelabelte 5770.
Du ignorierst natürlich völlig, dass AMD das Namensschema geändert hat, damit du die 6000er schlechter dastehen lassen kannst...
Die 6850 hat beim Release in etwa so viel gekostet wie die HD5770. Und die HD6850 ist 40% schneller als diese.
Ist deiner Meinung nach z.B. auch die 9800GTX der Nachfolger der 8800GTX gewesen?
Quidproquo77 schrieb:1500 für 10% mehr? Ich dachte 4080S und 5080 hatten den gleichen MSRP?
Ich habe mich natürlich auf Marktpreise vernünftier Custom-Designs bezogen... aber auch das hätte dir eigentlich klar sein sollen, oder?
Quidproquo77 schrieb:Hört sich irgendwie nach ziemlicher Märchenstunde an. HD 6850 und maximale Details?
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-hd-6870-und-hd-6850-test.1346/seite-18
Bis auf wenige Ausreißer passt das doch? Und wie gesagt, damals haben die Karten ein Bruchteil der heutigen gekostet und man konnte bequem jedes Jahr upgraden...
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-hd-6870-und-hd-6850-test.1346/seite-18
Quidproquo77 schrieb:Metro, Crysis, Battleforge usw. in Full HD gerade so 20-40 FPS, ohne Hilfsmittel wie DLSS/FSR und starkem Flimmern, recht harte Zeiten.
Man merkt, dass du damals noch nicht gespielt haben kannst. Damals gab es noch richtiges AA, und man musste sich nicht zwischen dem grausamen TAA und Upscaling entscheiden... es kommt natürlich immer auf das Spiel an, aber damals gab es nicht mehr Flimmern als heute.
Quidproquo77 schrieb:Solche Karten halten auch bis zu 10 Jahre, ne 6850 war nach 2 Jahren outdated, heute kann man selbst noch mit einer 1080 ganz gut spielen. Soviel schlechter geworden, ist es auch wieder nicht.
Lustig, mit einer 5080 so lange spielen zu wollen...
Und noch lustiger zu behaupten eine 6850 sei nach zwei Jahren outdated gewesen. Ist natürlich immer eine Frage des Anspruchs, aber gerade diese Generationen von AMD hatten wirklich eine extrem lange Haltbarkeit, also Cypress bis Hawaii. Wobei Cayman zwischen den drei anderen grandiosen Generationen natürlich schon klar am schwächsten war. Gerade Cypress und Tahiti waren ja legendär.
Tulol
Admiral
- Registriert
- Jan. 2004
- Beiträge
- 7.391
War das damals nicht noch das gesamte System und nucht wie heute bei CB nur die GraKa?Marixx schrieb:Die leistungssufnahme im idle is ja hart🙈 Das hatte ich gar nicht mehr auf dem Schirm.
Ergänzung ()
Ich glaube er meinte das vegetation ausgeblendet wurde sobald ein entsprechendes Spiel entdeckt wurde.catch 22 schrieb:sorry dass ich hier für Nvidia mal eine Lanze brechen muss... aber Dinge nicht zu rendern, die nicht sichtbar sind (weil verdeckt), um eine bessere Performance abzuliefern, ist intelligent!
Treiberanpassungen(injections) an bestimmte spiele waren nicht unüblich, auf beiden Seiten.
Zuletzt bearbeitet:
Gullveig
Lieutenant
- Registriert
- Feb. 2024
- Beiträge
- 804
Nein, du hast das falsch verstanden. Es gab da schöne Videos die zeigten, dass auf Nvidia Hardware einfach mal die halbe Vegetation im Bild fehlte, damit sie einigermaßen mit AMD mithalten konnten.catch 22 schrieb:sorry dass ich hier für Nvidia mal eine Lanze brechen muss... aber Dinge nicht zu rendern, die nicht sichtbar sind (weil verdeckt), um eine bessere Performance abzuliefern, ist intelligent!
Ergänzung ()
LETNI77 schrieb:„viel schlechter“ ist übertrieben - den die hatten „damals“ noch kein Upscaling 😉
Damals waren die Bilder generell klarer, zumindest auf dem PC, heute sieht man nur Milchglas-Effekte.
Aber ich kann bestätigen, dass meine GTX 470 hübschere Bilder produziert hat, als die HD 5870 meines Bruders.
Vergleiche mit 8fach SGSSAA zeigten ganz klar, dass Nvidia da viel unschärfer war. Das konnte man mit einem Tool mit negativem LOD beheben. Aber dann flimmerten die Nvidias plötzlich....
catch 22
Rear Admiral
- Registriert
- Mai 2019
- Beiträge
- 6.086
ja, das kann ich bestätigenGullveig schrieb:Nein, du hast das falsch verstanden.
sry
nicht unglücklich darüber, für Nvidia in diesem Fall doch keine Lanze brechen zu müssen hrrhrr
7oNine
Ensign
- Registriert
- Nov. 2007
- Beiträge
- 193
War dasne Zeit..wildes Rum experimentieren mit Hardware.
Hatte damals erst eine 460,dann ne zweite dazu im Dualbetrieb.
Die Speicherbegrenzung war echt hart...Stromverbrauch oje...ganz zu schweigen von den weiteren Nachteilen..aber man konnte sagen:ich fahr s l i 🙂
Hatte damals erst eine 460,dann ne zweite dazu im Dualbetrieb.
Die Speicherbegrenzung war echt hart...Stromverbrauch oje...ganz zu schweigen von den weiteren Nachteilen..aber man konnte sagen:ich fahr s l i 🙂
Ich hatte mir damals im K&M Computerladen eine leicht abgespeckte GTX 460 SE aufschwatzen lassen, das war das erste Mal das ich mit den schäbigen NVIDIA Kundenverarschen in Berührung kam. Irgendwann war der Lüfter der Karte durch, ich habe dann mit Kabelbinder einen anderen Lüfter drangeschnallt („ghetto-mod) und die Karte hält bis heute. Hatte sie vor 2-3 Jahren sogar im Einsatz als eine andere Grafikkarte den Geist aufgegeben hatte und hatte Portal 2 mit ihr durchgespielt. Im großen und ganzen doch ein guter Kauf
Ähnliche Themen
- Antworten
- 79
- Aufrufe
- 6.771
- Antworten
- 48
- Aufrufe
- 3.084
- Antworten
- 65
- Aufrufe
- 7.709
P
- Antworten
- 85
- Aufrufe
- 9.956
- Antworten
- 50
- Aufrufe
- 4.514