News Im Test vor 15 Jahren: AMDs Radeon HD 6800 gegen die GeForce GTX 460

Bin mir nicht mehr sicher, ob ich die 6850 oder die 6870 hatte - in jedem Fall war es eine von Powercolor, wie auch auf den Bildern hier im Artikel.

Danke - wie immer - für den Beitrag. Ich war damals sehr zufrieden mit der Karte. Hat mich vor allem seinerzeit gut durch Bad Company 2 begleitet. Tolle Zeit!

Aber es ist schon verrückt, wie effizient Hardware heute ist. 165 W im Idle ist halt auch anders wild.
 
The_Mat_91 schrieb:
Oh wei, 15 Jahre schon seitdem vergangen? Bald ist es soweit und mein damaliger, treuer Begleiter die HD 7870 erscheint im Retro Artikel. :freak: Die Karte hatte ich von 2012 bis 2019 oder 2020. Zu sagen ich hätte die ausgereizt ist gar kein Ausdruck. Zum Schluss wurde bei anspruchsvolleren Titeln alles auf Minimum gedreht. Irgendwie kam man dann immer auf seine 30-40 FPS. :cool_alt:Schöne Zeit, aber wie man sieht, lange her. :rolleyes:
Mit dem Kauf der 7870 bekam ich damals far cry 3 dazu. Ich hab das Spiel manchmal nur gestartet um durch die Spielwelt zu laufen und die Grafik zu bewundern und wie gut es lief. Bis nach zwei Wochen sich das Spiel schlagartig aufgehängt hat mit Farbstreifen im Bild und die Karte hopps ging. 😭 Bekam aber unkompliziert und zügig Ersatz vom Händler.
Hach ja seufz 😃
 
  • Gefällt mir
Reaktionen: The_Mat_91
Die HD 6850 war damals eine richtig gute Karte für den Preis. Ich weiß gar nicht mehr welches Modell ich genau hatte, aber einige Jahre lief die bei mir, bis die von einer GTX 970 ersetzt wurde. Problem waren für mich damals die sehr schlechten Treiber bei AMD.
 
Zuletzt bearbeitet:
Die Sapphire HD6870 war meine zweite neue Grafikkarte, bis dahin hatte ich nur gebraucht auf Ebay gekauft :D ich weiss noch wie viel Spass ich damit in Dead Space und Stalker hatte.

200€ für eine Mittelklasse Karte, inflationsbereinigt wäre das heute knapp 240€. Und damals gab es jede Generation große Leistungsprünge.
 
Bierliebhaber schrieb:
Du ignorierst natürlich völlig, dass AMD das Namensschema geändert hat, damit du die 6000er schlechter dastehen lassen kannst...
War einfach eine Gegendarstellung zu deiner Übertreibung und dem doch ziemlich unzutreffenden Vergleich mit einer 5080.

Schaut man sich nämlich die 5870 und die 6970 an ( in der Klasse einer 5080 ), gab es eine Preisreduktion von 30 US Dollar und etwa 10-15% Mehrleistung. Die 5770 kostete 159 US Dollar, die 6850 startete mit 179 US Dollar und hatte so in etwa ein 25% besseres P/L.

Die 60% Mehrleistung für 200 Euro sehe ich nicht. HD 5830 und 6870 hatten denselben MSRP von 239 Dollar und die 6870 ist etwa 30% schneller.
Bierliebhaber schrieb:
Ist deiner Meinung nach z.B. auch die 9800GTX der Nachfolger der 8800GTX gewesen?
Nein, aber die GTX 280 gegenüber der 8800Ultra.
Bierliebhaber schrieb:
Ich habe mich natürlich auf Marktpreise vernünftier Custom-Designs bezogen... aber auch das hätte dir eigentlich klar sein sollen, oder?
Dann zahlt man eben das gleiche für 10-15% mehr und etwaige Software Features. Die 6970 bot jetzt auch nicht gerade viel mehr im gleichen Fertigungsprozess. Fertigungsprozesse und Kosten pro Design die heute um Faktor 10 teurer sind.
Bierliebhaber schrieb:
Bis auf wenige Ausreißer passt das doch? Und wie gesagt, damals haben die Karten ein Bruchteil der heutigen gekostet und man konnte bequem jedes Jahr upgraden...
Die Karten waren dafür viel schneller outdated und softwareseitig deutlich schlechter und für Performance/High End hat man auch nicht einen Bruchteil gezahlt, sondern mehr als 1/3.

Die 5870 hatte einen MSRP von 399 US Dollar, die 6970 369 US Dollar, die 5080 kostete 999 Dollar.

Das durchschnittliche Einkommen von 2009 bis heute stieg um 50-60%. Von etwa 18-19000 auf rund 30000.
Bierliebhaber schrieb:
Man merkt, dass du damals noch nicht gespielt haben kannst.
HD 6850 Full HD
COD 58 FPS
Mass Effect 56FPS
Risen 47 FPS
Splinter Cell 43 FPS
Anno 44 FPS
Crysis 21 FPS
BC2 41 FPS
Battleforge 34FPS
Dirt 49 FPS
Metro 23 FPS
Stalker 28 FPS

In keinen einzigen Spiel knackt man AVG 60 FPS, die Percentile sind folglich deutlich drunter. Das ist bestimmt nicht besser als man es mit einer 9060XT/5060Ti inkl. FG/Reflex/DLSS4/FSR4 hinbekommt.

150 Euro und alles mit maximalen Details spielen ist kompletter Essig.
Bierliebhaber schrieb:
Damals gab es noch richtiges AA, und man musste sich nicht zwischen dem grausamen TAA und Upscaling entscheiden...
Das richtige AA in häßlichen forward rendering Umgebungen mit kaum Geometrie, Beleuchtung und Transparenz Effekten und dennoch furchtbarem Geflimmer/ Bildrauschen auf den Texturen. Das Thema wurde schon 100x diskutiert. TAA war ein riesen Fortschritt und die KI Upscaler haben das Niveau auf SGSSAA/OGSSAA inkl. dufter Mehrleistung angehoben. Zu glauben, dass das frühere Bild so gut war liegt an Retromanie und zugespitzten Vergleichen irgendwelche Youtuber.
Bierliebhaber schrieb:
es kommt natürlich immer auf das Spiel an, aber damals gab es nicht mehr Flimmern als heute.
Wenn man halbwegs schöne Welten mit Texturen/Gräsern/Effekten wollte dann wären frühere Methodiken extrem flimmeranfällig und konnten das Bild nicht mehr beruhigen, außer mit extremem Leistungseinsatz. TAA (ohne Leistungskosten) oder TSSAA waren da halt ein Brett.
Bierliebhaber schrieb:
Lustig, mit einer 5080 so lange spielen zu wollen...
Realistischer als mit einer 6850 alles auf ultra flüssig gespielt zu haben. Man kann heute auch noch mit einer 1080 in Full HD mit Xess oder FSR zocken, oder mit Turing, das ist auch 7 Jahre her.
Bierliebhaber schrieb:
Und noch lustiger zu behaupten eine 6850 sei nach zwei Jahren outdated gewesen.
Ja, damals waren die Fortschritte noch etwas größer, vor allem zwischen 2010/2011 und 2012/2013. Hawaii alias R9290X war ein Brett und bietet vollen DirectX 12 Support. Die 8GB Version davon kann man heute noch verwenden und liegt bei einer RX 480.
 
Zuletzt bearbeitet:
Nero2019 schrieb:
Ich hatte den GTX 460. Zum Glück ist der kaputtgegangen, sodass ich im Jahr 2017 den GTX 1050 kaufen konnte. Der jährliche Stromverbrauch ist dadurch um 400 kW gesunken. Bei einem Strompreis von 0,36 € habe ich seitdem jährlich 144 € gespart!

Die maximale Leistungsaufnahme einer GTX 460 beträgt 160 Watt, die maximale Leistungsaufnahme einer GTX 1050 (Ti) beträgt 75 Watt -> Differenz: 85 Watt

85 Watt x 12h pro Tag x 365 Tage pro Jahr = 372 KWh
372 KWh x 36 ct (um Himmels Willen, wechsel deinen Anbieter!) = 133,92 Euro

Du spielst also - zudem mit solcher Hardware - stets und zu 100% voll ausgelastet mehr als 12 Stunden pro Tag, ununterbrochen.

I highly doubt that.
 
  • Gefällt mir
Reaktionen: Pisaro und Quidproquo77
Rainbowprincess schrieb:
Mit dem Kauf der 7870 bekam ich damals far cry 3 dazu. Ich hab das Spiel manchmal nur gestartet um durch die Spielwelt zu laufen und die Grafik zu bewundern und wie gut es lief. Bis nach zwei Wochen sich das Spiel schlagartig aufgehängt hat mit Farbstreifen im Bild und die Karte hopps ging. 😭 Bekam aber unkompliziert und zügig Ersatz vom Händler.
Hach ja seufz 😃
Bei mir hat es irgendwann während einer ausgiebigen Witcher 3 Session den VRAM zerschossen. Der wurde bis dahin aber auch jahrelang gequält. 😀
 
Hatte auch lange eine 6870 in Betrieb wurde erst durch eine GTX 1060 getauscht. War eine gute Karte hatte aber auch keine mit diesem furchtbaren Kühlsystem. Die läuft sogar heute noch wenn auch nur in einem Retro system für ab und an mal ne runde alte games.
 
Ich hatte damals eine XFX HD6850 Black Edition, war rückblickend ein echt guter Deal seinerzeit für ca. 140€ Straßenpreis drei Monate nach Release. Natürlich ist sie irgendwann zu langsam geworden, tatsächlich war hier und da aber auch der Speicher von 1 GB am Limit.
Mich wundert, dass sich die 6850 im Test nur so wenig übertakten ließ und auch noch so schlecht mit dem Takt skaliert hat. Ich hab meine damals ohne die Spannung zu erhöhen auf 950 MHz getaktet (von werksseitig 800 statt 775 MHz des Referenzdesigns) und die Leistung ging auch fast 1:1 damit hoch. MSI hatte sogar eine Karte im Programm, die ab Werk (Testbericht von damals) schon höher getaktet hat als das übertaktete Referenzdesign hier im Retro-Testbericht und sich auch in ähnliche Sphären wie meine peitschen ließ.


Tulol schrieb:
War das damals nicht noch das gesamte System und nucht wie heute bei CB nur die GraKa?
Genau das, die 6850 hatte nur einen 6-Pin-Stecker, konnte ergo unter Volllast maximal 150W aufnehmen. Die 6870 hatte zwei, aber ich glaube die hätte es eigentlich auch nicht gebraucht...
 
beckenrandschwi schrieb:
Ja, da kann man sehen, wie viel für die Idle Leistungsaufnahme gemacht wurde. 160W fürs nichts tun ist krass, auch wenn es der komplette Rechner ist.
Danke für den Flashback.

Wie schon einer hier schon vorher im Forum schieb, liegt der IDLE bei den 5000er & 6000er Radeons bei ca. 30W.

Hier liegt die Ursache an diesem hohen IDLE Verbrauch:
Ergänzung ()

LGTT1 schrieb:
Hatte auch lange eine 6870 in Betrieb wurde erst durch eine GTX 1060 getauscht.
War bei hier auch fast gleich:
Hatte meine 6870 ersetzt mit einer RX 570 8Gb.
 
DJMadMax schrieb:
Die maximale Leistungsaufnahme einer GTX 460 beträgt 160 Watt, die maximale Leistungsaufnahme einer GTX 1050 (Ti) beträgt 75 Watt -> Differenz: 85 Watt

85 Watt x 12h pro Tag x 365 Tage pro Jahr = 372 KWh
372 KWh x 36 ct (um Himmels Willen, wechsel deinen Anbieter!) = 133,92 Euro

Du spielst also - zudem mit solcher Hardware - stets und zu 100% voll ausgelastet mehr als 12 Stunden pro Tag, ununterbrochen.

I highly doubt that.
Idle Werte sowie 1080p streaming gucken hast du nicht berücksichtigt.
gtx1050 5w im idle, gtx 460 33w im idle. Die differerenz wird deutlicher beim 1080p gucken.

Ich habe mit eigenen Augen dass Youtube gucken auf MS Edge 55w weniger frisst als chrome.
 
Nero2019 schrieb:
Idle Werte sowie 1080p streaming gucken hast du nicht berücksichtigt.
Das würde - wenn das in den 12 Stunden pro Tag enthalten ist - den Schnitt aber zugunsten einer deutlich geringeren Stromrechnung beeinflussen.

Ich will aber ehrlich gesagt gar nicht wissen, wie dein Tagesablauf aussieht - den muss jeder für sich selbst gestalten.
 
  • Gefällt mir
Reaktionen: alphatau
Gullveig schrieb:
Gestern zum Beispiel ein Vergleichsvideo der XBox Ally S und der Switch 2 gesehen. Doppelter Preis, aber nicht doppelte Grafik. Einziger Pluspunkt war die längere Akkulaufzeit.
Das bedeutet: 500€ nur für mehr Akkulaufzeit.

Genau so sollte man vieles im Leben bewerten...
Nein. Man gibt Geld aus um Spaß zu haben. Den habe ich mit einer Switch/ Switch 2 um einiges mehr als mit anderen Handhelds.
 
Die GTX 460 hatte ich früher auch. Schöne Karte. Zu dieser Zeit konnte man damit alles flüssig spielen aber wenn ich mir heute Benchmarks zu Mittelklassekarten anschaue, ist das nicht mehr Fall. So ändert sich die Zeit :)
 
4lter5ack schrieb:
[...] noch alle paar Nokia-Ladungen die Hardware getauscht [...]
Also frühestens einmal in jedem Jahrhundert? :D :mussweg:

Topic: Ich hatte eine HD 6870 von Sapphire und das Teil war wirklich lange im Betrieb :smokin:
Wurde erst ausgetauscht als die GTX 970 auf den Markt kam ^^
 
  • Gefällt mir
Reaktionen: 4lter5ack
DJMadMax schrieb:
Das würde - wenn das in den 12 Stunden pro Tag enthalten ist - den Schnitt aber zugunsten einer deutlich geringeren Stromrechnung beeinflussen.

Ich will aber ehrlich gesagt gar nicht wissen, wie dein Tagesablauf aussieht - den muss jeder für sich selbst gestalten.
Ich zocke keine 12h am Tag...
aber mein PC ist oft um die ~13h täglich an (inklusive HomeOffice).

Ich habe nachgeguckt. Vor dem Einbau war der tägliche Stromverbrauch bei ~8,85 kw (entspricht einem Jahresverbrauch von ~3200 kw), nach dem Einbau des gtx1050 ging der tägliche verbrauch auf ~7,4 kw täglich (~2700 kw). Es ist sogar datiert, dass der GPU-Wechsel am 02.10.2017 stattgefunden hat.

Vermutlich war die gtx460 dauerhaft auf maximale Leistung voreingestellt. Und das Beispiel mit dem MS Edge und Chrome (55 w Unterschied beim twitch gucken). Während der gtx460 Zeit habe ich nur Chrome verwendet und sehr viel Twitch geguckt (StarCraft 2 Esport).
 
@Nero2019
Die GTX 1050 ist zwar effizienter und in ihrer maximalen Leistungsaufnahme auch niedriger als die GTX 460, aber bei deinem Nutzungsszenario sparst du neimals nur wegen dieser einen Komponente 400 KWh (jetzt sogar 500 KWh, wie du schreibst) ein. Den Grund dafür habe ich dir sehr detailliert vorgerechnet, mehr kann ich dir auch nicht helfen.
 
  • Gefällt mir
Reaktionen: Pisaro
guillome schrieb:
nicht nur idle, auch der Verbrauch in Betrieb ist heftig. War mir gar nicht mehr bewusst, dass hier die Mittelklasse Modelle um die 300 Watt lagen und die Topmodelle sogar deutlich über 400W. Vor 15 Jahren waren noch ~450W-500W Netzteile in vielen Rechner üblich
Naja so viel ist das jetzt auch nicht, mein Desktop braucht aktuell wo ich das Tippe auf der CPU (nicht ganz Idle, hier läuft einiges im Hintergrund aber ~10% Load) ca. 60W. Meine 5090 braucht im Idle mit 2x Monitoren (5120x1440 + 3840x2160p - OLED 240Hz) konstant 67W, bisschen mehr, wenn YT läuft.

Gesamtes System mit Monitoren um die 200-250W - im Idle.
Wenn das Teil mal abhebt beim Gaming, sind wir weit um 800-1000W.
Mir macht das nichts aus, hab mich mit meinen 4500kWh im Jahr abgefunden, kein Problem.

Aber "viel" war das damals nicht.
Im Vergleich zu der oberen Mittelklasse und-oder HighEnd von heute eigentlich lächerlich wenig.

Natürlich verbrauchen dafür andere Systeme die eher auf Effizienz getrimmt sind abartig wenig Strom.

Nur "generell" weniger und sparsamer ist kein Fakt.
 
Unti schrieb:
Naja so viel ist das jetzt auch nicht, mein Desktop braucht aktuell wo ich das Tippe auf der CPU (nicht ganz Idle, hier läuft einiges im Hintergrund aber ~10% Load) ca. 60W. Meine 5090 braucht im Idle mit 2x Monitoren (5120x1440 + 3840x2160p - OLED 240Hz) konstant 67W, bisschen mehr, wenn YT läuft.

Gesamtes System mit Monitoren um die 200-250W - im Idle.
Wenn das Teil mal abhebt beim Gaming, sind wir weit um 800-1000W.
hmmm ich habe ein ähnliches Setup (2 Bildschirme, 5090, 9800X3d, etc) und ich komme nicht mal ansatzweise auf 850W ohne Drosselungsmaßnahmen aktiviert (vanilla). Bedeutet mein System braucht in der Praxis etwas im Schnitt um die ~700-750W(wenn überhaupt) denn meistens sind GPU und vor allem die CPU never ever gleichzeitig auf 100% beim zocken
 
@guillome
Ja ok, bisschen hab ich "übertrieben", sind im Peak vll 800-900W. Je nach Tag. Bei aktuell BF6 oder anderen Games säuft die 5090 nur 500W.
1761241454726.png


Alienware AW3225QF (Main)
1761241535559.png


Samsung G95SC (2nd)
1761241581761.png


Wie man sieht kommt da was zusammen, 1000-1100W werden es schon sein im letzten Step.

SInd halt beides OLED bei maximaler Helligkeit mit 1x 120 und 1x 240Hz angesteuert.
Da frisst die 5090 halt auch im Idle ordentlich Strom..... wie gesagt aktuell 70W CPU + 68W GPU, dazu noch das restliche vom System mit kp 30W oder so, bist auch bei 160W einfach nur beim "ein" sein.
So viel find ich den Verbrauch von früher deshalb nicht, klingt für mich moderat.
Selbst mein Notebook braucht im "Idle" mit 9955HX3D gute 50W falls ich ihn nicht einbremse.
Ist halt so ein AMD Ding, der Interconnect braucht halt Strom und niedriger als 30W konstant kriegt man das ja leider nicht.

Aber wie gesagt, find ich ok.
Die Heizung musste bisher noch nicht laufen, die Fußbodenheizung ist eigentlich konstant aus :D
Bin mal gespannt wie lang das funktioniert, hoffe bis um die 0°C.^^
 
Zurück
Oben