News Im Test vor 15 Jahren: Die Radeon HD 3870 HD X2 als High-End-Preiskönig

Könnte auch am Speichertyp liegen, weiß aber gerade nicht, ob DDR3 zwingend niedriger taktet als 4. Die anderen Karten im Testfeld haben jedenfalls alle durchweg niedrigere Taktraten als die 3870 single.
 
nurfbold schrieb:
Schon witzig, wenn man mal auf Google Bilder geht und sieht, wie sich Leute 4 Stück davon eingebaut haben 😆
Man konnte nur 2 davon verbauen. Mehr als 4fach Crossfire ging nicht.
 
  • Gefällt mir
Reaktionen: Yesman9277
ja die karte war toll, vorallem weil sie zu einem ati chipsatz inkompatibel war. zumindest hat das alternate bei meinem damaligen rechner festgestellt, da die gpu einfach nicht mit dem board wollte, gab dann so ein special bios, bis der bug gefixt wurde:D
 
heulendoch schrieb:
Wen den Multi-GPU-Nachteile nicht störten, der fand in der HD 3870 X2 ein sehr attraktives Angebot.

Ist das deutsch?
Anstatt freundlich darauf hinzuweisen, besser direkt meckern und Fehler aufzeigen - das ist deutsch.
 
  • Gefällt mir
Reaktionen: andi_sco, alphatau, Luuuc22 und 6 andere
mesohorny schrieb:
Vielleicht kann jemand noch den Artikel korrigieren. "Die" statt "den". Dann ist alles richtig. Aber bei einem Wochenendartikel ist das tatsächlich verschmerzbar.
 
Ich hab zwei davon in meinem Retro Rechner:

Opteron 185 geköpft und mit 3,1GHz
ASUS A8R32-MVP Deluxe
4x 2GB DDR mit ECC, 183MHz CL2
2 HD3870X2 im Referenzdesign

Natürlich stilecht mit Windows Vista x64

Crysis (DX10 und X64 Version) in 720p aufm 60 Zoll Plasma mit Natural Mod sieht richtig schick aus mit 4xAA.

Und mit 40fps überraschend gut spielbar.
 
  • Gefällt mir
Reaktionen: Anzony, Hexxxer76, usernamehere und 2 andere
nurfbold schrieb:
Schon witzig, wenn man mal auf Google Bilder geht und sieht, wie sich Leute 4 Stück davon eingebaut haben 😆
Zarlak schrieb:
Man konnte nur 2 davon verbauen. Mehr als 4fach Crossfire ging nicht.
Der Artikel zu dem Bild klärt es auf: https://www.techpowerup.com/44591/amd-radeon-hd-3870-x2-and-spider-gaming-system-pictured
The second, third and fourth pictures show AMD's "Spider" gaming platform running AMD 790FX motherboard and four ATI Radeon HD 3870 video cards in CrossFireX mode.
 
  • Gefällt mir
Reaktionen: NMA und nurfbold
Als die HD 4xxx Reihe rauskam hab ich mir spaßeshalber mal eine gebraucht aus der Bucht geholt, hat eine X1900 GT abgelöst.
War laut, aber hatte Leistung genug für FHD und die Microruckler hab ich auch nicht bemerkt.
 
andi_sco schrieb:
5% mehr Chip Takt, aber 20% weniger beim RAM?
War der Speicher so ein Hitzkopf?
Signal-Integrität war bei solchen Dual GPU Karten immer schwer gewährleisten zu wesen. Deshalb hat NVIDIA zu der Zeit Dual GPU Karten immer mit zwei PCBs im Sandwich benutzt.
 
  • Gefällt mir
Reaktionen: NMA, Zarlak und andi_sco
HD 3870 X2 sieht ja hübsch aus.
Kann mich nicht an diese Version erinnern.

War jetzt nie groß interessiert an Dual Karten, aber die Augen von Rubi hätte ich doch noch in Erinnerung gehabt.
 
  • Gefällt mir
Reaktionen: NMA und andi_sco
Damals meine erste Dual GPU. Standard ATI Version auf Wakü umgebaut. Später folgte sogar noch eine 2. Das war aber eine Katastrophe flog kurze Zeit später wieder raus. Nun als Sammler empfinde ich das Gecube Modell als eine der schönsten Karten überhaupt. Ebenfalls potent was die Kühlung angeht ist die Asus. Leise gehen hier alle nicht gerade ans Werk.
 

Anhänge

  • IMG_20201102_002939.jpg
    IMG_20201102_002939.jpg
    1,6 MB · Aufrufe: 203
  • IMG_20230129_001647.jpg
    IMG_20230129_001647.jpg
    285,9 KB · Aufrufe: 206
  • IMG_20230129_001308.jpg
    IMG_20230129_001308.jpg
    1,3 MB · Aufrufe: 198
  • IMG_20230128_125228.jpg
    IMG_20230128_125228.jpg
    1,2 MB · Aufrufe: 206
  • Gefällt mir
Reaktionen: Anzony, .Snoopy., -=[CrysiS]=- und 8 andere
Damals, als Aufkleber mit 3D Frauen auf den GPUs klebten und diese runden Zalmankupferkreise "Kühler" genannt wurden. :D
Die 8800 Ultra war damals schon in preislichen Stratosphäre. Für 250 habe ich damals die HD3870 gekauft, die mich lange begleitet hat. Aber ich habe mir nie vorstellen können, eine GPU für 500 Euro zu kaufen...
 
  • Gefällt mir
Reaktionen: Hexxxer76
grind507 schrieb:
Standard ATI Version auf Wakü umgebaut.
Laut deinem ersten Bild hast du garnichts umgebaut. Das ist ein Bild einer Sapphire HD3870 X2 Atomic. 🙄
 
  • Gefällt mir
Reaktionen: rg88
Axendo schrieb:
Einführung der Core-Reihe?
Einführung der Athlon 64 mit cool'n'quiet.
Während Intel den Pentium 4 immer auf neue Verbrauchsrekorde gebracht hat und mit Pentium D dann die Architektur endgültig der Lächerlichkeit preisgegeben hat, hatte AMD längst eine Funktion, die die CPU nach Last taktet und damit im Idle enorm Strom sparen konnte.

Die powerstates konnt man mit Tools sogar damals selbst definieren. Hatte meinen im P1 bei 0,5V und 400MHz, und dann eben noch ein paar weitere nach oben. Am Messgerät war der Unterschied zu normal enorm.
Ergänzung ()

Zarlak schrieb:
Laut deinem ersten Bild hast du garnichts umgebaut. Das ist ein Bild einer Sapphire HD3870 X2 Atomic. 🙄
:D das selbe hab ich mir auch gedacht. Das ist kein Custom sondern Werk.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zarlak und Axendo
rg88 schrieb:
Einführung der Athlon 64 mit cool'n'quiet.
War das echt so krass? Die Core Duos waren mit ihrer Taktabsenkung ja nicht so doll
 
Die waren deutlich später dran. Die Core-Reihe war Intels Panikreaktion. Die Netburst-Technik war lahm und hat gesoffen ohne Ende. Deshalb haben sie dann die Notebook-Architektur für den Desktop genommen. Das war dann jahrelang die Basis für Core.
War ja nicht schlecht, aber den Schubs dazu hat AMD gemacht und das Jahre früher. Intel musste reagieren.
Das war übrigens die Zeit, wo Intel Händler dafür bezahlt hat, dass sie keine AMD-Geräte verkaufen... Das hieß natürlich "Marketing-Zuschuss" und so... Intel hat überhaupt nichts konkurrenzfähiges gegen die AMD-64-Reihe.
Hätte Intel damals nicht illegal gehandelt, hätte AMD aus dem enormen Vorsprung auch wirklich Geld machen können und die weitere Forschung und Entwicklung bezahlen können. Intel verhinderte das aber und so kam AMD nicht annährend auf den Marktanteil, des sie eigentlich haben hätten müssen, bei CPUs die soweit voraus waren.
 
  • Gefällt mir
Reaktionen: cosmo45
Hätten die nicht so einen verkrüppelten PCIe-Switch eingebaut, wäre die sicher noch eine Ecke schneller. Auch bei Einzelbetrieb der Kerne
 
Zurück
Oben