News Im Test vor 15 Jahren: Die Radeon HD 3870 HD X2 als High-End-Preiskönig

Hatten alte Grafikkarte ernsthaft 200Watt idle Verbrauch?
Auch unter Last macht die 8800 Ultra der 4090 Konkurenz.
Dachte immer früher wäre alles etwas sparsamer gewesen.
 
Auch wenn die Radeon so reingehauen hatte, wollte dennoch jeder eine Nvidia haben wegen Crysis und PhysX.
 
  • Gefällt mir
Reaktionen: NMA
Zarlak schrieb:
Laut deinem ersten Bild hast du garnichts umgebaut. Das ist ein Bild einer Sapphire HD3870 X2 Atomic. 🙄
Liegt ganz einfach daran das zwischen meiner ersten HD 3870X2 und dem Kauf der Atomic rund 13 Jahre liegen. Habe keine Bilder mehr von damals. Ich bin Sammler und habe derzeit die Gecube und Asus im Bestand.
 
  • Gefällt mir
Reaktionen: cl4w
@rg88
Na ob die Reaktion und Einflussnahme von Intel damals wirklich derart maßgeblich daran beteiligt waren, dass AMD nicht den theoretisch möglich, abrufbaren Marktanteil erreichten ist, ein wenig in Frage zu stellen.
AMD hatte damals, glaube ich, auch Probleme mit der Rohstoffzufuhr (Kupfer via Alcatel) und war preislich ebenfalls nicht der "Underdog" (zu Recht).
Weiterhin hatten damals dann schon die FAB Besitzungen nicht nur Vorteile, gegenüber der potenziellen Konkurrenz erbracht, sondern zunehmend auch marktstrategische Nachteile.
Der Kauf von ATI 2006 war, für AMD zur damaligen Zeit längst nicht Früchte tragen und erwies sich erst maßgeblich später, als wirklich wichtiger und guter Schachzug.

Nach der Netburst Architektur, diese ja erwiesenermaßen zu einer Sackgasse führte, hatte man dann ja die Mobile CPU Technik, diese wiederum aus der P6 Architektur des Pentium 3 Mobile hervorging.
Das damalige GHz Rennen hatte beide großen CPU Entwickler erfasst gehabt und dementsprechend war sicher auch die (teilweise) auf Marketing ausgelegte Netburst Architektur dem geschuldet.

Alles in allem aber eine sehr interessante und auch schöne Hardwareära.
 
Zuletzt bearbeitet:
Penman schrieb:
Aber ich habe mir nie vorstellen können, eine GPU für 500 Euro zu kaufen...
Ach das sind doch heute nur Peanuts.

War die 3870x2 erst 2008? Dachte ich hatte mir die 5770 Ende 2009 gekauft. Und 2010 dann Upgrade auf die 5870.

Zurück zur 3870x2 wow nur Dual Slot nur 350W für das gesamte System. Gut die Lautstärke war schon krass aber unter Wasser ging das bestimmt auch in leise.
 
DischargeHammer schrieb:
Hatten alte Grafikkarte ernsthaft 200Watt idle Verbrauch?
Auch unter Last macht die 8800 Ultra der 4090 Konkurenz.
Dachte immer früher wäre alles etwas sparsamer gewesen.
Damals konnte man nur das ganze System messen. Aber von 60-100w Idle mit zwei GPUs kannst du ausgehen. Danke dann relativiert es sich wieder. Aber klar heute ist das deutlich weniger.
 
Hatte die sogar noch in der Restekiste. Meine erste auf Wakü umgebaute Karte.

3870x2.jpg


Persönlich einer meiner größten Hardware-Fehlkäufe neben einer Geforce256 non-DDR, einer R9 Nano (praktisch kein Upgrade von einer 7970, aber ich war gehypt) und einem E8600 kurz bevor GTA4 rauskam, das stark von 4 CPU Kernen profitierte.
 
Schöner Rückblick. Gut, dass das Thema Multi-GPU auf dem technischen Friedhof liegt ob der Troubles.

Jetzt gehts bald ans Eingemachte mit den 15 Jahren Artikel: Bald kommt die HD 4xxx-Reihe, wo ich damals wieder nach einigen Jahren einen Re-Entry in potente Grafikkarten vollzog - mit einer Sapphire HD 4850. Wie Zeit vergeht, Retro kommt mir es nach wie vor nicht vor :D
 
alphatau schrieb:
Schöner Rückblick. Gut, dass das Thema Multi-GPU auf dem technischen Friedhof liegt ob der Troubles.
Eigentlich nicht. Eigentlich hat AMD gerade wieder damit angefangen mit RDNA3 mehrere Chips zu verbauen, statt einen großen. RDNA4 kann dann auch mehrer GPUs schon drauf haben
 
  • Gefällt mir
Reaktionen: alphatau
Du meinst RDNA3 und RDNA4 glaub ich.
 
  • Gefällt mir
Reaktionen: NMA und rg88
Hast du absolut recht. Hab ich doch grad die 5000er Serie vergessen gehabt
 
Ich meinte die hier oft erwähnten Microruckler in Multi-Gpu-Setups. Oder denk ich nun falsch?
 
Denke die Ruckler sind halt so ein Phänomen das durch die ziemlich simple Technik entsteht. Entweder die GPUs teilen sich ein Bild oder berechnen hintereinander das Bild. Das zu synchen ist das eben ziemlich schwierig, weil das nie gleichzeitig zum Ergebnis kommt.
Bei Multi-GPU in Chiplet-Technik wie jetzt wird man potentiell vorm selben Problem technisch stehen, sonst hätte man das ja bereits so rausgebracht. Hier muss wohl ein komplett anderer Ansatz her und da bin ich gespannt, wie AMD das hinbekommen wird (bzw. hoffe ich, dass sie es schaffen. Das ganze kann auch total floppen).
Anders bekommen wir aber zumindest nicht mehr die Leistungssteigerungen, die wir gewohnt sind. Die Fertigung ist langsam am Ende was immer kleiner anbelangt und die Dice sind jetzt schon riesig und teuer
 
  • Gefällt mir
Reaktionen: alphatau
alphatau schrieb:
Ich meinte die hier oft erwähnten Microruckler in Multi-Gpu-Setups. Oder denk ich nun falsch?
Du verstehst das schon richtig. Bei SLI/CF gab es immer das Problem dass die Bildabfolge unregelmäßig war. Diese Unregelmäßigkeit machte sich bemerkbar als Microruckler bei der Ausgabe. Lag daran, dass die GPUs in den meisten Fällen die Bilder abwechselnd gerendert haben und keine zwei Bilder komplett gleich sind. Zusätzlich war das abwechselnd rendern nicht wirklich koordiniert und jede GPU hat einfach direkt das Bild in den Ausgabe-Buffer gejagt wenn es nun fertig war.
In den späteren Jahren hat man dann per Treiber versucht dass ganze ein wenig nach zu synchronisieren, was aber durch die Latenz der Synchronisation wieder etwas Performance kostet. Die Bandbreite und Latenz zwischen beiden Karten war nie sonderlich gut. Erst NVIDIA hat in den späten Jahren versucht diese zu erhöhen bzw die Latenz zu senken, um höhere Auflösungen mit höherer SLI Effizienz darstellen zu können, da die Karten immer mehr Daten austauschen mussten.

Bei Chiplets wird es wieder ein ähnliches Problem geben, das unter den Chiplets untereinander die Daten rasend schnell und mit niedriger Latenz ausgetauscht werden müssen, damit keine Leistung verlohren geht.
Deshalb ist der "Interconnect" ganz wichtig und dieser muss sowohl die passenden Bandbreiten- und Latenzeigenschaften haben damit das ganze einigermaßen transparent gegengenüber dem System, Spiel und Endbenutzer geschieht.

Meiner persönlichen Meinung habe ich aber ein gutes Gefühl dabei, die Interconnects die heute genutzt werden sind viel weiter als es eine klassiche SLI/CF Brücke war und die Chips sind deutlich näher beieinander als beim klassischen Multi-GPU Setup. Außerdem gibt es bereits ein praktisches Beispiel. Apple hat dies bei deren M1 Ultra so umgesetzt. Der GPU Teil ist auf zwei M1 Max Chips verteilt, aber es ist transparent gegenüber dem System, also es wird als eine GPU angezeigt. Das zeigt für mich, das es technisch möglich ist und dann bekommen das AMD und NVIDIA auch irgendwann hin.
 
  • Gefällt mir
Reaktionen: alphatau
DischargeHammer schrieb:
Hatten alte Grafikkarte ernsthaft 200Watt idle Verbrauch?
Nein, Gesamtverbrauch des Systems. Im Idle wurde zwar der Takt gesenkt, aber eine Teilabschaltung war noch nicht vorhanden, so wie heute.


Haldi schrieb:
Sogar mal kurz die 6800XT xD
Ich musste jetzt erstmal schauen, ob bei der Radeon auch eine XT Version verfügbar ist 😅


CDLABSRadonP... schrieb:
The second, third and fourth pictures show AMD's "Spider" gaming platform running AMD 790FX motherboard and four ATI Radeon HD 3870 video cards in CrossFireX mode.
Ja, das scheinen aber vier Single GPU Karten zu sein
 
Ich hatte damals zwar keine 3870 X2 im System, dafür aber 2 HD 3870 im Crossfire. 😁 War ne geile Zeit. Damals hab ich NFS Undercover gespielt, und mit 1 3870 war es ne Ruckelorgie. Grauenvoll zu Spielen. Da kamen nicht die Frames per Second sondern die Sekunden pro Frame.🤣
Hab mit dann ne Baugleiche auf Ebay gekauft und Viola, es lief plötzlich Ruckelfrei. Microrucker hatte ich auch nicht. Hab das ganze mit nem ASUS M4A79 Deluxe und glaube nem 4800+X2 und 8 GB RAM laufen gehabt. War echt schön die Zeit damals. War auch das einzige msl neben dem Release von Fsr Cry wo ich mein System aufgerüstet habe. Ansonsten hatte ich immer Ausreichend Potente Hardware gehabt. Und Lustigerweise war es immer nur 1 Komponennte die ich Ausgetauscht oder erweitert habe. Bei Far Cry damals bin ich bpn 256 MB auf 512 MB RAM rauf und für NFS Undercover eben ne weitere 3870.
 
Zurück
Oben