News Im Test vor 15 Jahren: ATis Radeon HD 4870 X2 griff nach der Leistungskrone

Auch heute noch ein Schwergewicht. Das Lüfterkonzept des Referenzlayouts fand ich schon immer dämlich, deswegen sind die meisten Karten heutzutage wohl auch tot. Die GLH Variante, wenn man denn mal eine findet, werden idR. intakt angeboten bzw. sind es noch, so wie auch diese hier.

IMG_6036.JPG
IMG_6037.JPG
IMG_6038.JPG
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DerFahnder, aid0nex, LETNI77 und 19 andere
Chris_S04 schrieb:
und danach wollte ich kein System mit Multi-GPU mehr, die Nachteile waren dann doch zu nervig.

Nicht genügend viele Vorteile, die Nachteile konnte man beheben.

Mir war die Frickelei mit Framelimitern und vor berechneten FPS via Treiber aber immer zu aufwändig.

Wenn man es ordentlich baut, hat man immer noch die Chance, wieder auf den Stand von 3DfX zu kommen. Die Voodoos im SLI waren einfach nur geil.

Das ist ja aber schon fast 30 Jahre her. kA, wo das Wissen geblieben ist, wie man es ordentlich macht.

wickedgonewild schrieb:
Das Lüfterkonzept des Referenzlayouts fand ich schon immer dämlich

Kühler, es geht um den Kühler. Die Lüfter machen sonst nur Lärm. Einen 3 Slot Kühler auf solch eine Karte zu schrauben und den mit unzähligen Heatpipes auszustatten, war damals aber eher "science fiction"

mfg
 
  • Gefällt mir
Reaktionen: SweetOhm
Frei stehender Big Tower, dazu reichlich mehr Lüfter, als damals üblich waren. Ich hatte das Teil nur kurze Zeit, dann konnte ich es günstig weitergeben und meine Nvidia 8800 GTS 512 wurde wieder eingebaut.

Ach, diese himmlische Ruhe danach, wieder! :-))

Die Mehrleistung habe ich nie gebraucht. War ein reines "nice to have".
 
  • Gefällt mir
Reaktionen: NMA, lubi7 und -=[CrysiS]=-
Schicke karte aber wie bei fast allen CF/SLI karten zu wenig Speicher, bei diesen karten habe ich mir immer doppelten vram gewünscht, daher hatte ich selbst zu dem zeitpunkt noch ein sli setup mit 2 9600gt 1024 drin gehabt
 
  • Gefällt mir
Reaktionen: NMA
vom Formfaktor her, würde ich sagen, die 4870X2 geht als Einsteiger GPU durch. Jede RTX 3050 ist heute größer :D
 
  • Gefällt mir
Reaktionen: dualcore_nooby
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA, Yesman9277, konkretor und 2 andere
Simanova schrieb:
vom Formfaktor her, würde ich sagen, die 4870X2 geht als Einsteiger GPU durch. Jede RTX 3050 ist heute größer :D
Heute ist das kein Problem, aber früher steckten oft auch noch andere karten im Gehäuse, soviel Platz gab es einfach gar nicht.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
[wege]mini schrieb:
Kühler, es geht um den Kühler. Die Lüfter machen sonst nur Lärm. Einen 3 Slot Kühler auf solch eine Karte zu schrauben und den mit unzähligen Heatpipes auszustatten, war damals aber eher "science fiction"

Nein, ich schreibe Lüfter und ich meine Lüfter. Der Kühler an sich, mag in Ordnung sein. Ein Radiallüfter, der die Abwärme der hinteren GPU zur vorderen bläst ist einfach nur dumm. Meinetwegen können wir uns auch auf Kühlkonzept einigen.

Was die "unzähligen" Heatpipes angeht... es sind 4 :rolleyes:.
 
Hatte ich! War ne richtige Turbine, und im Winter konnte ich die Heizung locker auslassen :)
 
SuperHeinz schrieb:
Ich hatte seinerzeit mein Netzteil von Corsair mit 700 Watt gegen was Stärkeres austauschen müssen.
Wutt?
Die Karte lief bei mir mit einem Enermax 460Watt ohne Probleme.
 
  • Gefällt mir
Reaktionen: ÖX45
Eine 4870X2 hab ich auch noch hier im Regal stehen :D

IMG_20230805_123839.jpg
 
  • Gefällt mir
Reaktionen: LETNI77, SweetOhm, Geringverdiener und 11 andere
Hab hier auch noch eine defekte rumliegen, der VRAM hat nach einiger Zeit die Segel gestrichen, "Backen" hat auch nichts mehr geholfen, gleiches Problem hatte auch schon die 3870 X2.
 
Vulture schrieb:
Neben den bereits erwähnten Problemen mit der Lautstärke, Temperatur und Leistungsaufnahme war da aber auch noch das berühmt brüchtigte Mikroruckeln und die Tatsache, dass jedes Spiel die Crossfire-Spielerei auch unterstützen musste. Wenn ein Studio da keinen Bock drauf hatte, stand man im Regen und hatte effektiv nur noch eine normale 4870 (mit 1GB Speicher) zu Verfügung. Und selbst wenn Crossfire unterstützt wurde gab es häufig Probleme mit der Implementierung.
.exe Renaming löste 95% aller Probleme.
Zudem litt sie wie alle Multi-GPU-Systeme unter Mikrorucklern, die Spiele trotz hoher Bildwiederholraten stottern ließen.

Microruckler gabs nur, wenn der Anwender nicht wusste wie er mit Multi GPU in DX9/DX10 (ohne DX10.1) Zeiten umzugehen hatte. Auch der selbsternannte allwissende Grafikkartengott hier auf CB war nie Imstande, auch nur einen richtigen Test abzuliefern.


Ja, SLI und Crossfire (Alternate Frame Rendering) konnten zickig sein. Auch gab es die eine doch häufiger genutzte Engine, die immer Probleme hatte, Frames anständig auszugeben. Aber auch diese Engine konnte man bändigen.

Das, was heutzutage absolut normal und gängig ist, war vor 15 Jahren noch völlig utopisch. Tests mit Vsync on?!? Frame Limiter?!? Nein, mit diesem Teufelszeug benche ich nie jemals nicht niemals!!! Auch nicht, um zu zeigen, dass dann quasi alle Microruckler plötzlich weg sind!!!11elf...

Ich hatte Crossfire mit der X1800er Reihe, dann mit der HD3000er Teihe, und dann mit der HD5000er Reihe.

Und nie unlösbare Probleme und stets gute Mehrleistung im Bezug zur Einzelkarte. Crysis skalierte damals sogar zu fast 95% Mehrleistung.
 
  • Gefällt mir
Reaktionen: 416c, Zarlak, NMA und 5 andere
CDLABSRadonP... schrieb:
Das war damals schon ein Jahr lang bekannt:
Ein Jahr ist absolut gar nichts. Es hat viele Jahre gedauert, bis Software und auch Games so langsam Multi-Core tauglich wurden. Bis heute gibt es kaum ein Spiel, das von mehr als 8 Kernen profitiert, anfangs konnten selbst 2 Kerne kaum sinnvoll genutzt werden. Dieser Logik nach hätte man damals also auch sagen müssen "Multi-Core, so ein Schwachsinn, brauchen wir nicht!". Ein oder zwei Jahre reichen absolut nicht aus, um sagen zu können, ob sich gewisse Hürden überwinden lassen oder nicht.

Und es ist ja nicht so, dass man alles auf ein Pferd gesetzt und normale GPUs verworfen hätte. Diese Dual-GPUs haben einen winzigen Bruchteil am Gesamtmarkt ausgemacht. Es war ein Ansatz, den man erprobt hat und der auch nach Jahren mit zu vielen Schwierigkeiten verbunden war, sodass man ihn - zumindest beim Gaming - verworfen hat. Es ist aber gut, dass man solche Erfahrungen gemacht hat, nur so gibt es Fortschritt.

Aber in einem Land, dessen Behörden noch vorwiegend mit Fax-Geräten kommunizieren und in dessen Schulen noch Overhead-Projektoren verwendet werden, wundert mich Kritik an Innovationsbereitschaft mittlerweile auch nicht mehr.
 
  • Gefällt mir
Reaktionen: Nick.Bo
Raucherdackel! schrieb:
Microruckler gabs nur, wenn der Anwender nicht wusste wie er mit Multi GPU in DX9/DX10 (ohne DX10.1) Zeiten umzugehen hatte.
Das ist einfach nur falsch.
Mikroruckler sind ein "Feature" von AFR, also Alternate Frame Rendering, bei dem jeder Grafikchip abwechselnd ein Bild berechnet. Der Effekt läßt sich Treiberseitig etwas abmildern, war aber immer vorhanden. Liegt in der Natur der Sache. Mit der API oder dem Anwender hatte das genau null zu tun.
 
  • Gefällt mir
Reaktionen: NMA und cbmik
Man konnte es aber halt mit V-Sync oder Framelimit abmildern, weil man dann weniger Ausreißer bei den Frametimes der beiden Karten hatte. Ohne Limit hat die eine Karten bspw. nen Frame nach 8ms fertig, die andere den nächsten nach 14ms und mit V-Sync oder Limitierung auf 60 fps ist dann keine Karte schneller als 16ms.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 416c, Zarlak, NMA und 3 andere
Zurück
Oben