Leserartikel 4 Monitore an einer GPU? - Retroartikel zu Multi Monitor

In den 90ern Jahren war die Welt noch in „Ordnung“, eine Grafikkarte hat ein Bild ausgespuckt und das hat gereicht. Der dafür zuständiger RAMDAC (Random Access Memory Digital/Analog Converter) wurde schneller, was zu einer höheren Hertz Zahl bei gestiegenen Auflösungen führte. Dieser war wichtig, da die Grafikchips rein Digitale Signale erzeugten, die CRTs (Röhrenbildschirm) aber ein Analoges Signal brauchten, um den Elektronenstrahl entsprechend zu lenken.

Radeon HD 3450 X2 Jaton (1 21zu9).JPG


Inhaltsangabe


Die 90er

Doch nach und nach kam das Bedürfnis auf, auch einen zweiten Monitor oder TV zu befeuern. Bei Nvidia machte bereits die Riva 128 Serie den Anfang, wobei hier möglicherweise das entweder oder Prinzip zum Einsatz kam, sprich ein RAMDAC für einen Monitor oder TV, denn ein TV-Encoder bedeutet nicht automatisch, dass ein zweiter RAMDAC installiert ist.
Später war es die GeForce 2MX, zwar langsamer als die vollwertige GeForce 2 Serie, die dafür aber eine größere Auslegung Richtung Multimedia besaß, was es bei dieser Generation zu einem Alleinstellungsmerkmal im Konzern machte. Ja, wie bereits erwähnt, konnten die Riva 128 und TNT über einen TV Out verfügen, aber die Technik war noch auf dem Stand von Dx5 oder Dx6 und damit nicht mehr zeitgemäß. Denn die GeForce 256 besaß keinen entsprechenden Gegenpart und die MX Reihe war somit die erste Multimedia-Karte Nvidias.
ATi, damals noch kein Bestandteil von AMD, war da schon weiter und bot auch bei den High End Karten Radeon 7500 bis zu drei Ausgänge, von denen zwei gleichzeitig nutzbar waren.
Möglich machte das alles ein zweiter RAMDAC.

3dfx war mit der Auslegung als reine Gaming Karte ein Außenseiter, die bei der Voodoo 3 zwar schon einen TV-Tuner boten, aber beim Nachfolger wurde hauptsächlich nur ein VGA-Ausgang verbaut.

Das Ziel

Was war aber, wenn man mehr als zwei Bildschirme brauchte? Dann musste man halt zwei Grafikkarten einsetzen.
Sollten nicht genügend Steckplätze, hier PCI und PCIe, vorhanden sein, musste man ein Multi-GPU-Gespann auf einer einzelnen Karte realisieren.
Nvidia präsentierte für diesen Fall die Quadro4 NVS 400, die zwei nv17 aka GeForce 4MX Chips auf einem einzelnen PCI (non-e) Board mit sich brachte. Da die Quadro Serie im Profi-Bereich angesiedelt war, schlug der Anfangspreis mit bis zu 1.000€ zu Buche.
Dafür wurden dem Käufer kastrierte MX-Chips geboten, denn der Chiptakt beträgt 220 MHz und der Speichertakt liegt bei 166 MHz DDR, was haargenau den MX 420 entspricht, Nvidias kleinstem Consumer-Chip.
Veröffentlicht wurde diese Karte im Juni 2002, wobei nach der Insolvenz von VisionTek jetzt PNY als Hersteller auftrat.

Quadro NVS400 Radeon R9 Fury (2-03).JPG

Quadro4 NVS 400 vor einer Radeon R9 Fury

Parallel hat Matrox die Parhelia in den Verkauf gebracht, eine der ersten oder gar die Erste Karte mit der Möglichkeit, drei Bildschirme anzuschließen.
Vorher gab es eine Karte mit vier G550 (Condor) Chips auf einer Platine für vier Bildschirme.

ATi wiederum bot im Jahr 2002 eine Monster-Karte mit 4x R300 Chips an.
Nur zum Vergleich: ein einzelner R300 Chip hat 107 Mio. Transistoren, Nvidias Topmodell hat 63 Mio. und der einzelne NVS 400 Chip verfügt über 29 Mio., so wie 80 Mio. Transistoren bei der Parhelia.

technische Daten 01


HerstellernVidianVidiaMatroxMatroxMatroxATiATi/AMDATi/AMDnVidia
Board-herstellerdiversePNYMatroxMatroxMatrox??JatondiversePNY
ChipNV25NV17ParheliaCondorCondorR300RV620RV670G96C
Prozess150 nm150 nm150 nm180 nm180 nm150 nm55 nm55 nm55 nm
Mio. Trans.63 Mio.29801010110*181666314
Trans. pro mm²443,7 K/mm²446,2 K459,8 Kn.a.n.a.511,6 K2,7 M/mm²3,5 M2,6 M
mm²142 mm²65174n.a.n.a.21567192121
*laut Techpowerup (107 Mio. = Wiki und ComputerBase Connect3D Radeon 9700 Pro im Test: Leistungssprung bei hohen Auflösungen (Seite 4) - ComputerBase)

RAMDAC Geschwindigkeiten

KarteGeForce 4 TiGeForce 4 MX / NVS 400GeForce 2 MX (NV11)Matrox ParheliaMatrox G450 QuadRadeon 9700Radeon HD 3450 X2Radeon HD 3850Quadro FX 580
RAMDAC 1350 MHzmin. 240 MHz400 MHz360 MHz400 MHz
RAMDAC 2 (z.B. Chip intern)350 MHz350 MHz (intern?)350 MHz400 MHz200 MHz400 MHz (?)
RAMDAC 3min 270 MHz
Monitore max.max. 4bis zu 2*3bis zu 32 Desktops2
*sofern ein zweiter RAMDAC verbaut ist
You can calculate the max res your RAMDAC allows thusly: [horizontal res * vertical res * refresh rate (Hz)] * (1 MHz / 1,000,000Hz) = RAMDAC speed required (MHz)

Diese große ATi Karte war sicherlich etwas für Evans & Sutherland und andere Anbieter für Simulatoren, laut Google Suche kam diese tatsächlich auch direkt von E & S.
Über einen längeren Zeitraum wurden diese von 3dfx mit Chips versorgt. Entsprechende Karten waren z.B. von Quantum 3D und boten vier Voodoo 2 im SLI oder auch acht VSA-100 Chips.
Wenn weniger die Leistung gefragt war, dafür aber die Multi-Monitor-Unterstützung wichtig ist, setzte man einfach die besagten zwei NV17 Chips auf ein Board und kombinierte das mit einem PLX-Brückenchip. Teilweise ist auch die Aufschrift "HiNT" zu finden.
Aufgrund des sparsamen Verbrauchs war dann auch gleich ein passiver Betrieb möglich.
Quadro NVS400 DIE (01).jpg

Schematische Darstellung des NV17​

Karten

Der Hersteller Jaton ging später einen ähnlichen Weg und packte zwei RV620 Chips auf eine Platine.
Hier die wichtigsten Daten:
HerstellernVidianVidiaMatroxMatroxATiATi/AMDATi/AMDnVidia
KarteGeForce 4 Ti 4200Quadro4 NVS400ParheliaMillenium G450 x4 MMSRadeon 9700 Pro X4Radeon HD 3450 X2Radeon HD 3850Quadro FX580
ChipNV252x NV17Parhelia-5124x Condor4x R3002x RV620RV670G96C
TDP? (<35W*)1x 18W??4x ? (ca. 4x 40W)2x 25W75W40W
DircetX (Dx)Dx8.1Dx7Dx8.1/9Dx6Dx9Dx10.1Dx10.1Dx10.0
OpenGL1.51.51.3?2.03.33.33.3
Pixel-pipelines42x 244x 24x 82x 4168
Textur-units82x 4164x 24x 82x 41616
Pixel Shader40404x 82x 4032032
PS Version1.31.3 (Dx8.1)2.0Unified Shader 4.1Unified Shader 4.1Unified Shader 4.0
Vertex Shader20404x 4///
VS Version1.12.0 (Dx9)2.0///
GPU-Takt250 MHz2x 220 MHz250 MHz4x 125 MHz4x 325 MHz2x 600 MHz668 MHz450 MHz
Shader-Takt-------1125 MHz
Speicher-Takt250 MHz DDR2x 166 MHz DDR300 MHz DDR4x 166 MHz DDR4x 310 MHz DDR2x 500 MHz DDR830 MHz DDR800 MHz DDR
Busbreite128 Bit2x 128 Bit256 Bit4x 64 Bit4x 256 Bit2x 64 Bit256 Bit128 Bit
Speicher-bandbreite in GB/s8,0 GB/s2x 5,31219,22,6564x 19,842x 8,053,1225,6
Speicher in MB64 MB DDR2x 64 MB DDR128 MB DDR4x 32 MB DDR4x 128 MB DDR2x 512 MB DDR2512 MB GDDR3512 MB GDDR3
*der AGP stellt maximal 35 W zur Verfügung

Radeon HD 3450 X2 Jaton (10-01).JPG


DSC_1547.JPG

Mit den beiden RV620 Chips lassen sich keine Bäume ausreißen, auch wenn der Treiber CrossfireX ermöglicht.
Das Testsystem

  • Core 2 Q8300 ES (4x 2,5 GHz)
  • ASRock G31M-GS,
  • 2x 2GB OCZ DDR2 @666 MHz
  • 2,5" 120 GB SSD
  • Windows 7 Pro
Das Vega Testsystem:
  • Ryzen 5 3500U (4x 2,1 GHz, 8 Threads)
  • 2x 8 GB DDR4 @2.400 MHz
  • Vega 8, max. 1,1 GHz
  • 512 GB Samsung NVMe
  • Windows 10/11 Pro
Software

  • 3DMark 2000
  • 3DMark 2001 SE
  • 3DMark 03
  • 3DMark 05
  • 3DMark 06
  • Tropics
  • Sanctuary
  • Aquamark

Testergebnisse

KarteRadeon X1600 ProQuadro FX 580Radeon HD 3450 X2Radeon HD 3450 Single GPURadeon Vega 8
BenchmarkCrossfireX aktiviert
3DMark 20001024*768 @16 Bit19.6684.901n.a.15.962-
@32 Bit19.1295.398-14.023-
2001 SE1024*76816.208-n.a.12.852-
4xAA11.571--6.170-
3DMark 031024*7687.37213.791n.a.4.21429.494
4x AA4.4308.050-2.03814.098
3DMark 051024*7684.62210.4595.5623.918-
4x AA3.8388.1073.8732.478-
3DMark 061280*10241.9724.7733.0401.71110.242
4x AA1.388-2.0081.0866.512
Tropics1024*768151-256138-
4x AA77-16086-
Sanctuary1024*768431-709357-
4x AA404-622313-
Aquamark1024*76849,991-65,32638,427-
Weitere Benchmark Ergebnisse: https://www.computerbase.de/2022-11/gpu-generationen-benchmarks/

Ein Test der NVS 400 steht noch aus, da hier zu zwingend Windows XP oder älter nötig ist. Das entsprechende System muss ich noch aufsetzen sowie die entsprechenden DVI-Adapter kaufen. Als Testsystem bleibt es beim gewohnten Core 2 Quad.

Fazit

Zum Abschluß lässt sich folgendes sagen:
Für die damalige Zeit war es ein guter Kompromiss aus Multi-Display und sparsamen Verbrauch. Nicht jede Anwendung benötigte die Rechenleistung, die die GeForce 4 Ti oder Radeon HD 3870 X2 bereitgestellt hatten. Eine einfache 2D Ausgabe in Kraftwerken etc. haben eine geringere Anforderung als jemand, der ein Starship in CAD abbilden muss.
Insofern war es richtig, auch die kleinsten Chips für diese Boards zu nehmen.

Aus der heutigen Perspektive mutet es seltsam an, dass man für vier Displays zwei Chips brauchte, bieten AMD, Nvidia und Matrox doch mehr Möglichkeiten. Karten wie die RX 6400/6500 werden deshalb auch von der Community bemängelt, da diese nur zwei Displays befeuern kann.
Auf der anderen Seite ist eine Matrox M9188 mit 8x Mini Display Ports, zu einem Preis von 2.000€ das andere Extrem, welches schon am 13.11.2009 eingeführt wurde. Bietet sie doch ebenfalls nur Dx10.1 wie die HD 3450 und schlug damals mit 1.300€ zu Buche.
Beide Karten basieren auf der TeraScale Architektur in 55nm, sind also Geschwister. Um welche Chips es sich genau handelt, verrät Matrox aber nicht und auch wie die doppelte Anzahl an Monitoren realisiert wird, ist mir nicht bekannt, dadurch, dass kein RAMDAC, also ein Digital-Analog-Wandler gebraucht wird, dürfte eine Videowand mit 8 Displays leichter zu realisieren sein als bei der HD 3450 X2, die vier Analoge oder Digitale Monitore befeuern kann. Eindeutig lässt sich nur erkennen, dass ebenfalls zwei Radeon GPUs zum Einsatz kommen.


Preislich kann ich zu der Jaton bisher nichts sagen, da diese weder bei Geizhals gelistet ist noch ich diese in der Wayback Machine gefunden habe.
Eine einzelne ATi Fire MV2260 kam im November 2010 120€ über Alternate (ALTERNATE - HARDWARE - Grafikkarten - PCIe-Karten ATI/AMD - Workstation - ATI Fire MV2260 Display Port (archive.org)).
Diese nutzte ebenfalls den RV620 Chip.
Die FireMV 2400 mit ebenfalls zwei Chips, aber noch auf Basis des RV380 Chips kostete im selben Zeitraum 370€ (ALTERNATE - HARDWARE - Grafikkarten - PCIe-Karten ATI/AMD - Workstation - ATI FireMV 2400 (archive.org)) (ATI FireMV 2400 PCIe x1 Specs | TechPowerUp GPU Database).
Als Basis diente hier die X600 Grafikkarte.


DSC_1543 -03.JPG


Ansonsten bleibt mir nur zu sagen: kommt gut in den Sonntag rein


Weitere Retro-Tests:

SilentFlux (Kühler)
Sunon Waturbo - die kleinste AiO im Test (Kühler)
Thermaltake IFX-14 und HR-10 (Kühler)
Peltierkühler auf dem Sockel 775
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TM30, Innensechskant, Zombieeee und 15 andere
Interessanter Artikel! Ich hatte damals eine Matrox Millenium, so hieß die glaub. Damit konnte ich gut den Mehrmonitorbetrieb gewährleisten. War ne feine Sache. Ich habe allerdings auch nie gezockt, dafür war die Karte damals aber auch glaube ich nicht ausgelegt.
 
  • Gefällt mir
Reaktionen: andi_sco
Witzig und heute befeuert selbst eine popelige Intel iGPU drei Monitore.
Denkt man gar nicht, dass das mal kompliziert war.
Danke @andi_sco :)
 
  • Gefällt mir
Reaktionen: Bits&Bytes, Waldheinz und andi_sco
andi_sco schrieb:
...

Das Ziel

... Dann musste man halt zwei Grafikkarten einsetzen.
Sollten nicht genügend Steckplätze, hier PCI und PCIe, vorhanden sein, ...
Bei den zuvor/darüber genannten Karten müsste es doch aber eher PCI und AGP gewesen sein.

Sehr inforrmativer Artikel, danke. 👍
 
  • Gefällt mir
Reaktionen: andi_sco
Danke für die Mühe.

Toll das sich manche die Arbeit machen und sowas auf die Beine stellen.
 
  • Gefällt mir
Reaktionen: andi_sco
Waldheinz schrieb:
müsste es doch aber eher PCI und AGP
Die Radeon nutzt PCIe und die NVS400 nur PCI, deswegen konnte ich auch beide auf dem Mainboard unterbringen. Ist eventuell etwas missverständlich.


Ironbutt schrieb:
selbst eine popelige Intel iGPU drei Monitore
Mein erster TFT kam auch 320€ in 15", da hat man sich dreimal überlegt, einen zweiten Monitor zu nutzen. Und die Röhre sollte ja vom Schreibtisch dauerhaft verbannt bleiben.
 
andi_sco schrieb:
Die Radeon nutzt PCIe und die NVS400 nur PCI, deswegen konnte ich auch beide auf dem Mainboard unterbringen. Ist eventuell etwas missverständlich.
Ahja, ok, ich hatte mich auf die Aufzählung darüber bezogen und eine MX2 (und Co.) gabs definitiv nicht als PCIe. :D

Zu der Zeit hatte ich noch keinen TV oder 2. Monitor angeschlossen, daher ist mnir das eigentlich auch gar nicht so aufgefallen.
 
  • Gefällt mir
Reaktionen: andi_sco
Schöner Artikel

Ach ja, ich vermisse aus technischer Sicht die alten Zeiten einfach nicht. Hatte vor knapp 20 Jahren das erste Mal 2 Bildschirme am Rechner ausprobiert, mein Monitor und ein kleiner Röhrenfernseher, den ich mit einem Scart-Adapter per Video-Chinch angeschlossen hattte. War aber alles andere als Ideal und nur zum Rumprobieren. Weiß leider nicht, welche meiner Grafikkarten damals aktuell war und ob ich überhaupt schon einen LCD-Monitor hatte oder noch auf meiner Röhre war. Mein erster Flachbild-Monitor existiert sogar noch, verstaubt bei meinen Entern irgendwo auf dem Schrank, müssten 17" im 4:3 Format gewesen sein, von LG.

Heute dagegen kann mein aktueller ITX-Zwerk insgesamt 7 Bildschirme direkt verbinden, vier habe ich zur Zeit angeschlossen, aber nicht ständig über diesen aktiv. Grafikkarte bietet 3 DP und 1 HDMI und Mainboard auch noch 1 DP und 2 HDMI. In den nächsten Wochen werde ich aber noch mal alles Umbauen, dann wird es ersteinmal weniger mit Bildschirmen, nur nicht weniger Arbeitsfläche.
 
  • Gefällt mir
Reaktionen: andi_sco
Interessanter Artikel aber ich bin beim Lesen oft "gestolpert"

AGP wurde kaum erwähnt...

Die Möglichkeiten mit mehreren PCs ein synchronisierten Bild auszugeben auch nicht... MS Flugsimulator z.b.

Zeitliche Chronologie hätte detaillierter sein können und auch einige Lücken bei den GPUs.. gab mehr als rot, grün und vielleicht matrox.

Muss mir das in einer ruhigen Zeit mal genauer durchlesen..

P.S. seit 2005 mit zwei Monitoren unterwegs...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: andi_sco
xxMuahdibxx schrieb:
AGP wurde kaum erwähnt...
Es gab tatsächlich noch eine Radeon 9800 Pro Maxx mit zwei R350 Chips und einer AGP Anbindung.
Hauptsächlich hatte ich jetzt aber PCI oder PCIe gefunden.

xxMuahdibxx schrieb:
mehr als rot, grün und vielleicht matrox
Ist mir bewusst und kann ich gerne als Update nachschieben, sofern ich da was finde.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: andi_sco
xxMuahdibxx schrieb:
Das ist ja Radeon und der direkte Nachfolger ist die oben erwähnte Radeon 7500.

Ja, Matrox war da immer weit vorne, was Multi Monitor betraf.
Ich überlege schon, ob es sich nochmal lohnt, eine Karte mit 4 Chips zu besorgen.
Bisher sieht es nicht danach aus, da der G550 ja eher für den Profibereich gedacht war, ohne Consumer Wurzeln.
 
Gab dann im Workstation Bereich schon Karten mit 2* DVI und 2*lfh60 Ausgängen...
 
  • Gefällt mir
Reaktionen: andi_sco
xxMuahdibxx schrieb:
Matrox hat schon 1979 eine multi GPU rausgebracht für 4 Monitore
Ja, siehe 100 Mio. $ Auftrag in den 80ern.
Nur, vier einfache Chips für die Grafikausgabe zu nutzen ist schon etwas anderes, als bei den späteren Grafik*- und GPU-Chips.
Die NVS 400 wird z.B. hauptsächlich mit dem Finanzsystem und der vier unabhängigen Bildschirme beworben.
Schau mal bei 1982 und 1986, der iSBX275 und der iSBX279 konnten schon Multi Chip, bei intel (ziemlich weit unten "Farbtiefe Multi Chip":
intel Grafikkarten_1.jpg


*Voodoo 2 z.B. ist für mich ein reiner Grafikchip, während mit aufkommen der Shader und dem Berechnen z.B. auf den Radeon X1900er Karten schon mehr Richtung Computing geht.
 
Es dauerte ja auch eine Weile, eh der RAMDAC in die GPU wanderte. Es gab auch viele Mitspieler für RAMDAC‘s auf dem Markt. Bis MultiGPU (Multi Monitor) für den Heimgebrauch richtig einfach war, gab es halt nur Profi-Lösungen, meist in Form von zwei GPU. Das Betriebssystem musste wie auch das Mainboard bei der Verteilung der Resourcen mitspielen ..
Als die Bildausgabe wider digital erfolgte, war das Problem quasi gelöst (also weg von VGA)

Beispiele für Unterschiedliche RAMDAC-Hersteller:

IBM:
052C0650-6E01-41EB-9540-0FECAA32A037.jpeg


TexasInstrument:
8C27D188-8AB2-48F7-A5A5-464FEBEB4E60.jpeg


S3:
85586ADE-6178-4074-864C-F86A56AD8C53.jpeg


ICS:
01211733-1AC6-4E16-9E95-EAFB993A8868.jpeg


Drei Beispiele für Multimonitor-Lösungen:

VLB-Grafikkarte mit Switch für 1. und 2. GPU:
EF288167-0F0F-4386-8A1E-D0163981C9A6.jpeg


3C68006A-0C42-4BA0-A63D-659ED56EAF1C.jpeg


Vier Trio64 GPU auf einem Board für 4 Monitore:
0CB7EDD5-6CDB-4174-BF2A-3827019AB5AE.jpeg


EF88F150-E610-49B1-A95D-F39ECD0C576B.jpeg


GeForce Quadro 2MX:
46095040-0ECE-4B44-A43F-4223C2520C1C.jpeg
 
  • Gefällt mir
Reaktionen: xxMuahdibxx und andi_sco
Zurück
Oben