News Zotac: GeForce 9600 GT mit sechs Ausgängen

HisN schrieb:
Wenn man sie wenigstens alle gleichzeitig nutzen könnte^^. Sind aber bestimmt nur zwei Ramdacs auf der Karte^^

RAMDAC braucht man aber nur für analoge Endgeräte, was bei den HDMI und Displayport wohl kaum der Fall ist. Daher würden 2 RAMDACs ausreichen, einer für den D-SUB + DVI, einer für den S-Video.
Ansonsten braucht man heute fast keine Digital/Analog-Wandler mehr auf den Grafikkarten.
 
Dann bleibt nur noch die Frage, wieviele Monitore gleichzeitig bei welcher Auflösung das Ding verkraftet.

Möchte mal wissen, warum so viele Leute sich wegen Adaptern beschweren. Es ist ja nicht so, dass man laufend den Monitor an und abstöpselt. Und selbst dann erleichtern einem Adapter die Arbeit, weil sie aus dem Kabelsalat am Towerrücker herausragen.
 
Die Karte sehr ähnlich der Xpertvision 9600 GT, die schon seit einigen Monaten erhältlich ist. Wer auf die analogen Anschlüsse VGA und TV-Out verzichten kann, kann sich auch mal die angucken. Einen eigenen Kühler und Dualslot bietet auch die Xpertvision.

Mehr als 2 Monitore kann man mit den normalen Nvidia-/ATI-Treibern aber nie gleichzeitig ansprechen. Da muss man dann auf eine zweite Karte (k.A. wie das bei SLI/CF funktioniert) oder eine gleich Matrox nehmen. Bisher konnte man ja auch nicht 2x VGA und 1x TV gleichzeitig nutzen. Warum das seit Jahren begrenzt ist, weiß ich nicht. An Windows liegt's nicht, an den Treibern irgendwie auch nicht.

Wer braucht dann so viele Anschlüsse? Also ich brauche mindestens drei: 2x DVI für meine beiden Displays und dann optional noch einen HDMI für den Beamer. Sicherlich könnte man den Beamer auch per Adapter an einen DVI-Anschluss anschließen, aber dafür müsste man immer hinter den Rechner krabbeln. DisplayPort könnte auch für die interessant sein, die sich demnächst einen neuen Monitor mit DisplayPort kaufen wollen, aber vorher noch eine neue Grafikkarte, die noch ein paar Monate an den alten Monitor angeschlossen werden soll. Mein Bruder schaut z.B. gerne Filme/Serien über den Fernseher, der gleich neben dem PC steht (seitlich gedreht). Wenn der noch einen Beamer hätte, bräuchte er schon mal 1x DVI, 1x TV-Out und 1x HDMI. Wenn er zwei Monitore, wie ich hätte, bräuchte er schon mal 2x DVI, 1x TV-Out und 1x HDMI. Es gibt also Bedarf.

Zum Preis: Diese Karten sind nicht sonderlich teurer als die Standard-Karten. Meine kam damals 10 € mehr, wenn ich mich recht erinnere. Sie war wohl etwas billiger als die OCed-Versionen. Hält sich also in Grenzen.
 
Crimson_LP schrieb:
Net schlecht der kühler gefällt mir auch durch aus.
Nur ein verstehe ich nicht warum denn VGA.
Jeder hat doch DVI oder eine Adapter für VAG zu DVI(so wie ich).

Mit dieser Argumentation lassen sich dann aber alle Anschlüsse hinterfragen. Es gibt ja wohl für jeden Ausgang einen Adapter, dann bräuchts ja nur noch einen.
 
Zuletzt bearbeitet:
Nette Sache, allerdings sinnlos, solange man nicht alle Anschlüsse gleichzeitig nützen kann.
2x DVI + HDMI fürn Flat-TV wären ideal, aber wie schon gepostet wurde begrenzen alle Treiber auf 2 Displays/Karte und damit ist das Konzept irgendwie ad absurdum geführt.
 
Ist eigentlich bekannt ob man alle anschlüsse gleichzeitig nutzen kann?
Wenn nicht wie wird dann das umschalten zwischen den Ausgängen realisiert?
 
Was war denn am normalen Layout 2xDVI und 1xSVideo so schlecht, dass man sich SO ein überfrachtetes Slotblech geschaffen hat? Mit DVI kann man per einfachem Adapter alles haben, was man will, bei ATi sogar Ton, bei nVidia lächerlicherweise (fast bei allen Karten) nicht, was die HDMI-Anschlüsse nochmal in ihrer Überflüssigkeit steigen lässt.
Den SVideo abzuschaffen halte ich für eine schlechte Idee. Er ist und bleibt die vernünftigste Lösung, auf eine analoge Weise TVs anzubinden, die sonst nichts können außer Komponente oder Scart. Hat ja (noch) nicht jeder eineLCD TV-Gerät mit tausend digitalen Eingängen.
 
Frage zum Thema RAMDAC - so viel ich weiß waren die alten so leistungsfähig, dass ein RAMDAC pro Karte reichte... aber kann mich auch irren...
 
Tommes3001 schrieb:
Ja, mit der 4850 wird ein Adapter DVI->HDMI mitgeliefert. Aber da frage ich mich wozu. Denn dann kann ich nen Monitor auch direkt per DVI anschließen.
Oder übersehe ich da irgendetwas?

ja, hdcp und all die schönen fernseher/beamer, die kein dvi eingang haben, dafür tausend hdmi.

meien 4850 kann den sound übrigens auch unter xp durchschleifen, nur wer will das denn ernsthaft?

ac3 paththrough via spdif heisst die lösung.

der digitale hd-sound (dd true hd) ist meinstens schlechter gemastert, wenn man mich fragt aber das ist ja auch geschmackssache. ich finde, da fehlt es an dynamik und klangfarbe.

bye
 
Das ist ja mal eine interessante Karte. Da ich gerade dabei bin, mir die Komponentenfür einen HTPC zusammenzusuchen, wirds mit dieser Karte erst richtig interessant
 
Sehr dumm das ganze über die beiden DVi Ausgänge kann man locker das Vga mit durchschleifen, wozu haben die sonst ein fünftel der Fläche des Steckers für analog RGB bereitgestellt??
Das ist reines Marketing, würde mcih wundern wenn die Karte mehr als 2 Verschiedene Bilder Gleichzeitig darstellen kann...
wenn man wirklich Multimonitor betrieb hat dann bitteschön 6 DigitaleAnaloge schnittstellen DVi, 4 würdne auch reichen, so einne Cluster aus 4 Full HD 32" LCDs wären "endgeil" ob man damit noch arbeiten bzw aus 4m entfernung dies kann, ist eine andere Frage. Zum Zocken wärs genial nur dann ist die Leistung einer solchen Karten wieder zugering :-( also zurück zum reinen Marketinggag....
 
Ist eigentlich bekannt ob man alle anschlüsse gleichzeitig nutzen kann?
Wenn nicht wie wird dann das umschalten zwischen den Ausgängen realisiert?

Nein, man kann nicht alle Ausgänge gleichzeitig nutzen, sondern nur zwei. Das ist bei allen Karten von ATI und Nvidia so. Matrox kann mehr Monitore ansteuern. Ansonsten bleibt nur eine zusätzlich separate PCI-Karte.

Das Umschalten erfolgt über die Nvidia-Systemsteuerung, genauer gesagt über deren Systray-Icon. Auf das kann man klicken und dann die Ausgangskombination wählen. Das ist ausreichend komfortabel und besser als jeder Adapter-Kram. Zumal ich noch nie 2x DVI + 1x HDMI auf einer Karte gesehen habe.
 
Zurück
Oben