News Asus stellt zwei neue Grafikkarten mit HDMI vor

Volker

Ost 1
Teammitglied
Dabei seit
Juni 2001
Beiträge
14.699
Asus hat zwei neue Grafikkarten vorgestellt, die über das „HDMI Certified“-Siegel verfügen. Bei der ersten Variante mit Radeon HD 2600 Pro handelt es sich um einen Ableger von AMD und mit der GeForce 8600 GT wurde auch ein Modell von Nvidia ins Portfolio integriert.

Zur News: Asus stellt zwei neue Grafikkarten mit HDMI vor
 

hardwärevreag

Commander
Dabei seit
Mai 2006
Beiträge
2.762
Warum kann man nicht einfach einen HDMi-Port einbauen, warum gibts da diese Adapter-Geschichte?

Für mich ist das alles bloß Geldschneiderei durch "kreative" Namensgebung, denn man kann schließlich sogut wie jede neue Karte mit so einem Adapter HD-ready machen...
 

dogio1979

Admiral
Dabei seit
Aug. 2006
Beiträge
7.311
weil man immer einen Adapter braucht. Wenn ich zwei Monitore anschließen will, oder eine sehr hohe AUflösung fahren will, brächte ich einen Adapter, wenn das gerät einen HDMI-Port hätte

Die Preise wären mal interessant gewesen und ich vermute mal die ATi Radeon hat nicht 265 sondern 256 MB Speicher
 

hardwärevreag

Commander
Dabei seit
Mai 2006
Beiträge
2.762
Nerin, man braucht keinen Adapter, wenn das Ganze anstzändig gelöst worden ist:

beispiele: 7600Gt Diamond Edition von MSI oder die neue 8600GTS von MSI in der "Diamond Edition" oder wie auch immer das Zeugs heißt...
 

Tsoonamy

Cadet 4th Year
Dabei seit
Juli 2006
Beiträge
80
@hardwäre: ne so gut wie jede karte geht nicht hd ready, da dvi ja keinen kopierschutz unterstützt, und das muss eine "richtige" hdmi-karte schon, oder bin ich da falsch informiert?
 

DaDare

Fleet Admiral
Dabei seit
März 2007
Beiträge
12.509
ahah wer´s braucht ich nicht man spielt eh bis 24" machne könnten so einen anschluisss haben es gibt auch 30" die gut sind wie einer von Samsung mit hdmi ich schätze mal das macht so MAXIMAL 20% der PC besitzer aus
 

henroldus

Ensign
Dabei seit
Juni 2004
Beiträge
130
blödsinn!
das sind doch keine HDMI Karten nur weil ein adapter dabei liegt!
man kann an jeden DVI Ausgang anderer Karten auch so ein Adapter hängen, sound fehlt trotzdem noch.
die hohe Auflösung schafft auch jeder Dual Link DVI Ausgang, aber wer braucht die, Maximum ist derzeit 2560 x 1600 auf nem 30" Moni und die sind mit der Karte bereits unspielbar
 

hardwärevreag

Commander
Dabei seit
Mai 2006
Beiträge
2.762
der Kopierschutz heißt HDCP (High Bandwith Digital content-Protection und kann mit DVI und HDMI genutzt werden...

Vorausgesetzt, dass Bildschirm und Grafikkarte mitspielen...

Wies mit Analog-Audio aussieht, weiß ich nicht...

@Vorredner:

Nicht jeder mensch spilt nur rum, manche machen vll. auch Office etc. - das wär doch genial seine openOffice-tabellen auf einem 48"-LCD-Fernseher anzeigen zu lassen [Wenn allesd richtig konfiguriert ist und mann einen gekauft hat, der was mit Computerauflösungen anzufangen weiß...

danebst kan man sagen, dass ich keinen Fernseher besitze und der Pc für mich alles ist, was Multimedia angeht...
 
Zuletzt bearbeitet:

-=MavericK=-

Lt. Junior Grade
Dabei seit
Jan. 2005
Beiträge
320
du brauchst ja nur nen HDMI adapter wenn das anzeigegerät einen HDMI port besitzt....

Monitore die HDCP über DVI beherrschen brauchen ja keinen HDMI port....

und die wenigsten Monitore bieten zur Zeit einen HDMI port...Die Mehrheit nutz HDCP über DVI weshalb ein HDMI port in den wenigsten fällen gebraucht wird...
 

hardwärevreag

Commander
Dabei seit
Mai 2006
Beiträge
2.762
Dan sollen sie vormiraus einen HDMi-Port einbauen und einen DVI-Adapter [ja, gibts auch] beilegen...

Alles andere ist allerdings eine trügerische namensgebung, da man mit HDMI eine viel höhere bandbreite als mit DVi hat, die man so künstlich herabsetzt, was im umgekehrten Fall kein Prroblem darstellt...

PS: Vll. streiten wir uns allerdings aucvh shon umsonst:

Display-piort lässt grüßen!
 

magnum80

Cadet 3rd Year
Dabei seit
Aug. 2006
Beiträge
43
Es gibt schon HDCP über DVI, muss man aber genau gucken, ob die jeweilige Karte das hat. Wenn man eienn HDMI Anschluss hat, ist HDCP immer mit dabei. Wenn man aber einen Adapter benutzt, um von DVI auf HDMI zu gelangen, muss natürlich der DVI Port HDCP haben. Wenn die Karte direkt HDMI Ports dran hat, ist auch HDCP garantiert, so sehe ich das.

Jetzt kommt aber noch ein großer Pferdefuß. Wie in dem Artikel hier in Computerbase beschrieben gibt es Karten (sehr viele der aktuellen ATI und nVidia Generationen), die zwar DVI mit HDCP haben, aber oft nur Single Link, also für niedrige Auflösungen. Für Auflösungen über 1600*1200, wo Dual Link benutzt wird, gibt es dann keinen HDCP. Daher drauf achten, dass Karten HDCP für DVI DUAL Link haben!!!! Das ist bei den hier in den News erwähnten Karten eigentlich der Fall (Ati 2600 und nv8600). Generell beide sehr gute Home Cinema Karten, laut dem erwähnten CP Artikel.

HDMI hat gegenüber HDCP over DVI einen Vorteil, weil da auch gleich der Ton digital mit kommt. Das unterstützt aber bisher nur ATI.
 
G

Gelbsucht

Gast
Die Hersteller sollten diese Adapterlösungen entsorgen und echte HDMIkarten für HTPCs auf den Markt werfen. Echtes HDMI gehört meiner Meinung nach nur auf die kleinen Karten -möglichst passiv- und gut.

Diese hier ist ansich ein Armutszeugnis, denn meine X1600pro AGP hatte vor relativ genau einem Jahr einen echten HDMI-Ausgang und einen Anschluß für die Audiodaten auf der Platine.
 

henroldus

Ensign
Dabei seit
Juni 2004
Beiträge
130
@hardwärevreag

dann zeig mir mal ein 48" LCD TV mit 3840 x 2400 Auflösung.
wer nicht spielen will für den ist die Karte wiederum überdimensioniert.
 
T

towa

Gast
hmm bissel ungerecht ungleiche Leistungen zu gewähren bei den beiden Karten, die ATi im Nachteil, zumindest was den Takt angeht,
schade ASUS warum bloß!?
 

halo4@SETI[CB]

Lt. Junior Grade
Dabei seit
Jan. 2002
Beiträge
489
@hardwärevreag

dann zeig mir mal ein 48" LCD TV mit 3840 x 2400 Auflösung.
wer nicht spielen will für den ist die Karte wiederum überdimensioniert.
Überdimensioniert?
Also ich weiß nicht, du willst mit einer 2600er Karte spielen? Dieses ganze DX10 geblände wirkt wohl bei ziemlich vielen....

gothic 3 kannste mit den 2600XT nicht mal in 1024er auflösung flüssig spielen und und bei Call of duty gehts in 1024er Auflösung gerade noch so (40FPS), zum vergleich mal eine etwas angestaubte X1950Pro (kostet ca. das gleiche) bringt bei call of duty bei den selben settings über 80FPS!
 

bongat

Ensign
Dabei seit
Aug. 2007
Beiträge
212
@7
btw, wenn man 2 TFTs an der Karte hat, wie ich, dann kannst die Bildpunkte addiern. D.h. in meinem Fall sind das dann 3520 in der Horizontalen weil die TFTs (20" + 24" Syncmaster) nebereinander stehen. Windows spukt dir dann 3520px in der Breite aus ... hätte ich 2 x 24" würde es mit der Obigen Karte schon knapp werden.
Die Leistung ist also nicht nur auf einen Monitor bezogen.
Übrigens gibt es jede Menge Leute, die auf so hohen Auflösungen spielen. Das sind dann diejenigen, die nicht mehr über das Geld nachdenken müssen. Kenn jedenfalls jede Menge!
 

hardwärevreag

Commander
Dabei seit
Mai 2006
Beiträge
2.762
Ok, dann möchte ich mich mal rechtfertigen:

http://geizhals.at/deutschland/a228836.html

Ist zwar nur 42" und ich hab mich jetzt nicht eingehender über das Ding informiert, aber das sollte schon gut kommen...

Übrigens stimmt auch die weit verbreitete Annahme nicht, dass HDMi HDCP garantiert - Bei den ersten HDMI-Karten war es meines wissens nicht so!

Edit:

Nvidia unterstützt natürlich auch digitalen Ton - dieser wird meistens über die digitale SPDIF-Ausgabe des Audiochipsatzes gemanaged und nicht über einen zusätzlichen auf der Grafikkarte, was ich für deutlich überlegen halte...

Ach so, dass gerede nur die Low End Chipsatze HDMI bieten sollen ist nicht gerechtfertigt.

Leute wie ich wollen kompetente lösungen, die selbstverständig Multimedia und Grafikpracht uneingeschränkt beherrschen...

für mich tut es da eine Midrange-karte, um meine Strategiespiele in bester Qualität darstellen zu könne, aber für andere leute wird es auch anders sein!
 
Zuletzt bearbeitet:

Hurrycane

Lt. Commander
Dabei seit
Mai 2007
Beiträge
1.725
was soll ich mit soner auflösung?
ich nutze nichmal die hälfte^^
1280x1024^^
 
Top