News Gigabyte Aorus Xtreme: RTX 2080 mit 7 Ausgängen und drei 100-mm-Lüftern

DVI, VGA, geschenkt! Aber warum zum Teufel gibt es noch immer keine einzige Karte mit TB Ausgang? TB Only Displays lassen sich so nicht an normalen PCs betreiben ohne Extrakarten, Kabel etc.
Einmal TB3 und die Sache wäre erldigt. Alles drin was man braucht. Stattdessen 3-4 Mal den gleichen Anschluss.
 
Siran schrieb:
Dann werden es halt nur 5 DP/HDMI und 1 DVI... Es gibt noch genug 144Hz Monitore die nur über DVI 144Hz mitmachen.
Halb so wild, lässt sich doch adaptieren.
 
  • Gefällt mir
Reaktionen: johnssson
Roche schrieb:
Und wozu sollte man bei einer Spielerkarte diese ganzen Ausgänge benötigen? Die Karte ist doch nicht mal in der Lage eine Kombi aus 3 Monitoren und der entsprechenden Auflösung ordentlich zu befeuern.

Das "Extreme" im Namen bezieht sich woll auf "extreme hässlich". Die Optik ist ja wirklich bäähhh.
Hm drei "normale" Monitore, ein TV, ein Beamer und ein aktuelles VR-Headset mit HDMI-Schnittstelle und die Ports sind voll.
So extrem aus der Welt ist das also garnicht. Ein Spiel muss sich ja nicht über alle Bildschirme erstrecken.
Auch beim Design muss ich dir wiedersprechen:
Finde ich garnicht so übel. Da haben Palit, Inno3D Kfa und vor allem EVGA mit ihrer Plastik-Abdeckung deutlich tiefer ins Klo gegriffen.
(Wobei ich es immer noch erstaunlich finde, dass es kein einziger Custom Hersteller auf die Reihe bekommt einen ähnlich hochwertig ansehlichen Kühler zu bauen wie die Founderskarten von Nvidia selbst.)
 
  • Gefällt mir
Reaktionen: Obvision und Dandelion
cypeak schrieb:
selbst vor 5 jahren waren monitore mit hdmi üblich - wer damals eine dvi-only krücke gekauft hat...nun..selbst schuld!
ich glaube mein letzter dvi-only monitor war ein benq 19zöller wähend meiner studentenzeit um ca. 2003!
Nein war es nicht.... Sieh dir deine Monitore an. Sind das Standard-Monitore? 600€+ Monitore sind seltener als BMW M_ in München. Normale Leute haben 100 bis max 200€ Teile und die haben noch immer teilweise nur DVI und VGA, weil Mainboards oftmals einfach nur jene Anschlüsse haben. HDMI oder gar DVI kommt zwar, ist aber nicht Standard.
Du darfst nie von dir ausgehen, sondern vom typischen 400€ Office Rechner mit 100€ Monitor.
 
  • Gefällt mir
Reaktionen: Obvision und ChuckBROOzeG
Das ist doch die Höhe, da bringt Gigabyte eine hochmoderne Grafikkarte mit 7 Ausgängen auf den Markt und vergisst, zumindest einen EGA-Anschluss zu verbauen. ;o)

All die Rufe nach DVI in allen Ehren, aber der hat auf einer so modernen Grafikkarte einfach nichts mehr zu suchen und nimmt zu viel Platz weg.

Wer noch ein Anzeigegerät mit DVI sein Eigen nennt, kann auch einen Adapter nutzen.

Wer 7 Abschlüsse braucht, weiß auch wozu und wer nicht weiß wozu, der braucht sie auch nicht.

Mit 3x 100 mm Lüftern und entsprechenden Lüfterkurven, könnte die Karte etwas für Silentfans werden.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: n1t, Shoryuken94 und Dandelion
Siran schrieb:
Sieben Videoausgänge und für einmal DVI hat's immer noch nicht gereicht...

Ist heute halt auch kein wirklich moderner Anschluss mehr und ja ich weiß du hast einen 5 Jahre alten Monitor mit DVI... SVI war aber auch vor 5 Jahren schon eine Auslaufanschluss.

Dominicus1165 schrieb:
Normale Leute haben 100 bis max 200€ Teile und die haben noch immer teilweise nur DVI und VGA, weil Mainboards oftmals einfach nur jene Anschlüsse haben.

Also ich habe noch paar olle BenQ Einstiegsmonitore von 2011 in der Ecke stehen und selbst die haben HDMI. Klar gibt es immer irgendwelche Billigteile die zum Release stark veraltete Technik kaufen, aber wenn ich sowas kaufe, habe ich halt irgendwann Pech. Klingt böse, aber da muss ich mich halt informieren. Ich kaufe mir ja auch keinen aktuellen Dacia und erwarte Top Moderne Assistenzssysteme

Generell verstehe ich hier das Gemecker noch weniger als bei der Klinke beim Smartphone. Ein Adapter bzw. ein entsprechendes Kabel (HDMI / DP auf der einen Seite und DVI an der anderen) wird permanent verlegt. Und wenn ich dann 5 Jahre später mir eine Graka für 800-1000€ kaufe, dann sollten mich zur not ein paar andere Kabel oder ein Adapter für 5-10€ nicht so doll stören.

Siran schrieb:
ch werde mir erst einen neuen Monitor zulegen, wenn es bezahlbare G-Sync Monitore...

Haha bezahlbare G-Sync Monitore, der war gut. Wenn ich mir so Nvidias Preispolitik ansehe, wirst du wohl noch in 10 Jahren keinen neuen Monitor haben.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Sind wohl bestimmt gedoppelte Phasen :/.
Ob die damit dann wirklich besser sind als die 8 der FE ? Aber immerhin kann man damit fett werben. Wie bei einigen 1080ti's
Oder es gibt die Überraschung und es sind 12 echte Phasen und es wurde mit einem speziellen Voltage Controller gearbeitet oder mehrere verwendet !?

Naja aufjedenfall bin ich auf das PCB gespannt.
 
Dandelion schrieb:
Schick und dezent. Gefällt mir. Die Kühlleistung sollte bei den Ausmaßen ja durchaus erhaben sein. Sieht auf jeden Fall nicht zu sehr verspielt und BLINGBLING aus.
Was freu ich mich auf die Tests der neuen Karten und Partnerdesigns :smokin:

Oh ich hatte mal die Gigabyte 1080 Ti "schlagmichtot" Modell..... Der Riesenlüfter impliziert nicht eine leise Kühlung, geschweige denn, eine "erfolgreiche".

Und Optik und "Anfassgefühl" waren so wie "Plastikbomber"....
 
cypeak schrieb:
selbst vor 5 jahren waren monitore mit hdmi üblich - wer damals eine dvi-only krücke gekauft hat...nun..selbst schuld!
ich glaube mein letzter dvi-only monitor war ein benq 19zöller wähend meiner studentenzeit um ca. 2003!
Nochmal: Der Monitor nimmt 144Hz nur über DL DVI entgegen. Natürlich hat er auch HDMI, damit gehen aber nur 60Hz, weil der eingebaute Transmitter nicht mehr packt. Das haben aus der Zeit viele Monitore und auch noch viele der Nachfolgemonitore.

Selbst wenn über HDMI mehr als 60Hz geht muss man das oft mit manuellen Timings eintragen bei den älteren HDMI 1.4 Monitoren.
 
  • Gefällt mir
Reaktionen: Oneplusfan
Siran schrieb:
Sieben Videoausgänge und für einmal DVI hat's immer noch nicht gereicht...

Für was wenn du das mit jeden anderen Port und 20cent Adapter selber bewerkstelligen kannst, DVI oder VGA brauch kein schwein mehr!
 
Shoryuken94 schrieb:
Ist heute halt auch kein wirklich moderner Anschluss mehr und ja ich weiß du hast einen 5 Jahre alten Monitor mit DVI... SVI war aber auch vor 5 Jahren schon eine Auslaufanschluss.



Also ich habe noch paar olle BenQ Einstiegsmonitore von 2011 in der Ecke stehen und selbst die haben HDMI. Klar gibt es immer irgendwelche Billigteile die zum Release stark veraltete Technik kaufen, aber wenn ich sowas kaufe, habe ich halt irgendwann Pech. Klingt böse, aber da muss ich mich halt informieren. Ich kaufe mir ja auch keinen aktuellen Dacia und erwarte Top Moderne Assistenzssysteme

Generell verstehe ich hier das Gemecker noch weniger als bei der Klinke beim Smartphone. Ein Adapter bzw. ein entsprechendes Kabel (HDMI / DP auf der einen Seite und DVI an der anderen) wird permanent verlegt. Und wenn ich dann 5 Jahre später mir eine Graka für 800-1000€ kaufe, dann sollten mich zur not ein paar andere Kabel oder ein Adapter für 5-10€ nicht so doll stören.



Haha bezahlbare G-Sync Monitore, der war gut. Wenn ich mir so Nvidias Preispolitik ansehe, wirst du wohl noch in 10 Jahren keinen neuen Monitor haben.

Daher soll der Monitor auch noch so lange halten, verstehe nicht warum das für so viele ein so schwer zu verstehendes Konzept ist. Wegschmeißen einen Monitor der noch tadellos funktioniert??

Und Adapterkabel, zumindest passive, schaffen wie erwähnt kein DL DVI.

HDMI hat mein Monitor ja, nur gehen darüber keine 144Hz, für die ich mir den Monitor damals eben geholt habe.
Ergänzung ()

Retro-3dfx-User schrieb:
Für was wenn du das mit jeden anderen Port und 20cent Adapter selber bewerkstelligen kannst, DVI oder VGA brauch kein schwein mehr!
Einfach mal lesen, ein 20 Cent Adapter packt kein DL DVI für 144Hz
Ergänzung ()

Ennea schrieb:
Ja dann, weg mit dem Scheiss :D
Tolle Idee, kaufst Du mir dann einen neuen Monitor?
 
  • Gefällt mir
Reaktionen: Cpt.Willard, MeisterOek und Oneplusfan
Siran schrieb:
Ganz einfach, weil es keine passiven DP/HDMI auf Dual Link DVI Adapter gibt (auch wenn manche China-Kabel das behaupten, ist aber physikalisch gar nicht möglich). Und es braucht DL für 144Hz. Für nen aktiven Adapter kannste Dir gleich nen neuen Monitor holen.

Nicht ganz, das größere Problem ist, dass die alten HDMI < 1.4 Anschlüsse keine 144Hz bereit stellen. Elektrisch ist HDMI zu DVI-I und DVI-D kompatibel, aber selbst HDMI > 1.4 kann halt nur 120Hz bei FHD.
DP auf DVI ist da ne ganz andere Nummer, dass klappt idR. noch schlechter.

Ich kann beide Seiten verstehen, einerseits nervt es mich, wenn ich nicht 3 Monitore eines Typs angeschlossen bekomme, weil unterschiedliche Anschlusstypen immer etwas anders aussehen, auf der anderen Seite besitze ich wie viele Leute selber noch alte Monitore die super funktionieren und nur DVI bieten.
Was Schnittstellen angeht können es Hersteller nicht allen recht machen.

BTT:
So ein Klotz und ob die Kühllösung was bringt, steht auch in den Sternen. Positiv ist, dass sie relativ Kurz ist.
Extrem wird vermutlich nur der Preis sein :D
 
Shoryuken94 schrieb:
Haha bezahlbare G-Sync Monitore, der war gut. Wenn ich mir so Nvidias Preispolitik ansehe, wirst du wohl noch in 10 Jahren keinen neuen Monitor haben.

Naja bezahlbar ist auch echt Definitionssache.. Ich habe beim MM Deal meinen HP Omen 27 für 450€ bekommen, damit kann ich leben :D
 
Retro-3dfx-User schrieb:
(...) DVI oder VGA brauch kein schwein mehr!

Schweine brauchen in der Regel überhaupt keinen Anschluss und in den seltensten Fällen überhaupt eine Grafikkarte.

Ich kann den Ärger verstehen, wenn ein Monitor z.B. 144 Hz nur über DVI liefern kann, aber das ist dann ein Designfehler des Monitors.

Für alle normalen Szenarien gibt’s einen Adapter.

Man muss realistisch sein, DVI stirbt aus und wird auch nicht wieder zurückkehren.

Entweder man geht mit der Zeit oder man geht mit der Zeit.

Das ist ganz sicher weder schön noch sympathisch, aber die Realität.

mediafrost schrieb:
und die Karten wären dann deutlich teurer ;)

[IRONIE] Darauf kommt’s bei 2080 und 2080 Ti nun auch nicht mehr an! [/IRONIE] ;o)

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: TheBear1517
Siran schrieb:
Nochmal: Der Monitor nimmt 144Hz nur über DL DVI entgegen. Natürlich hat er auch HDMI, damit gehen aber nur 60Hz, weil der eingebaute Transmitter nicht mehr packt. Das haben aus der Zeit viele Monitore und auch noch viele der Nachfolgemonitore.

Selbst wenn über HDMI mehr als 60Hz geht muss man das oft mit manuellen Timings eintragen bei den älteren HDMI 1.4 Monitoren.

lass mich raten..so ein asus vg278 von 2012/2013?
 
mediafrost schrieb:
Weil der Apfel da derbe Lizenzgebühren verlangt und auch noch Vorschriften macht wie das alles zu handeln ist und die Karten wären dann deutlich teurer ;)

Diese Karte hier kostet vermutlich gut 1000€. Da machen 50€ mehr fürn TB Ausgang auch nichts. Zumal man rund das Doppelte wieder einspart, weil man keine AICs braucht. Das kann nicht das Argument sein.
 
Zurück
Oben