News GTX 1080 Ti FTW3 Elite: EVGA erhöht auf 12 GHz effektiven Speichertakt

Der-Orden-Xar schrieb:
Also nich nutze DVI noch, um da einen VGA-Adapter dranzupacken.:freak:

Das funktioniert bei den aktuellen Karten sowieso nicht mehr - die vier Kontakte um das "Minus" herum fehlen. Laut Bildersuche scheinen 980 Ti und Maxwell-Titan das beste zu sein, was man noch mit VGA-Ausgang bekommen kann.

Zum Glück bin ich seit 2009 nicht mehr darauf angewiesen - ab da waren 120 Hz kein Alleinstellungsmerkmal von Röhrenmonitoren mehr.
 
mackenzie83 schrieb:
schon wieder:

warum schleppt man bis zum erbrechen uralte standards bei solchen karten mit. der DVI Port gehört gestrichen. wer so eine GPU kauft, benutzt auch kein DVI mehr, viel mehr ist so eine GPU für die Wasserkühlung ausgelegt und mit einer passenden blende könnte man daraus eine singleslot karte machen, z.b. für kleine systeme, wo die doubleslot kühler einen port verdecken. ich begreifs nicht. bisher konnte man es bei den letzten Kingpin versionen ja auch so lösen... :rolleyes:

Wenn dir etwas zu viele Anschlüsse hat, kauf dir einen Apple. Da kannst du dir dann auch sämtliches Zubehör alle 2 neue Jahre neu kaufen weil auf ein neues Kabel umgestellt wird.

Du hast echt nichts besseres zu tun, als über vorhandene Kompatibilität zu meckern, also bitte, geh und kauf dir einen Apple wenn das Blendendesign echt alles ist was an so einer GPU für dich wichtig ist.
 
LOLinger78 schrieb:
6GHz macht doch eigentlich jede 1080ti mit, oder täusche ich da?

scheinbar recht unterschiedlich.
meine gigabyte aorus macht noch 6250mhz problemlos und bei 6300mhz kommen erste bildfehler.
daher läuft sie sicherheitshalber mit etwas weniger (6220mhz)
 
Ich nutze DVI und werde es dir nächsten Jahre auch noch.
 
mackenzie83 schrieb:
warum schleppt man bis zum erbrechen uralte standards bei solchen karten mit. der DVI Port gehört gestrichen.

Warum? Aus Technologischer-Sicht ergibt das kein Sinn. Ich nutze auch, trotz Wakü, noch DVI weil es einfach ein solider Stecker ist welchen man fest schrauben kann.
 
Ich glaube ihr unterschätzt, wieviel alte Hardware noch im Umlauf ist. Meist wird wenn nur der Rechner getauscht. Der Monitor erst, wenn er nicht mehr funktioniert, oder zu klein ist. DVI ist prima für FHD und das ist immer noch die meistgebrauchte Auflösung.
 
@yummycandy

Auch für 1440p ist es kein Problem.
 
Mit HBM2 wäre noch deutlich mehr Bandbreite drin, bei gleichzeitig geringerem Stromverbrauch und geringerem Platzbedarf. Schade, das die Hersteller sich so schwer damit tun. Hoffentlich für Volta dann!
 
Shaav schrieb:
Ich vermute da sind dann andere Speicherchips drauf. Meine FTW3 läuft nach OC mit lediglich 5900 Mhz.
Meine FTW3 Gaming macht die problemlos mit.
Die sollen lieber mal den AIO als Standalone für die FTW3 endlich bringen :)
 
Nutze DVI auch noch für den Zweitmonitor. Da sind auch alle Anschlüsse verwendet.
DVI Main PC/als Zweitmonitor
HDMI für ne PS4
Displayport für nen NUC als Hauptmonitor
Also bin ich einigermassen froh, das gewisse Karten noch DVI haben :D
 
Schon klar das HBM mehr Vorteile bietet als nur eine gute Bandbreite.
Aber was nutzt dem Endverbraucher der ganze Schnickschnack wenn für ihn nichts davon zu spüren ist.

Es sei denn Vega64 wäre ohne HBM2 nur noch so schnell wie eine 1070 und würde ohne HBM2 anstatt 400 Watt dann 450 Watt verbrauchen. Wenn das Gesamtpaket nicht stimmt, reißt auch HBM2 die Karre nicht aus dem Dreck.
 
Cool Master schrieb:
Warum? Aus Technologischer-Sicht ergibt das kein Sinn. Ich nutze auch, trotz Wakü, noch DVI weil es einfach ein solider Stecker ist welchen man fest schrauben kann.

Wohl war. Display Port Stecker haben so oft Wackelkontakte das es nicht mehr feierlich ist.
 
cookie_dent schrieb:
HBM2 halt nur den Nachteil das er zu teuer ist, kaum lieferbar ist und sich nicht hoch takten lässt.
Somit sind fast alle Vorteile von HBM verspielt.
Und wenn ich mir die Speicherbandbreite von Vega64 mit HBM2 ansehe, ist dieser sogar langsamer als GDDR5x.
Vega64 484 MB/s zu 1080Ti 528 MB/s.

Und wenn GDDR6 nächstes Jahr rauskommt kann HBM2 ganz einpacken:

https://www.heise.de/newsticker/meldung/Ab-Anfang-2018-Grafikkarten-mit-superschnellem-GDDR6-Speicher-3694595.html
Hatte hbm2 nicht an sich ordentlich Reserve, wenn der unter 80-85°C bleibt? Mir war so, als ob buildzoid da sowas fallen lassen hat...
 
Zurück
Oben