News GTX 1080 Ti FTW3 Elite: EVGA erhöht auf 12 GHz effektiven Speichertakt

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
12.842
Sind wir damit effektiv dann bei 50% mehr Performance als bei einer VEGA 64 angelangt? (bei 2/3 des Energiebedarfs)

*und eine kleine Träne rinnt gen Mexico*

@mackenzie83
Mein Reden seit Jahren, zumal das Referenzdesign ja genau so gestrickt ist, platzsparend ohne DVI.
Am liebsten wäre mir ja die Platine OHNE montierten Kühler:
Geld, Zeit & Material gespart... und Gewicht (Versand freut sich)... und an die Umwelt gedacht.
 
Zuletzt bearbeitet:
schon wieder:

warum schleppt man bis zum erbrechen uralte standards bei solchen karten mit. der DVI Port gehört gestrichen. wer so eine GPU kauft, benutzt auch kein DVI mehr, viel mehr ist so eine GPU für die Wasserkühlung ausgelegt und mit einer passenden blende könnte man daraus eine singleslot karte machen, z.b. für kleine systeme, wo die doubleslot kühler einen port verdecken. ich begreifs nicht. bisher konnte man es bei den letzten Kingpin versionen ja auch so lösen... :rolleyes:
 
6GHz macht doch eigentlich jede 1080ti mit, oder täusche ich da?
 
@Fragger
@mackenzie

Das kann man dann aber den ganzen DAU's nicht zumuten, das man denen quasi "nur" eine fertige Platine vor die Füße wirft.

Was meint ihr, warum wir seit Jahren bei den CPU's mit Heatspreadern "beglückt" werden?
 
Ich vermute da sind dann andere Speicherchips drauf. Meine FTW3 läuft nach OC mit lediglich 5900 Mhz.
 
basilisk86 schrieb:
...

Was meint ihr, warum wir seit Jahren bei den CPU's mit Heatspreadern "beglückt" werden?

Damit eben jeder DAU einen Kühler montieren kann, was ist so schlimm daran.
Das funktioniert doch auch wunderbar und ich bin da nicht böse drüber... Hauptsache ordentlich verlötet.

Jetzt stelle Dir mal Threadripper und Core i9 OHNE Heatspreader vor... 1000-2000 Euro CPU geschrottet, weil der Kühler schief aufkam bzw. der Anpressdruck zu ungleichmäßig war.
APPLAUS und vielen Dank auch... Nicht.
 
Zuletzt bearbeitet:
mackenzie83 schrieb:
schon wieder:

warum schleppt man bis zum erbrechen uralte standards bei solchen karten mit. der DVI Port gehört gestrichen. wer so eine GPU kauft, benutzt auch kein DVI mehr,
Also nich nutze DVI noch, um da einen VGA-Adapter dranzupacken.:freak:
und solange ich mir nicht 2 neue Monitore kaufe, bleibt der Monitor mit VGA-Anschluss auch als 2. (3.) Monitor erhalten:evillol:
 
LOLinger78 schrieb:
6GHz macht doch eigentlich jede 1080ti mit, oder täusche ich da?

Zumindest in die Nähe kommt fast jeder, ja. Die spannende Frage ist wie im Artikel erwähnt, ob bereits 12Gbps Chips verwendet werden, denn die könnte man dann ja auch noch übertaten und die die Bandbreite weiter erhöhen. Allerdings ist der Effekt selbst bei UHD relativ gering. 9% mehr Bandbreite resultieren nicht in 9% mehr FPS - leider. Dennoch, kostenlos kann man das mitnehmen :D
 
Fragger911 schrieb:
Damit eben jeder DAU einen Kühler montieren kann, was ist so schlimm daran.
Das funktioniert doch auch wunderbar und ich bin da nicht böse drüber... Hauptsache ordentlich verlötet.

Jetzt stelle Dir mal Threadripper und Core i9 OHNE Heatspreader vor... 1000-2000 Euro CPU geschrottet, weil der Kühler schief aufkam bzw. der Anpressdruck zu ungleichmäßig war.
APPLAUS und vielen Dank auch... Nicht.


Ja, das würde bedeuten, das wir dann bei den GPU's auch so ne gecoverte Variante bekommen würden mit einer Art riesen Heatspreader wie bei Intel auch... nee dann lieber die Variante, da kann ich selbst entscheiden was ich will und damit anstelle.

Die Kartenhersteller kriegen doch so kaum die Kühlung entsprechender Bauteile vernünftig hin, so das man auch bei einer Fertiglösung manchmal noch Hand anlegen muss.

Deine Grundidee ist super, aber viele DAU's mit zwei linken Händen würden einfach bei Misslungenen Versuchen das ganze Widerrufsdingen missbrauchen und die Kosten würden die GraKa Hersteller letztlich wieder auf die Kunden abdrücken.
 
Und wv. bringt diese Speichertakterhöhung an Leistung? Braucht die Karte überhaupt diese Speicherbandbreite oder schafft sie es eh nicht diese auszulasten?
 
mackenzie83 schrieb:
schon wieder:

warum schleppt man bis zum erbrechen uralte standards bei solchen karten mit. der DVI Port gehört gestrichen. wer so eine GPU kauft, benutzt auch kein DVI mehr, viel mehr ist so eine GPU für die Wasserkühlung ausgelegt und mit einer passenden blende könnte man daraus eine singleslot karte machen, z.b. für kleine systeme, wo die doubleslot kühler einen port verdecken. ich begreifs nicht. bisher konnte man es bei den letzten Kingpin versionen ja auch so lösen... :rolleyes:

Ich würde lieber einen DVI nutzen, da die Stecker einfach besser vor dem Abfallen gesichert sind. Leider hat meine 1080Ti FE keinen DVI mehr und so muss ich notgedrungen den Display-Port nutzen.
 
Der-Orden-Xar schrieb:
Also nich nutze DVI noch, um da einen VGA-Adapter dranzupacken.:freak:
und solange ich mir nicht 2 neue Monitore kaufe, bleibt der Monitor mit VGA-Anschluss auch als 2. (3.) Monitor erhalten:evillol:

Über 800 Euro für eine Grafikkarte bezahlen, aber keine 100 Euro für einen Monitor. Macht echt Sinn. ;)
 
und am besten auch auf hdmi verzichten. nur dp verbauen und für alles andere gibt es (passive)adapter...
display port hat mMn. auch eine gute arretierung.
 
Fragger911 schrieb:
Sind wir damit effektiv dann bei 50% mehr Performance als bei einer VEGA 64 angelangt? (bei 2/3 des Energiebedarfs)

Warum sollte die geringe Erhöhung der SPEICHER-Taktes solche gravierenden Auswirkungen haben ? Das sind vielleicht 1-2% mehr nicht.
 
Shaav schrieb:
Ich vermute da sind dann andere Speicherchips drauf. Meine FTW3 läuft nach OC mit lediglich 5900 Mhz.

Ich vermute eher, dass im BIOS entsprechend Timings hinterlegt wurden, damit der Takt möglich ist. Aber mehr werden wir erst bei einem Testbericht wissen.
 
projectneo schrieb:
Zumindest in die Nähe kommt fast jeder, ja.

Also bei mir jedenfalls problemlos 6GHz.
Aber mein Chip macht auch 2088MHZ (1.062V) und bei 1.025V immer noch 2075MHz mit.
Hatte ggf. etwas Glück mit meiner Karte.
 
DarkerThanBlack schrieb:
Über 800 Euro für eine Grafikkarte bezahlen, aber keine 100 Euro für einen Monitor. Macht echt Sinn. ;)

2 Moniere wenn schon, da mir 2 langsam auch schon zu wenig für maximalen Komfort werden. :D
und dann währen wir bei >450 €, 350+ für einen GSync Monitor + einen der den alten mit VGA ersetzt.
(Was wieder ein Grund für AMD wäre aber das ist was anderes)

Ansonsten gilt das was flappes schreibt^^
 
Der DVI wundert mich auch, denn bei ordentlichen Verkaufszahlen könnte EVGA hier durch eine platzsparendere Karte den Gewinn noch etwas optimieren. Die paar "Einzelfälle" mit DVI können locker lässig zu irgendeinem Adapter oder Hardware-Link á la DP > VGA und so weiter, wechseln.

Ansonsten würde ich hier gerne Benchmarks und vor allem Informationen zur Lautstärke sehen. EVGA als Service-König macht mich immer hellhörig.
 
Zurück
Oben