News Gigabyte stellt GeForce GTX 660 Ti mit 3 GByte Speicher vor

Wofür?

Dort wo 2 GByte nicht mehr reichen geht doch auch schon längst die Rohleistung der GPU bzw. auch die Speicherbandbreite aus...
für GPGPU kann's auch nicht sein, da der GK104 dafür gänzlich ungeeignet ist.
 
Die GTX 660 Ti hat genug Leistung um 3GB Speicher in vielen Situationen voll auszuschöpfen. Die ist schließlich nicht viel langsamer als eine GTX670.
 
Smagjus schrieb:
Die GTX 660 Ti hat genug Leistung um 3GB Speicher in vielen Situationen voll auszuschöpfen. Die ist schließlich nicht viel langsamer als eine GTX670.
In vielen Situationen? Würde eher sagen in wenigen Ausnahmen! Es gibt nur eine Hand voll Spiele, die tatsächlich von soviel VRAM profitieren. Ich finde es aber sehr interessant, dass offenbar alle User 3GB VRAM und mehr zwingend benötigen, obwohl nur ein verschwindend geringer Prozentsatz der Spiele dies überhaupt nutzen (wobei es hier auch einen Unterschied zwischen nutzen und benötigen gibt).

Komischerweise konnte ich mit lächerlichen 1,5GB bzw. jetzt 2GB alle Spiele ohne Einschränkung auf 2560x1600 zocken^^
 
ICh finde diesen Kühler als BIG FAIL :freak:

3 Lüfter verbauen ; und dann geht die Abwärme gleich wieder zurück ins Gehäuse und somit wieder in System. Ergibt für mich keinen Sinn.
 
Am Ende wird dann wohl der Preis entscheiden. Ab 275€ bekommt man schon eine 7950 und die haben standardmäßig 3GB Ram. Die Leistung der beiden Karten dürfte identisch sein.
 
Ich warte eigentlich auf leise Kühler, die die Abwärme direkt aus dem Gehäuse transportieren! So wie damals von HIS. :)
 
ICh finde diesen Kühler als BIG FAIL

3 Lüfter verbauen ; und dann geht die Abwärme gleich wieder zurück ins Gehäuse und somit wieder in System. Ergibt für mich keinen Sinn.

Naja, in meinem ITX-Gehäuse macht meine 7950 WF3X keine bis kaum Probleme ;)
 
Sinniges Kühlungskonzept:

HIS_Radeon_HD_7950_IceQ_Turbo_3.jpg


Wobei dies noch verbessert werden kann: 5 Pipes und längere Lamellen bis zum Ende der Karte! Wobei ich kein Ingenieur bin. ^^
 
Zuletzt bearbeitet:
myoizo schrieb:
Komischerweise konnte ich mit lächerlichen 1,5GB bzw. jetzt 2GB alle Spiele ohne Einschränkung auf 2560x1600 zocken^^
Die Auflösung spielt beim VRAM Verbrauch eine untergeordnete Rolle. Das meiste machen die Engine bzw. Qualitätseinstellungen aus. Mit deinen 1,5GB wäre ich bei Skyrim auf maximalen Details OHNE HD Mods nicht hingekommen. Ich nutze eine GTX670 und habe bei den Settings 50 - 80 FPS.

Nutzt man in verschiedenen Spielen HD Mods, ist man schnell an der 2GB Limitierung. Minecraft ist aufgrund der Programmierung auch in der Lage VRAM ohne Ende zu fressen.

Klar ist das häufig auf schlechte Programmierung zurückzuführen, aber ohne den VRAM müsste man hier Abstriche machen.

Es gibt sowohl Spiele, die in der Grundausführung die 3GB knacken (HisN aus unserem Forum kann hier ein Lied von singen) als auch viele Fälle, wo man mit qualitätsteigernden Features, die über die normalen Gamesettings hinausgehen, relativ einfach über 2GB hinauskommt.

Nun möchte ich aber keine Argumente aus der Richtung hören, dass man das ja alles nicht bräuchte. Eine Grafikkarte jenseits 200€ bräuchte man auch nicht. Es geht mir lediglich um das, was die Karte kann.
 
Das wird irgendwie immer erwähnt. Aber sobald MSAA ins Spiel kommt, hat die Auflösung einen erheblichen Einfluss auf den benötogten VRAM.
Natürlich ist vor allem die Texturauflösung entscheidend, aber es ist nichtso als wäre die Displayauflösung nahezu egal.


Cerbaruz schrieb:
3 Lüfter verbauen ; und dann geht die Abwärme gleich wieder zurück ins Gehäuse und somit wieder in System. Ergibt für mich keinen Sinn.
Solange man nen ATX-Tower mit Gehäusebelüftung hat, ist das vollkommen unerheblich. Bei dem Luftwechsel den langsamdrehende 120er Lüfter erzielen, erwärmt sich das Gehäuse kaum.
Und was hat man davon, wenn die warme Luft direkt aus dem Gehäuse geht, wenn die Kühlung dafür laut ist? Also AMDs Referenzkühler mit Radiallüfter sind nicht grad für ihre Laufruhe bekannt.
 
Zuletzt bearbeitet:
Ich wär ja für ne art kühllösung wie bei der gigabyte nur das ein 80er lüfter hir von vorne die luft nach hinten bläst.
absolut grosser nachteil hier wäre das man wohl alle slots belegen müsste :)

Da man aber eben auch nur begrenzten platz hat sind die derzeitigen kühllösungen wohl der beste kompromiss.
DAs einzige das ich mir noch vostellen könnte wäre das man 2 HS komplett nach aussen zu einem passiven kühlkörper führt aber da wäre dann wieder das problem das man so eine karte nicht einfach einbauen könnte sondern müsste sich eine art modullsystem einfallen lassen.

Mann kann nur hoffen das die Entwicklung dahingeht das in 2-3 Jahren Waküs preiswerter werden und auch die gehäuse oben für nen trippleradi platz bieten als standard :)

Naja ich glaube das AA an die Auflösung gebunden ist den bei mehreren Spielen war der vram verbauch immer bei rund 50mb pro stufe fürs AA bei HD unabhängig vom anderen Verbauch der schwankte.
Damals hatte 16x AF auch kaum mehr Auswirkungen auf die fps und auch vram war hier so an di e30mb also gar nichts ;)
Hab allerdings keine leistungsfressenden games derzeit wie bf3. Wenn wer Zeit hat könnte er es damit evtl testen den ich glaube 16x AF kann heutzutage wie damals jede graka nebenbei mitberechnen ohne grossartige fps einbussen.
 
Zuletzt bearbeitet:
Cerbaruz schrieb:
ICh finde diesen Kühler als BIG FAIL :freak:

3 Lüfter verbauen ; und dann geht die Abwärme gleich wieder zurück ins Gehäuse und somit wieder in System. Ergibt für mich keinen Sinn.


hast du diesen kühler schonmal in aktion gesehen?

diese karten sind mit eingriff in die lüftersteuerung unhörbar und bleiben dabei trotzdem kühl...soll heißen bei ca. 25 grad im idle und keine 60 grad nach 2h bf3 auf full hd und max details...zumindest isses bei den zwei 7870 die wir hier haben so..

ich kann deinem argument also nix abgewinnen, da du es mit keinerlei fakten belegen kannst...
 
Ihr vergesst immer, dass es reichlich CUDA-Anwendungen gibt, bei denen man tatsächlich schnell an die Grenze des VRAMs kommt (GPU-Rendering, bspw. mit Octane Render).
 
Rickmer schrieb:
Wofür?

Dort wo 2 GByte nicht mehr reichen geht doch auch schon längst die Rohleistung der GPU bzw. auch die Speicherbandbreite aus...

Für hochauflösende Texturen ist die GPU Geschwindigkeit quasi egal, und Mods gibt es mitlerweile zum Glück für sehr viele Spiele.
 
Vitec schrieb:
DAs einzige das ich mir noch vostellen könnte wäre das man 2 HS komplett nach aussen zu einem passiven kühlkörper führt aber da wäre dann wieder das problem das man so eine karte nicht einfach einbauen könnte sondern müsste sich eine art modullsystem einfallen lassen.
101885-prev_UTX48_T2R.jpg

Ja so ähnlich wie bei die Chipsatzkühlung bei einigen DFI-Boards damals.
Aber so ganz massentauglich ist das nicht.


@digitalangel18
Naja egal auf keinen Fall. Der Speicherdurchsatz muss schon entsprechend hoch sein. Und auch die Texturierleistung entsprechend.
Aber es schon oft so, dass die Speichermenge der limitierende Faktor ist.
 
Zuletzt bearbeitet:
AuScH schrieb:
hast du diesen kühler schonmal in aktion gesehen?

diese karten sind mit eingriff in die lüftersteuerung unhörbar und bleiben dabei trotzdem kühl...soll heißen bei ca. 25 grad im idle und keine 60 grad nach 2h bf3 auf full hd und max details...zumindest isses bei den zwei 7870 die wir hier haben so..

ich kann deinem argument also nix abgewinnen, da du es mit keinerlei fakten belegen kannst...

Kann ich so unterschreiben.. Verstehe nicht, warum der Kühler so schlecht sein soll, zumal er dem AC sehr ähnlich ist (der Grund warum ich die Gigabyte Version gekauft habe)
 
Zurück
Oben