News Grafikkarte: Erste Bilder der Nvidia GeForce GTX 980 Ti

Bei Battlefield 4 leider nur 1080p und niedrigeren Settings, da leider der 1GB RAm der Flaschenhals ist.
Aber es läuft flüssig.
War auch schon immer dafür das NV seinen Gewinn weiter steigert und der Titan X nur 2GB verpasst, im allgemeinen freut es ja jeden Käufer wenn NV 10GB Vram einsparen kann und somit die Aktionäre glücklich macht. Des weiteren spielt ja jeder Tetris auf niedrig und braucht so viel Vram nie. Auch nicht in ein paar Jahren, da kommt dann Tetris 2.0 und braucht auch nur 1,5GB Vram. High End Karten ordentlich Vram zu verpassen war schon immer eine schlechte Idee für NVs Gewinn. Man will ja schnell wieder neue GPUs verkaufen und nicht langlebige Monster erschaffen, völlig am Kapitalismus vorbei entwickelt. Volle Zustimmung meinerseits.
 
Also wie immer diese 4gb der AMD Karte gerissen werden ist mir ein rätsel... Ihr tut alle so als hätte die 4gb ddr5 ...

Ich kann mich nicht erinnern einen test gesehen zu haben bei dem hbm 4gb in spielen keinen Vorteil gegenüber 4 GB ddr 5 hat.

Ihr sollte euch alle mal nicht soweit aus dem Fenster lehnen und Dinge verurteilen die es noch gar nicht gibt ...

Aber die kompetenten user hier wissen ja immer schon alles vorher ....
 
TTJoe schrieb:
In meinen Augen werden alle über den Tisch gezogen.
Die ganze 900er Serie ist davon betroffen.

Von der Leistung dürfte eine 960 höchtstens die Bezeichnung 950ti haben.
Die 970 dürfte demnach auch nur eine GTX 960/ti sein usw.
Aus diesem Grund war die 970 beim Start auch etwa bei 300 € angesetzt,
halt eine günstig produzierte Karte und trotzdem noch zu teuer.

Hinzu kommt dann auch noch der beschnitte 4GB Ram, der sobald die letzten 0,5 GB genutz werden müssen total vekackt.
Deshalb auch das Bestreben im Treiber, dass nur die 3,5 benutzt werden können. >ist in meinen Augen gar Betrug.

Nun kommt die 980ti die beschnitten ist.> GM 200
Bei Kepler war es noch ein Vollausbau. > GK 110

Die jetzige Titan dürfte sich eigentlich nur 980/ti nennen.

Alle Karten sind beschnitten wo es nur geht, dadurch sind diese auch effeizienter vom Verbrauch.
Dazu kommt dann noch das die Karten höher bezeichnet werden, damit man gigantische Preise abverlangen kann.Leistung wird nur durch sehr hohe Taktraten erbracht.

Und ja, es gibt genug, die dass mit sich machen lassen und die Kohle hinlegen, dass gibt "den Herstellern" dann auch noch recht.

Im Übrigen wird in den erforderlichen Ram viel zu viel rein interpretiert.
Blos weil 4 GB Ram voll sind, werden diese nicht unbedingt benötigt bei Full HD, um ein flüssiges Gamen zu gewährleisten.
Was da ist wird halt auch genutzt. Für Otto-Normal-Verbraucher dürften 2 GB Ram bei 1080p weiterhin audsreichen.

Grafik-Mods benötigen dann vieleicht auch mal mehr Ram.

Bei mir läuft im Übrigen alles noch mit 1GB DDR5 Ram, siehe Signatur.
Mass Effekt 3 geht auch gut mit 2550x 1440 mit höchster Qualität :).

Bei Battlefield 4 leider nur 1080p und niedrigeren Settings, da leider der 1GB RAm der Flaschenhals ist.
Aber es läuft flüssig.

Gruss vom TTjoe

Die Karten in der Leistungsklasse sind ja auch nicht für FHD sondern für 1440p oder schon höher gedacht. Wer sich ne 1000€ Karte holt und nur mit FHD spielt hat es nicht anders verdient.^^ DSR- und SSAA-User natürlich ausgenommen.

Mass Effect 3? Bitte wie alt ist das Spiel inzwischen? 3 Jahre? Albernes Beispiel.
 
Zuletzt bearbeitet von einem Moderator:
Alles nur eine Frage der Zeit. Irgendwann kommt jeder in das Alter in dem er keine >300€ mehr für sowas ausgibt :D

Mittlerweile belächel ich neue Grafikkarten nur noch, auch wenn die AMD Karte sehr interessant wird.
 
Hallo,

also für den mittlerweile ausgelutschten Chip und den Preis kein Vollausbau, ist einfach nur schwach. Sowas nennt man halbherzig.
 
Hallo,

also solche Behauptungen mit DX 12 ist alles nur wilde Spekulation. DX 12 gibts noch nicht. Also kann auch niemand behaupten ein Produkt unterstützt das zu 100%. Abwarten Leute und nicht vorab solchen Müll verbreiten.
 
jap, das stimmt, habe auch gerade die Quelle gesucht und war nur ein statement zu den Tiers aus der AMD Präsentation Maxwell-1 und Maxwell-2 seien Tier 2, aber ohne Nvidia Quelle ...
 
Zuletzt bearbeitet:
Eine einzige Enttäuschung diese 980 Ti, vorallem zum angepeilten Preisniveau.
 
kisser schrieb:
:rolleyes:

Lübke hat Recht, denn es gibt nur maximal FL 12.1.

Wieso änderst meinen Text in dem Zitat? Habe 12_1 geschrieben!

BaserDevil schrieb:
Hallo,

also solche Behauptungen mit DX 12 ist alles nur wilde Spekulation. DX 12 gibts noch nicht. Also kann auch niemand behaupten ein Produkt unterstützt das zu 100%. Abwarten Leute und nicht vorab solchen Müll verbreiten.

Em, sicher gibt es das in der Win 10 Preview. sogar die Featurelevel sind angegeben in den fertigen Nvidiatreibern. ;-)
 
Zuletzt bearbeitet von einem Moderator:
Ist wirklich erschreckend wie die uns preislich schröpfen wollen. Ab 2070€ für SLI & nen guten WQHD Monitor ist schon übel, & selbst dann hat man(n) laut PCGH GTA Bench min. 43 FPS, & bestimmt nicht mit Ultragras & dick geschattet. Mit Customkühler & Werks-OC bestimmt 850€ das TI Stück. Kühler & BIOS modding lohnt sich für mich vom zeitlichen Aufwand nicht mehr wirklich. BIOS modding hat ja auch noch bis zur 680er spaß gemacht.
Wäre die letzte (übertriebene) Investition auf meiner betagten Plattform. & in der Hoffnung die TI´s nach ihrem (schnellen) zeitlichen ableben noch zu nem guten Kurs zu versteigen.:freak:
 
Wahrscheinlich wird es dann eine GTX 980 Ti Ultra in Vollasbau geben, so wie man Nvidia kennt ;-)

edit:
Vor allem, wenn die langsamer oder gleich schnell wie die Fiji sein wird...
 
Zuletzt bearbeitet:
Bin gespannt wann die ersten Customs erscheinen, oder ne gerüchte Ti Ultra zu Weihnachten?
 
natürlich wirds laufen wie bei der GTX 780 ... die kam auch davor und später wenn AMD die WCE bringt (mit vllt 8GB) wird Nvidia eine GTX 980 TI Black oder sowas bringen (Q4) mit deutlich höheren Taktraten. Die wird dann vermutlich aber immer noch 6Gb haben.

Ich zitiere mich mal selbst von März

Krautmaster schrieb:
ist doch klar wie der Hase läuft:

-> GTX TITAN X (1000$, März 2015) -> GTX 980 TI (zb) (~550$, Ende Q3) -> R9 390X 4GB HBM (Ende Q3 ~500$) -> R9 390X WCE 8Gb HBM (Q4 ~>700$)

Und Leistungsmäßig:

-> Fiji Cut ala R9 390 (eventuell 380X) -> GM200 Cut ala GTX 980 TI (zb) > ggf eine R9 390X (Luft)-> GTX TITAN X -> R9 390 X WCE -> ggf eine TITAN X Black (Q4)

Die GTX TITAN X ist eben Top End bis die WCE Edition der R9 390X kommt. Was Richtung Ende des Jahres sein dürfte. Es wird laufen wie bei der R9 290X, so dass Nvidia kurz vor Release der neuen AMD Karten noch ein 6Gb Modell mit cut GM200 raushauen wird das etwa gleich zieht mit der 4 GB AMD HBM Karte. Eventuell schiebt Nvidia noch eine OC Black Edition nach. Beide, die GM200 CUT als auch die LuftKü R9 390X mit Fiji (vllt auch eine R9 380X mit cut Fuji) werden etwa gleich auf sein. Fiji ist wohl genau wie GM200 fertig, hier verzögert eher der Speicher (gerade auch die 8GB Variante).

Eventuell kommt der GM200 Cut ausch schon bald wie die GTX 780 damals kurz nach der TITAN kam.

Krautmaster schrieb:
steht bei Heise. Nicht April. Andere Quellen sagen dass es auf H2 verschoben wurde. Ich spekuliere nach wie vor auf Ende Q2 oder wie bereits gesagt Q3.

@Daedal

meinst du die 8 Gb HBM Karte kommt im Q2? Wir werden sehen. Ich glaube nicht daran. Eine 4GB WCE Karte maybe. Das wäre denkbar.

Ich mein mir solls recht sein, wegen mir kann das 8GB Modell asap kommen. Ich würd gern aufrüsten und hätte gern min 8 GB Vram.

Gut Ende Q3 wird es wohl nicht wobei das im ersten Post auf breite Lieferbarkeit bezogen war. Bin mal gespannt wie es da bei AMD aussieht. Vor Q3 kommt sie eh kaum beim Kunden an.
 
Zuletzt bearbeitet:
Ich glaube ja das AMD mit 8GB Karte daherkommt ..

Also nicht das mich das irgendwie interessieren würde, genauso wie das 6GB eigentlich auch ausreichend sein sollten

Die Grafikkarte hat jetzt ein Ti rechts neben der 980 stehen -sehr spannend ;)

Wer wirklich unbedingt viel VRAM brauch/will sollte eine 8GB Karte nehmen ...

Bleibt halt wirklich abzuwarten was der HBM so kann ... 8GB sollten es bei den kommenden Preisen aber schon sein

Naja - ich bleib erst mal bei der GTX 970 ...

Vielleicht hat AMD ja irgendwann wieder was gutes und bezahlbares zu bieten ( vor der GTX 970 eigentlich immer ATi/AMD )
 
Whoozy schrieb:
Hey ich hoffe, Wolfgang wird diesmal kritischer auf den Grafikspeicher schauen und auch testen ob dieser in der Bandbreite beschnitten ist.
Das wird wohl nie alt, darüber zu jammern, oder?
Nvidia hat hier bewußt eine technische Beschneidung bei der 970 gewählt um den Unterschied zwischen 970 und 980 zu vergrößern. Hätte die 970 volle Bandbreite gehabt wäre damit der Sprung zur 980 noch kleiner und die 980 hätte noch weniger Abnehmer. Bei der 980Ti die als Consumer High End verkauft wird, wird wohl kaum eine solche Beschneidung stattfinden. Hier sind ja offensichtlich lediglich ein paar Shader zur Titan deaktiviert und der Speicher verkleinert und damit war es dass dann auch schon an Unterschieden. Da passt der Preisunterschied zur Titan auch gut ins Verhältnis.
Ich kann das Gejammer bei der 970 auch langsam nicht mehr hören. Die bringt genau die Leistung die mehrmals getestet wurde und wer besondere Extremsettings hat und sich mit der Materie befasst der wußte schon im Vorfeld, dass der beschnittene Mittelklasse Chip eben nicht die Lösung für ihn ist.
 
Sp1derschwein schrieb:
6GB würden mir bei meinen 1440p schon gefallen, allerdings hätte ich Angst, dass es anfängt zu ruckeln, wenn nVidia sich nicht mehr darum kümmert, dass der Treiber den Speicher begrenzt. Oder gibt es Software, mit der man den Speicher selber begrenzen kann?

Nein, sogar noch schlimmer:

Zum einen wird den Entwicklern unter DirectX 12 ein direkter Zugriff auf die Hardware geboten,
somit wäre es unter Umständen nicht mal per Treiber abstellbar.

Möglich wäre das nur mit einem neuen Bios.

Eine KArte mit langsameren Speicher ist sozusagen eine tickende Zeitbombe oder passender ein schleichender Plattfuß.

Ich finde, die 3 Karten (980ti, 390, 390X) sollen ruhig ordentlich teuer werden.

Irgendwer muss ja die Entwicklung meines Arctic Island oder Pascal in 14nm mit fast doppelt so vielen Shadern bezahlen.
Wer jetzt noch auf 28nm setzt, nachdem 20 nm ausgelassen wurden und mit 14nm wirklich deutlich mehr Chip Fläche zu Verfügung steht
und somit ein gewaltiger Performancesprung ins Haus steht, dem ist Geld sowieso egal. :p
 
Zurück
Oben