News GeForce GTX 980: Erste 3DMark-Ergebnisse der neuen High-End-Grafikkarte

Turican76 schrieb:
Kommt jetzt auch im Graka Bereich der CPU Stillstand?
Das ist der perfekte Moment für AMD eine echte Leistungsbombe rauszuhauen,damit NV so richtig dumm guckt.

AMD hat in den Konsolen auch die GCN Architektur, die werden eine neue Generation so weit wie möglich hinaus zögern.
 
OMG, nur 5% mehr leistung. Der Shock sitzt gerade tief. :(

Ich hätte mit mindestens 20-30% gerechnet, so wie sich das für eine neue Generation gehört. Aber das ist ja einfach nur lächerlich. Haben die keine Lust mehr oder was soll der Mist??

Damit bleibt es im Single GPU bereich bei 30 -40% mehr Leistung gegenüber meiner HD7950 OC und ich müsste immernoch um die 500-600€ hinlegen.

Angesichts dessen, was Spiele wie Ryse, The Witcher 3 oder StarCitizen unseren PCs abverlangen werden ist das viel zu wenig Leistung. Meine HD7950 packt im letzteren gerade mal so um die 30-40 FPS im Hangar. Und das ohne MSAA, Downsampling oder 4K. Geschweige denn mit 60 FPS. Um da was zu reißen brauchen wir 2-3 Fache Leistung und nVidia kommt hier mit 5% um die Ecke? 5%??!!!

Mein Beileid an Alle, die sich nen 4K Monitor gekauft haben in der Hoffnung ihn mit der neuen Generation vernünftig befeuern zu können.
 
Zuletzt bearbeitet von einem Moderator:
Ehe die ersten Tests nicht draußen sind, ist alles reine Spekulation wobei der 3DMark Benchmark natürlich der erste Indikator für die allgemeine Performance sein kann.
Die Leute die hier wegen nur dezenter Mehrleistung rumheulen, vergessen oder ignorieren die Tatsache, dass es sich nur um Midrange-Karten handelt.
Die Zeiten als nvidia die Monsterchips als erstes brachten, sind leider vorbei.
Ebenso solche die jedes Jahr ein Leistungsplus von mind. 40-60% erwarten, haben den Grafikkartenmarkt/Entwicklung einfach nicht verfolgt.

Da ich kein Early Adopter bin, obwohl ich die Mittel dafür hätte, mir jedes Jahr eine 600+ Euro Graka zuzulegen, mache ich es aus vielerlei Hinsicht nicht.
1. Dieses Kaufverhalten trägt u.a. dazu bei, dass die Entwickler darin eine Mehreinnahmequelle sehen und mit kleinen Leistungssteigerungen den Kunden mehrmals zu Kasse beten.
2. Brauche ich die Leistung der modernen Grakas nur bedingt, da ich nicht jedes neue Spiel mit Ultra-Settings zocken muss, geschweige denn alles Neue an Games überhaupt spiele.
3. Schont es das Portmonee, wodurch mehr für Urlaub, Auto, etc. zur Verfügung steht.
4. Resultiert daraus eine gewisse Genügsamkeit (6 Jahre alter LCD-Fernseher) die nicht zuletzt auch der Umwelt zugutekommt (Elektoschrott).

Mom besitze ich nur eine GTX 580 3Gb (die ich mir auch erst vor 1,5 Jahren für 180€ kaufte).
Zusammen mit der ein Jahr davor für ebenfalls 180€ gekauften GTX 570, ergibt diese eine nahezu gleiche Performance einer GTX Titan beim Octane Render!

Klar hätte ich durch den Kauf einer GTX 980 eine Leistungssteigerung von bis zu 100% in Spielen, werde wahrscheinlich aber erst ca. 6 Mon. nachdem der GM210 erschienen ist zuschlagen, um auch für 4K Gaming gerüstet zu sein und damit für mind. 2-3 Jahre Ruhe zu haben.
 
Mal sehen ob die AMD Karten dann noch billiger werden. Sobald die R9 290 auf 250€ fällt wird diese meine GTX 660 ersetzen. Falls die GTX 970 so um die 300€ kosten wird bleibe ich dann doch bei Nvidia.
 
Zuletzt bearbeitet:
zeedy schrieb:
Warum doppelt so teuer? Das SI der Hawaii GPUs ist teuer, aber die Speicher eher billiger als die der 78er Karten, weil für viel geringere Taktraten (da 512bit) ausgelegt. Aber dass Nvidia pro Karte mehr verdient als Ati /AMD,ist und war wohl schon immer so.

erst hab ich mich selbst auf die suche begeben um anhaltspunkte zu suchen. habe aber nichts gefunden. vl kannst du mir ja sagen wieviel mehrkosten durch die takterhöhung beaufschlagt werden. wenn nicht, bleib ich bei meinem ca. doppelt so teuer.

wenn man jetzt der 97/980 selbt mit geringerem takt ein 512bit SI geben würde dann kämen wohl ca 15-20% zusätzliche grafikpower dazu.

wenn man das mit amd´s grafikkarten vergleichen würde, dann kommen wir hier in performance abstände wie wir sie zwischen AMD und Intel im cpu bereich schon kennen.
 
Na ja,für mich nicht wirklich interessant. Da, ich mit meinem System in Fire Strike (GPU-Score) 11542 Punkte erziele.
Hier, meine werte :http://www.3dmark.com/3dm/3987608
 
Sturmwind80 schrieb:
Habe gestern gerade die ASUS ROG Matrix GTX780 Ti Platinum für 444€ gekauft. Hat zwar nur 3GB aber denke ich komme damit klar.

Leider zu spät gesehen, ärger mich jetz noch. Somit warten auf die neue Generation, aber hört sich schon recht gut an...
 
Ehrlich gesagt, wenn die Zahlen stimmen, wäre das schon eine Enttäuschung. Ich hatte von Maxwell deutlich mehr erwartet.
 
In der Tabelle steht 3D Mark GPU Score, die Frage ist zwar bisl blöd, aber wird sich hier auf die Graphic Score bezogen oder auf die Gesamtpunktzahl?
 
Holzmichi schrieb:
Warum gibt es eigentlich nicht mal neue Generationen, die den Tester von den Socken hauen? So ne Leistungssteigerung i. H. v. 50-75% wäre doch mal was. Ich behaupte nicht, dass jemand/wir das braucht/brauchen. Würde mich trotzdem mal interessieren.

aber sicher könnten sie so etwas machen.

50-75% mehr Leistung, und wieso nicht grad 100-200% mehr Verbrauch? Dann würde es so ziemlich jeden von den Socken hauen.

Es sind kleine Schritte die uns weiter bringen. Es muss geforscht werden usw tralala. Am Anfang geht alles schnell, bis man irgendwann an eine Grenze stösst. Wenn wirklich etwas neues kommt, dann ganz neu. Damit meine ich, dass der Computer neu erfunden wird.
 
nVidia wurde bei Fermi kritisiert, dass die Karten zuviel Strom benötigten, um konkurrenzfähig zu sein.
Jetzt werden sie kritisiert, dass sie nicht mehr soviel Strom brauchen, um konkurrenzfähig zu sein.

Schon eine komische Welt.
 
Sontin
Was in deiner Feststellung aber fehlt, ist, dass die Welt sich geändert hat.

Aber ich kann dir auch erzählen wie komisch die Welt damals war, denn einige meinten, VLIW5 und 4 haben zu wenig gpgpu, heute aber hat GCN zu viel gpgpu Performance :O
 
Zuletzt bearbeitet:
Palmdale schrieb:
Leider zu spät gesehen, ärger mich jetz noch. Somit warten auf die neue Generation, aber hört sich schon recht gut an...
Im Luxx Forum verkauft einer 2 dieser Karten für den selben Preis (444€), kannst du ja mal anfragen.
 
Ich weiß garnicht was ihr alle von dem Nachfolgerchip der 680 erwartet? Interessant wird es sein bei welchem Verbrauch die 980 ungefähr so schnell wie eine 780/ti ist. Den nächsten Leisrungssprung wirds erst mit dem großen Chip geben der sicher noch ein halbes Jahr auf sich warten lässt.
 
pipip
Meinst du die steigenden Preise für Elektrizität? Nun gut, tatsächlich sind die Geforces NICHT sparsam. Sie sind nur nicht, wie sonst oder aktuell der Konkurren üblich, deutlich konsumfreudiger als die Vorgänger.

Da wären noch die 512MiB der X1800 bis 4890. Über mehr wurde Jahrelang nicht im Traum gedacht und seit kurzem muss jede neue Generation eine Verdeifachung hinlegen. (3GiB auf 8Gib von 780 auf 980)

Da du GPGPU nennst, nehm doch gleich noch Tesselation und Texturleistung. Für VLIW wurde extra der Tesselationschalter entworfen und tief in die Filtertrickkiste gegriffen. Ohne Kritik.
 
Zuletzt bearbeitet:
Naja, die 980 wird von Haus aus wohl nur mit 4GB ausgeliefert und es wird Alternativdesigns mit 8GB geben, ebenso wie es die 780 mit 6GB gibt.

Das folgende bezieht sich auf den High-End Bereich da ich in Sachen Mittelklasse nicht ausreichend informiert bin um hier eine Hieb und Stichfeste Argumentation zu liefern:

Die AMD Karten ziehen schon mehr Saft als die Keplers und das teils deutlich. Die 285 hat gezeigt dass es effizienter geht, NV geht einen ähnlichen Weg, geht allerdings auf etwas mehr Leistung und auch mehr Speicher.
Den Effizienz-Zenit hat NV allerdings auch hinter sich. Die Titan ist so ziemlich die Effizienteste High-End Karte auf dem Markt, gefolgt von der 780. Oberhalb von 900Mhz verliert Kepler allerdings schnell die Vielgelobte Effizienz wie man auch Eindrucksvoll bei 780Ti und Black sieht. Hier greift natürlich der 7Ghz Speicher nochmal extra zu was das Problem natürlich nicht löst.
Mal so zum Vergleich: Die 280X verbraucht schon fast so viel wie die Vielgescholtene 480, die 290 ~15W mehr, die 290X im Uber Modus gute 50W mehr.

Interessanterweise ist GCN 1.1 (wie auf Hawaii zu sehen) an für sich sogar Effizienter als Kepler; AMD macht sich das nur selbst zunichte indem sie den Chip "unnötig" klein machen und dies dann durch Takt kompensieren. Dadurch steigt die nötige Spannung und somit der Stromverbrauch. Das wiederum verbraucht mehr Strom, der (kleine) Chip wird heißer, der Stromverbrauch steigt weiter. Ein 550mm² GCN1.1 Chip würde den GK110 in Sachen Effizienz überflügeln. Wieso AMD dies nicht gemacht hat vermag ich nicht zu beurteilen. Vl. ist der Chip relativ komplex zu fertigen und die Yields wären bei dieser Größe unterirdisch, vielleicht wollte man den Chip auch unbedingt so klein machen, oder aber die Illuminaten haben sich eingemischt.
 
Zuletzt bearbeitet:
Theobald93 schrieb:
Sicher schweineteuer...
Bin auf die 960 / 960ti gespannt. Leistungs- und Stromverbrauchsmäßig.

Steht doch im Test, nennt sich eben 980M/970M. Wobei die 960Ti wieder ein abgespeckter 204 sein kann.
Die Top-GPUs für Desktop Replacements waren bei nVidia bislang immer die Mainstream-GPUs der Desktopserie.

Davon abgesehen, was erwartet ihr eigentlich? Der GM204 ist nicht der Nachfolger des GK110. nVidia realisiert die Leistung dieses Chips jetzt mit "vermutlich" deutlich weniger Leistungsaufnahme und einer geringeren Größe. Der GK110 wird auslaufen und durch den etwas stärkeren neuen Performance-Chip ersetzt - zumindest was "Gaming" anbelangt. Für Quadro/Tesla mag das anders aussehen.

Und dann liegt der Chip so ca. 40% vor dem GK104 mit vermutlich wenig gesteigertem Siliziumaufwand und Energiebedarf. Für die ~drei Jahre ist das doch ein gutes Ergebnis.
 
Zuletzt bearbeitet:
Oberhalb von 900Mhz verliert Kepler allerdings schnell die Vielgelobte Effizienz wie man auch Eindrucksvoll bei 780Ti und Black sieht.

Du sagt es selbst Kepler ist effizient bis zu einem gewissen Punkt, ab dann wir auch Kepler schluckfreudig und verbraucht kaum weniger als Hawaii. Bei der Strix sieht man das recht deutlich:

https://www.computerbase.de/2014-06/asus-gtx-780-strix-luefter-aus-test/4/

Unter Last verbraucht eine ähnlich schnelle R9 290 Tri X gerade mal 4% mehr. Die niedrig getaktete Referenz 780 hingegen ist wirklich relativ sparsam. Zudem verschenkt AMD einiges durch den miesen Refernzkühler und zahlreiche Partner bekleckern sich auch nicht mit Ruhm.

Ein 550mm² GCN1.1 Chip würde den GK110 in Sachen Effizienz überflügeln. Wieso AMD dies nicht gemacht hat vermag ich nicht zu beurteilen.

AMD hat bis jetzt auf Big Chips verzichtet. Ein Grund könnte der kleinere Die sein und damit ein Kostenvorteil gegenüber Nvidia. Fiji hingegen soll angeblich der erste Big Chip seit dem katastrophalen R600 werden als Konter zu Titan 2 mit angeblichen 550mm² +. Mal sehen as letzendlich bei rum kommt.

http://www.3dcenter.org/news/bringt-amd-mit-fiji-einen-monsterchip-mit-ca-600mm²-chipflaeche

Für viele wird aber wohl kommende 28nm Karte nicht wirklich interessant.
 
Holzmichi schrieb:
Warum gibt es eigentlich nicht mal neue Generationen, die den Tester von den Socken hauen? So ne Leistungssteigerung i. H. v. 50-75% wäre doch mal was. Ich behaupte nicht, dass jemand/wir das braucht/brauchen. Würde mich trotzdem mal interessieren.

Die 780Ti ist etwa 100% schneller als eine GTX580.
Also "Durchschnitt" mehrere Spiele und nicht nur EIN Benchmark wie den "Firestrike".
 
Die GTX980 wird so 10-15% über der GTX780Ti liegen; jedoch bei weniger Verlustleistung.

Wie kommst du darauf? Eher wird GTX 980 höchstens gleich auf sein mit der GTX780TI, da auch schon der kleine Bruder (GM 107) verhältnismäßig gut im 3d Mark abgeschnitten hat nicht aber in Spielen. In höheren Auflösungen >1080 dann wahrschienlich deutlich langsamer.
 
Zurück
Oben