Test GeForce GTX 1080 im Test: Ein Paukenschlag in 16 nm mit 1,8 GHz und GDDR5X

Fruuky schrieb:
Was wir brauchen ist ein umfangreicher Test, der einen 2500er Standard und auf 4500 MHz mit einer übertakteten 1080 gegen einen 4500 mhz Skylake 6700k antreten lässt um zu schauen, ob wir wirklich bei einem CPU Limit angekommen sind.

Das wäre echt super! Der GTX 1070 Test verzögert sich, da Computerbase kein Sample bekommen hat. Wäre doch naheliegend das in dem Test einzubauen :)
 
Hallo Leute ich wollte mich auch mal zum Thema i5 2500k und i7 6700k melden, denn das lässt mir derzeit auch keine wirkliche ruhe, ich selber besitze nämlich auch den i5 2500k allerdings übertaktet auf 4,5ghz, kann es sein das xcom 2 einfach nur mehr nach CPU leistung giert bzw. vom takt? denn die anderen spiele zeigen sich ja eher unbeindruckt von 4,5ghz und der besseren architektur des i7 6700k, mich würde nämlich auch mal interessieren wie bei xcom 2 der vergleich mit nem 6600k und nem 6700k aussieht. Ist denn xcom 2 multithread optimiert und könnte daher von den zusätzlichen Thread profitieren?
fragen über fragen und Computerbase sagt leider nix -.-.

mein plan ist es nämlich mir eine 1080 zu kaufen.
 
Ich spiele Xcom 2 nicht mal ;), mich interessiert das ganze nur weil es dann doch ziemlich starke performance unterschiede sind.
 
Was soll diese sinnlose CPU Diskussion?
Ist das hier ein Grafikkarten oder ein CPU Test? Wenn bei 3 der 4 getesteten Spiele der übertaktete i7 so gut wie nichts bringt, was erhofft ihr euch dann von einer Übertaktung des i5?
Offensichtlich wurde bei dem Test lediglich untersucht in wiefern eine ältere CPU die Framerate beeinflussen würde und das könnte man sich mit einem übertakteten i5 komplett sparen.

@HerrRossi
Dafür müssen nicht alle Kerne ausgelastet sein sondern nur die die vom Spiel auch wirklich genutzt werden.
Das sind 2 verschiedene paar Schuhe.
 
Wadenbeisser schrieb:
Dafür müssen nicht alle Kerne ausgelastet sein sondern nur die die vom Spiel auch wirklich genutzt werden.
Das sind 2 verschiedene paar Schuhe.

Ja, das stimmt.
 
weiss nicht, ob die frage hier schon gestellt worden ist.
Wie sieht es aus mit Spulenfiepen bei der 1080? Bin da recht empfindlich und hab deswegen keine der 970er karten behalten und auch die 980 und 980Ti hatten alle SPulenfiepen. Mal mehr mal weniger. Die 970er waren aber mit abstand die schlimmsten.

Wenn jemand mal drauf achten könnte bei der neuen Generation und hier kurz Feedback geben könnte wäre ich sehr dankbar darüber...
 
Ach ja, weils hier um Grafikkarten geht:

P100 Benches gibts ja nun auch:
dhfr_nve_4fs_amber16.0.0.png


http://ambermd.org/gpus/benchmarks.htm#Benchmarks

Mal einen rausgegriffen und gerechnet:

P100 -> 3584 Shader (nicht vollaktiver DIE) bei X Takt und 549 Punkte
GP104 -> 2560 Shader @ ~1.683 Mhz unter Last und 452 Punkte

2 Formeln eine Unbekannte.

2560Shader * 1683Mhz * 452 Punkte / (3584 Shader * 549 Punkte) = X in Mhz

= ~1460 Mhz für P100

Deckt sich fast 1:1 mit den angegebenen 1480 Mhz des P100 Datenblatts, zumal aber auch der Benchmark nicht 100% skalieren dürfte.

Wenn also ein FP64 bereinigter GP102 mit ebenfalls 3584 Shadern kommt kann man sich die Leistung doch einfach ausrechnen. Geht man von 1600Mhz Takt aus wäre er

GTX 1080 = 2560 * 1683 = 100%
GTX 1080 TI = 3584 * 1600 = 133%

bei 1800 Mhz

GTX 1080 TI = 3584 * 1800 = 150%

Denkbar ist auch eine TITAN mit vollaktiven 3840 Shadern und eine GTX 1080 TI mit besagten 3584 Shadern bei etwa 1500Mhz und damit ~25 % vor der GTX 1080 (+ hoffentlich dann OC bis 2 Ghz ) :-)

Ich denke es wird laufen wie bei der ersten TITAN. Erst kommt der vollaktive Chip und dann kurz nach Vega 10 vielleicht eine Karte wie die GTX 780 mit teilaktivem GP102 als GTX 1180 oder GTX 1080 TI.

Billig wird das nicht.
 
Da müsste man doch eigentlich auch die Speicheranbindung berücksichtigen? Angenommen, die 1080TI und Titan haben 12 und 24GB GDDR5X mit 384 Bit. Dann müsste die Speicherbandbreite bei 480GB/s sein. Mal ausgehend vom gleichen Takt. Wäre ja das 1,5-fache.

Edit: Wenn ich die 1080 habe, sollte ich die TI mal überspringen. Die nachfolgende GTX1170 ist dann doch eh wieder schneller :kotz: , die mit dem kastrierten Mittelklassechip.
 
Zuletzt bearbeitet:
Dann könnte auch die TI dann eine krüppelige Speicheranbindung haben. Wenn sie bei der 980 zu klein ist und es ungefähr 1:1 zur TI skaliert, dann müsste die da auch zu klein sein. Besser 10% mehr Speicherbandbreite oder gar 20% auf beiden.
 
:( wurde hier nicht ein "Foto" gepostet wo ne Liste war mit der neuen Titan X 24GB und 1080Ti 12GB?
Hat das noch wer zufällig?
 
Ich hoffe der Link von Krautmaster ist kein Fake. Die neue Titan sollte 4k 60 FPS ohne AA gut meistern. Ich bin gespannt.

Die 1080 ist fuer mich die Luxus 1440p Karte. Overwatch auf Ultra laeuft die FE nie unter 100 FPS und selten unter 120, was schoen butterweich fuer Shootner auf 144 HZ Momitoren ist. Mit OC nahe 144 Limit oder 100 FPS auf episch. Ultrawide geht die Karte auch noch fantastisch. 4k und hohe FPS wuerde ich persoenlich die 1080 nicht einsetzen. Auch mit GSync und 40 FPS nicht, auch wenn das schon gut spielbar ist.
 
@Fruuky

ähm ^^ habe kaum geschlafen .....Würdest Du nicht GSync anschalten? mit der GTX1080FE? wegen denn 144Hz?
 
Fruuky schrieb:
Ich hoffe der Link von Krautmaster ist kein Fake. Die neue Titan sollte 4k 60 FPS ohne AA gut meistern. Ich bin gespannt.

Die 1080 ist fuer mich die Luxus 1440p Karte. Overwatch auf Ultra laeuft die FE nie unter 100 FPS und selten unter 120, was schoen butterweich fuer Shootner auf 144 HZ Momitoren ist. Mit OC nahe 144 Limit oder 100 FPS auf episch. Ultrawide geht die Karte auch noch fantastisch. 4k und hohe FPS wuerde ich persoenlich die 1080 nicht einsetzen. Auch mit GSync und 40 FPS nicht, auch wenn das schon gut spielbar ist.
Also Overwatch kann ich bereits mit meiner 980 Ti in 4K Ultra >60 FPS zocken, sehe da kein Problem mit der 1080 ;)
 
Zurück
Oben