Test GeForce GTX 1080 im Test: Ein Paukenschlag in 16 nm mit 1,8 GHz und GDDR5X

PuscHELL76 schrieb:
aber naja so hab ich wenigstens was zum kopfschuetteln :D

Am besten etwas zu knabbern holen und Stimmungslicht einschalten um die OVERNINETHOUSAND Kommentare durchzulesen und zu schmunzeln :schluck:

Ab jetzt befinde ich mich auch wieder dort :cheerlead:
 
@sTOrM41
Immerhin und wie man bei den einzelnen Testergebnissen sieht greift Crossfire bei einigen Spielen garnicht oder hat gar eine negative Skalierung und mit zunehmender Auflösung legt der Verbund mehr und mehr zu.
Bei den kommenden Spielen für die neuen APIs könnte es also interessant werden.
 
Zuckerwatte schrieb:
Ich spreche davon:http://www.3dcenter.org/dateien/abbildungen/nVidia-GeForce-GTX-970-3,5-GB-Problem.png http://s2.postimg.org/3rzewj3ll/GTX970.png

Und nicht von Treibern aka Softwarelösungen für Hardwareprobleme. Das Problem bleibt in Hardware auch wenn es zur Zeit per Software(Treiber) abgefangen wird. Und nochmal - ja in 97% aller Fälle gibt es da stand jetzt keine Probleme, da der Treiber das abfängt.

du brauchst mir nicht erklären wovon du sprichst, ich kenne diese 3,5gb problemtaik durchaus und weiß auch das es sie gibt und bestreite sie auch garnicht.

nur weiß ich eben auch wann diese problematik eintritt und wann nicht, far cry 4 und gta v in 1080p gehören da allerdings nicht dazu.
 
sTOrM41 schrieb:
nur weiß ich eben auch wann diese problematik eintritt und wann nicht, far cry 4 und gta v in 1080p gehören da allerdings nicht dazu.

Und jetzt bitte ein paar Seiten zurück. Dann siehst du ich habe nur von Total War Attila etwas verlinkt. Die anderen Spielnamen kamen nicht von mir :evillol:
 
Zuletzt bearbeitet:
Wie man braucht also ne extra SLI Brücke für mehrer Monitore im Surround? Warum wird diese Relikt nicht endlich abgeschafft die kommunikation läuft doch über PCIe ebensogut.
 
An die Redaktion: Im 3D Vision Thread kam die Überlegung/Information, dass NVIDIA auf der Pressekonferenz etwas dazu sagte, dass mehrere Perspektiven gleichzeitig berechnet werden könnten um Leistung einzusparen. Könntet ihr das eventuell mal z.B. Mit dem neuen Tomb Raider testen? Das hat ja einen nativen 3D Modus. Wäre mMn auch als Wegweiser für VR interessant. Falls ihr kein 3D Vision Kit in der Redaktion habt könnte man den Benchmark auch mit 3D Vision Discover durchführen. Für die im integrierten Benchmark erreichten FPS spielt das keine Rolle.
Hier Könnte man dann eventuell sehen, ob jetzt schon direkt einen Vorteil durch neue Techniken gibt. Vielleicht ist ja dann an NVIDIAs Aussage von derb-fachen Performance nachweislich was dran.

Hier noch der Link zu der geführten Diskussion:
https://www.computerbase.de/forum/t...ion-virtual-reality-3d-gaming.1546633/page-31
 
Zuletzt bearbeitet:
Jan schrieb:
Das sehen wir uns Freitag mal an!
Danke, find ich auch sehr interessant.
Das wäre ja schon fast ein killer feature für uns 3d vision/Vr user.
 
Ja, die 1080 ist eine gute und schnelle Karte. Für Ihren Preis aber bei weitem nicht schnell genug und damit schon mal kein Paukenschlag. Für Besitzer einer 980ti oder Titan z.b lohnt ein Umstieg gleich null.

gruß
 
Wann hat sich der Umstieg von der Vorgänger Generation letztmalig gelohnt. Darum ist es so schade, das regelmäßig nur die Vorgänger Generation im Test ist. Das ist nichts weiter, als Konsumankurbelung seitens der Presse.
 
...abwarten, ich schätze die custom werden mit 8+6 Pin kommen und dann auch wieder 20% schneller sein - dann sinds wieder 25% Mehrleistung zur gut gekühlten Titan!
 
Was willst Du uns damit sagen? Eine custom TitanX mit ordentlich OC kommt nahe an eine 1080 Mit Refernzkühler und ohne jeglichen OC ran (in diesem einen Spiel) und auch nur fast und ist dabei noch wesentlich teurer... Da hat NVIDIA sicher extrem Angst vor...
 
Nvidia müsste selbst dann keine Angst haben wenn die 1080 nur gleich stark wie eine 980ti wäre, die Fanbase bei Nvidia verhält sich quasi wie die bei Apple.

gruß
 
Hallöchen zusammen :)

Kann man den endlich mit dieser Grafikarte Monitore 27er 2K/4K anfeuern für Games ohne Ruckel zuckel ?
 
Als alter AMD - Nutzer hatte ich lange genug Zeit zu sparen, für mich wird's n Paukenschlag beim Umstieg von 8350 und 2x 290 zu 6700K und 2x 1080... Ich spiele schon seit 2 Jahren in 4K und lass mir das nicht mehr nehmen ...
 
Zurück
Oben