Test GeForce GTX 1080 im Test: Ein Paukenschlag in 16 nm mit 1,8 GHz und GDDR5X

Tramizu schrieb:
Ein High-End-Produkt ist solange ein High-End-Produkt, bis es etwas gibt, was besser ist. Eine ganz simple und einfache Definition. Mehr muss man dazu nicht sagen.
Eine Festplatte mit 10TB Fassungsvermögen ist heute auch High-End obwohl alle ganz genau wissen, dass es kaum ein halbes Jahr dauern wird, bis es eine größere gibt. Soweit jetzt klar?

Nö, sehe ich anders:

met schrieb:
High-End ist im deutschen Sprachgebrauch der höchste Stand der technischen Entwicklung. Wenn bereits jetzt ein schnellerer Chip produziert wird dann trifft diese Bezeichnung bei der GTX 1080 meiner Meinung nach einfach nicht zu.
 
Naja das Killerargument dieses Jahr ist nicht 4k, sondern eher VR und dort zieht die 1080 numal kreise um Maxwell.

Es gitb sowiso viele dinge die hier meist nicht angesprochen werden aber halt auch die 1080 weit vor die 980 aber auch 980Ti und titan heben.
HDMI 2.0b somit 60fps falls jemand die Karte an dem Tv betreibt .
H.265 um 4k videos abzuspielen ebenso wie Shadowplay davon profiteren sollte was für Lets Player interessant sein könnte und somit ein wechsel von einer Titan/980Ti absolut Sinn macht nur für dieses Feature.
Man kann natürlich auch noch ein halbes Jahr warten bis big pascal kommt und dann big maxwell gegen einen big pascal tauschen aber für manche macht es denke ich durchaus sinn auch jetzt schon eine 1080 zu kaufen.

Ich gehöre da aber auch definitv nicht dazu weil mir VR wie vielen genauso egal ist und den H.265 en/decoder werde ich wohl auch selten nutzen.
Trotzdem sind das Punkte die für einige Käufer wichtig sein könnten und den Kauf interessant machen auch für 800€.
 
Zuletzt bearbeitet:
Ap2000 schrieb:
Dir ist echt nicht mehr zu helfen. /ignore

d91qx02k0veeqd2im.jpg


streiten solltest du dich nur wenn du auch recht hast, kann sonst peinlich werden.

hier das versprochene video ;)
https://youtu.be/lNnCpQuLQyM

mit deaktiviertem zweiten monitor und ohne shadowplay ist der vram verbrauch sogar noch niedriger.
 
Galatian schrieb:
"Instead of asynchronous shaders, Pascal uses a technique called pre-emption. Effectively, this enables the GPU to prioritise one set of more complex tasks over another (for example, preferencing compute tasks like physics over graphics). The trouble is, longrunning compute jobs can end up monopolising the GPU. This was a particular issue for Maxwell, where the GPU could only pre-empt tasks at the end of each command. That means extra time spent waiting for the command to end increasing latency.

Pascal implements pixel level pre-emption, allowing the GPU to pause smaller tasks at any point in order to save the status of them to memory while bigger tasks complete. It's an interesting solution, but it still doesn't replace the performance of hardware-based asynchronous shaders. Fortunately for Nvidia, even with the increasing number of DX12 games being released, few of them take full advantage of asynchronous shaders. Fewer still have shown any real improvement in performance over DX11."
Dann solltest du aber auch erwähnen, dass AMD keine vernünftige Möglichkeit hat die Tasks vernünftig zu priorisieren, was auch wieder einige Probleme mit sich bringt. So haben beide Techniken ihre Vor- und Nachteile.
Letztendlich zeigen Benchmarks in Spielen in denen AS zum Einsatz kommen in beiden Fällen nur einen recht marginalen Performancegewinn.
Letztendlich ist es wie immer nur ein Feature von vielen und macht nur ein Bruchteil des Gesamtpakets aus, was letztenlich zusammen funktionieren muss und entsprechend die Leistung auf den Schirm bringen muss.
 
noxon schrieb:
Dann solltest du aber auch erwähnen, dass AMD keine vernünftige Möglichkeit hat die Tasks vernünftig zu priorisieren, was auch wieder einige Probleme mit sich bringt. So haben beide Techniken ihre Vor- und Nachteile.
Letztendlich zeigen Benchmarks in Spielen in denen AS zum Einsatz kommen in beiden Fällen nur einen recht marginalen Performancegewinn.
Letztendlich ist es wie immer nur ein Feature von vielen und macht nur ein Bruchteil des Gesamtpakets aus, was letztenlich zusammen funktionieren muss und entsprechend die Leistung auf den Schirm bringen muss.


doch haben sie schon mir fällt der Name nur nicht ein, bei ACs ist es möglich auch Prioritäten zu vergeben

als Preemption beherrschen sie auch, man kann aber auch Ressourcen vergeben

http://www.hardwareluxx.de/index.ph...en-amd-grafikkarten-weiter-beschleunigen.html
 
Zuletzt bearbeitet:
"Ein Paukenschlag..."
Naja, ich würde sagen gute Performance zum überzogenen Preis. Von einem Paukenschlag ist man definitiv weit von entfernt. Da waren früher mal ganz andere Leistungssprünge vorhanden wenn man eine neue Fertigungsstrukturgröße nutzen konnte. DX12 scheint nVIDEA weiterhin nicht wirklich gut zu liegen. Zumindest verbrennt man hier keine Ressourcen mehr. Habe mir hier mehr von erhofft. Also weiter warten. :(
 
Vitec schrieb:
Es gitb sowiso viele dinge die hier meist nicht angesprochen werden aber halt auch die 1080 weit vor die 980 aber auch 980Ti und titan heben.
HDMI 2.0b somit 60fps falls jemand die Karte an dem Tv betreibt .
H.265 um 4k videos abzuspielen ebenso wie Shadowplay davon profiteren sollte was für Lets Player interessant sein könnte und somit ein wechsel von einer Titan/980Ti absolut Sinn macht nur für dieses Feature.
Man kann natürlich auch noch ein halbes Jahr warten bis big pascal kommt und dann big maxwell gegen einen big pascal tauschen aber für manche macht es denke ich durchaus sinn auch jetzt schon eine 1080 zu kaufen.

Ich glaube nicht, dass das die Argumente für die 1080er sind wenn man von Maxwell kommt,
- Die 9xxer/Titan X Maxwell-Karten haben schon alle HDMI 2.0 und können daher 2160p mit 60fps an den TV oder sonstwo hin geben
- H.265 ist zwar nett aber aktuell imho noch nirgends groß verfügbar, lässt sich auch über CPU/Software de/encodieren (klar, braucht mehr Strom/Leistung als in der Hardware), H264 kann ebenfalls 4K / 2160p60fps mit Level 5.2. H265 würde im Prinzip "nur" Speicherplatz sparen.
- ShadowPlay kann ebenso mit den 9xxern/Titan X H264 2160p60 mit bis zu 150Mbit aufnehmen / encodieren (und entsprechend dekodieren)
- ShadowPlay wird kaum von (großen) Let'sPlayern genutzt da sehr unflexibel, vor allem in der Nachbearbeitung z.B. weil Mic- und Spielton in einem Audiostream zusammengepackt werden, bei 60fps bzw. den seltsamen 59,34hz manche Videoschnittprogramme tontechnisch (z.B. Adobe Premiere) asynchron werden, was man so auch nicht ohne Umwege rausbekommt. Außerdem kann SchadowPlay von Haus aus nur DirectX Spiele, OpenGL Spiele können z.B. nur über Umwege aufgenommen werden.
 
Grundsätzlich keine schlechte Karte. 500€ incl. gutem Custom Kühler (Fand die Palit Super Jetstream seh gut) wäre ich bereit zu bezahlen. Ich denke aber, dass wir diese Preisregionen in nächster Zeit nicht erreichen werden. Verflucht seist du G-Sync Monitor. :)
 
Marzee schrieb:
Bin ich der einzige der die Kommentare hier nur zu Unterhaltungszwecken liest?

Nein, mache ich genauso. Vor allem beim baden usw. ;).
Eigentlich lese ich sogar lieber die Kommentare als die Artikel, dort schaue ich meist nur die Vergleiche an.
 
schreibtisch schrieb:
naja...was ich so lese ist uncharted systemübergreifend das schönste actionspiel und forza bzw driveclub die schönsten rennspiele

ich besuche ja viele internetseiten aber SOWAS habe ich noch nie gesehen. sei dir sicher das jedes 5 jahre alte PC spiel auf UHD besser aussieht als Uncharted X...
 
Schnixus schrieb:
Nochmal: Pascal 1070/80 (G104) ist MIDRANGE, Du zahlst aber Preise einer 980Ti, die zum Zeitpunkt des Erscheinens HIGHEND war, mit welchem gesunden Menschenverstand willst Du Dir diese Wucher schönreden?!

Nennt sich Kapitalismus und Marktwirtschaft. "Schön" wird es davon nicht, das ist aber nunmal wie es war, ist und vermutlich auch sein wird. Wenn Nvidia den Preis niedriger gestalten würde, würden sie sich selbst schaden. Die haben auch Marktanalysten und Marketing-Abteilungen, die sicher mehr von ihrer Arbeit verstehen als selbsternannte Foren-Helden. Die wissen schon, wie sie am meisten Geld machen. Ihnen das übel zu nehmen ist einfach kindisch naiv.
Sie haben noch keine Konkurrenz, die sie dazu drängt das Ding günstiger zu verkaufen. Sie wissen genau, dass AMD erst das niedrigere Segment bedient und sie bis Vega freies Feld haben. Außerdem ist z.B. die Produktion für den GDDR5X gerade erst angelaufen. Höhere Nachfrage wegen geringeren Preises könnte man vllt noch gar nicht bedienen. Für jedes Unternehmen ist es da die logischste Sache der Welt, dann einfach weniger mit höherem Gewinn zu verkaufen. Ist prinzipiell immer so. Weniger vom gleichen Produkt für mehr Geld zu verkaufen ist immer besser, weil der Gewinn in Beide Richtungen wächst (höherer Verkaufspreis, niedrigere Ausgaben).
Der Markt gibt es aktuell eben her, das Produkt so zu platzieren. Es ist klar besser als die 980Ti, welche für ihre aktuell ~650€ auch gut verkauft wurde. Also darf es auch mehr kosten. Dieses Wunschdenken, dass mit der neuen Generation der alte Markt verschwindet und ein neuer etabliert wird, ist einfach nicht realistisch. "Es muss mehr Leistung für weniger Geld bringen, denn es ist eine neue Generation" gibt es nicht. Ein Markt kennt keine Generation.
Kleinerer Chip, geringere Kosten, tralalalala. Alles nur Aspekte, die beeinflussen, wie weit man mit dem Preis runter gehen kann, wenn man es aus irgendwelchen Gründen muss.
 
Zuletzt bearbeitet:
LOOL! Die 1080 FE ist (in FHD, OC-bereinigt) 2,5x so schnell und 2,86x so teuer wie meine 7950 von 08/12 (275€)
 
sTOrM41 schrieb:
streiten solltest du dich nur wenn du auch recht hast, kann sonst peinlich werden.

hier das versprochene video ;)
https://youtu.be/lNnCpQuLQyM

mit deaktiviertem zweiten monitor und ohne shadowplay ist der vram verbrauch sogar noch niedriger.

Betrifft jetzt zwar nicht mich, aber erinnere mich auch, dass in youtube damals ein Video von Far Cry 4 ins Netz gestellt wurde, wo der FPS-Einbruch gezeigt wurde. Da gabs dann einen sichtbaren Ruckler. Ich weiß aber nicht ob Nvidia das in der Zwischenzeit mit aktualisierten Treibern gefixt hat...
 
Mich würde interessieren wieviel Strom ich mehr über den 8 Pin-Anschluss laufen lassen kann. 150 Watt sind ja spezifiziert aber wieviel kann man noch gefahrlos drübergehen? Bei der 980 Referenz ist man schon leicht eingeschränkt gewesen mit den 2x6Pin-Anschlüssen. Hab da glaube etwa 25Watt über Spezifikation am laufen ohne Probleme.
 
franzerich schrieb:
Ich weiß aber nicht ob Nvidia das in der Zwischenzeit mit aktualisierten Treibern gefixt hat...

Habs gerade erst im Februar durch gespielt und es hat sich kaum was verändert.
In 1080p ist richtiges AA komplett unmöglich gewesen bei hohen, aber nicht max., Einstellungen. Ging nur so ein FXAA Müll ohne, dass die Frametimes richtig beschissen waren. Trotz angezeigten 60fps.

Aber bei der Type spricht man gegen eine Wand, die Fakten gekonnt ignoriert.
 
Ne CB hat das ja auch nur aus langeweile getestet: https://www.computerbase.de/artikel...tx-970-vram-speicher-benchmarks.48120/seite-3
Wenn man damit natürlich leben kann, indem man Settings so wählt dass die 3,5GB nicht überschritten werden ists man ja noch auf der sicheren Seite. Aber das Problem gänzlich abzustreiten, ist einfach nur albern. Wenn mal Spiele kommen, die wirklich durchgehen über 4GB verlangen, und dabei die Rohleistung aber reichen würde, dann darf man sich halt nicht wundern wenns mal gröber hakt.
 
franzerich schrieb:
Betrifft jetzt zwar nicht mich, aber erinnere mich auch, dass in youtube damals ein Video von Far Cry 4 ins Netz gestellt wurde, wo der FPS-Einbruch gezeigt wurde. Da gabs dann einen sichtbaren Ruckler. Ich weiß aber nicht ob Nvidia das in der Zwischenzeit mit aktualisierten Treibern gefixt hat...

wenn der mob ruckelige videos will kann ich da ja dsr auf 4k oder 5k rein hauen, ist allerdings auch reichlich panne da die karte dafür nie ausgelegt war.

in 1080p ruckelt da in diesem spiel jedenfalls überhaupt garnicht nichts und hat auch nie.

selbst in meinen nativen 1440p macht das spiel keine 3gb vram voll, allerdings geht da der karte dann auch sowieso so langsam die puste aus, so das ich die settings sowieso reduzieren muss um 60fps zu halten.
 
Lübke82 schrieb:
Mich würde interessieren wieviel Strom ich mehr über den 8 Pin-Anschluss laufen lassen kann.

Ich habe 225 W über den 8-PIN-Anschluss per VGA-BIOS geregelt. Passiert nix, außer Wärme...
 
Zurück
Oben