Notiz GeForce GTX 1080 Ti: Testmuster in der Redaktion eingetroffen

^^-- geht auch mit sandy-e
Ah ja, wieder was gelernt, hab das mit Sandy verwechselt, der hat es nie bekommen. Gut für dich. Fit für die Zukunft deine Basis, wenn die Sandy-E Fraktion nicht alle Langlebigkeitsrekorde bricht, dann weis ich auch nicht. :)
Ergänzung ()

Steht auf der Titan X(P) nicht noch GeForce GTX drauf, auch wenn die Bezeichnung offiziell dann im Schriftverkehr unterschlagen wurde um diese seriöser/semi-professioneller erscheinen zu lassen .... ja, dem scheint so zu sein, wie man hier sieht:
Das kommt daher weil man das alte Zeug der Titan XM weiter verwendet hat, insbesondere die Backplate die der Titan XM kurz vor Release noch entrissen wurde, die wurde nicht weg geworfen, die wurde aufgehoben und auf die Titan XP geklatscht. Daher auch der Titan X Name, aber fälschlicherweise mit Titan XM Backplate. Wenn einer weis wie man Geld mit GPUs macht ist das NV.

Das auf der Titan XP irgend was von Geforce und GTX steht hat nur was mit NV Gewinnmaximierung zu tun, nichts damit das die Karte für uns gedacht war.
 
Kasmopaya schrieb:
Das kommt daher weil man das alte Zeug der Titan XM weiter verwendet hat, insbesondere die Backplate die der Titan XM kurz vor Release noch entrissen wurde, die wurde nicht weg geworfen, die wurde aufgehoben und auf die Titan XP geklatscht. Daher auch der Titan X Name, aber fälschlicherweise mit Titan XM Backplate. Wenn einer weis wie man Geld mit GPUs macht ist das NV.
Das auf der Titan XP irgend was von Geforce und GTX steht hat nur was mit NV Gewinnmaximierung zu tun, nichts damit das die Karte für uns gedacht war.

Klingt ziemlich billig von nVidia für so ein Premium-Produkt, aber gut möglich, das würde auch dazu passen, dass wieder "Titan X" (nach der Titan X(M)) benutzt wurde.

Naja gut, wie gesagt ob da nun ein "GeForce GTX" Schriftzug drauf ist oder nicht, es werden sich trotzdem genügend Enthusiasten-Gamer eine gekauft haben, zumal es leistungstechnisch keine annähernde Alternative (Ti-GPU oder AMD Produkt) damals gab und es bleibt die erste Single-GPU für 60 fps (Gamer) in 4K/UHD.

Dabei sei allerdings angemerkt, dass das die Anfänge sind und ich gehe davon aus, das durch VR und andere Dinge - siehe aktuelles Unreal Engine Demo - die Anforderungen an flüssiges 4K/UHD steigen werden und eine Titan X(P)/GTX 1080Ti die 60fps bei Maximaleinstellungen vermutlich bald nicht mehr wird halten können, aber das werden wir dann ja sehen.

4K/UHD wird insbesondere am Anfang ein teurer Spaß werden, bis es mainstream-tauglich wird und das wird noch dauern, denn momentan sind Mittelklasse-GPUs (RX 480 oder GTX 1060) noch ganz schön weit weg von flüssigem (60 fps) WQHD bei steigenden Anforderungen dafür. Aus dem Grund wird es bei mir wohl eine WQHD Vega10 oder Vega11 GPU werden, die dann in einigen Jahren hoffentlich noch gut für Full-HD reichen dürfte.
 
Zuletzt bearbeitet:
flmr schrieb:

Bei 2.14 siehst du diese Löcher auch oder? Löcher für halterung (zB bei GM Titan 970 und 980).jpg
 
Chismon schrieb:
...

SK Hynix/Samsung bitte nicht vergessen, denn der HBM2 für die P100 dürfte schon sündhaft teuer gewesen sein. Nee, aber im Ernst, ein guter Vorgeschmack auf das nVidia Quasi-Monopol, was ja einige hier (nicht nur Lieutenant Obvious, "Captain" wohl noch nicht ganz ;) ) wenig stören zu scheint ... die anderen üblichen Verdächtigen seien an dieser Stelle nicht genannt, aber wissen vermutlich schon, dass sie sich da ebenfalls einreihen können.

...

Ich kaufe das zum Zeitpunkt des Kaufs für mich optimale Produkt. Das war damals schlicht die 980Ti im Vergleich zur Fury X. Aktuell kann man sich diese Frage nichtmal stellen, denn es existiert keine Auswahl. Klingt komisch, ist aber so. Es stört mich durchaus, denn Konkurrenz belebt das Geschäft und fördert die F&E. Wie allerdings eingangs schon erwähnt kann ich das nicht wirklich beeinflussen. Und bei aller Liebe, aus Barmherzigkeit habe ich noch nie das schlechtere Produkt unterstützt (und sollte man des Fortschritts wegen auch nie tun).
 
Palmdale schrieb:
Aktuell kann man sich diese Frage nichtmal stellen, denn es existiert keine Auswahl. Klingt komisch, ist aber so. Es stört mich durchaus, denn Konkurrenz belebt das Geschäft und fördert die F&E. Wie allerdings eingangs schon erwähnt kann ich das nicht wirklich beeinflussen. Und bei aller Liebe, aus Barmherzigkeit habe ich noch nie das schlechtere Produkt unterstützt (und sollte man des Fortschritts wegen auch nie tun).

Dass AMD bis Vega10 in den Ober- und Enthusiastenklassen seit 390(X)/Fury(X) nicht mehr stattfindet bestreitet ja auch keiner (denke ich 'mal), dafür werden sie mit Vega aber die (hoffentlich) erste vollwertige 16/14nm Architektur bringen und was Innovation angeht, sehe ich die Lage eher umgekehrt, denn Pascal (als getunter Maxwell Shrink) kann wohl kaum als eine solche gelten, da wird man wohl auf Volta hoffen müssen.

Wenn sich zu Maxwell-Zeiten nicht so ein Ungleichgewicht zugunsten von nVidia ausgebildet hätte, dann sähe die Lage heute vermutlich auch anders auf Seiten von AMD aus, aber selbst eine GTX 970 und andere kunden-/produktpolitisch fragwürdige Entscheidungen hat man nVidia nachgesehen, so überrascht auch nicht, dass der eine Entwickler sich da erst einmal hat zurück halten müssen (um sich auf das wichtigste Marktsegment zu konzentrieren).

So gesehen liegt die Schuld für diese Entwicklung m.E. z.T. auch bei der Kundschaft, die diese Entwicklung oft beim Kauf nicht auf dem Radar hatte und sich medial und von Marketing geleitet eben hauptsächlich für nVidia entschieden hat, selbst bei gleichwertigen oder vergleichsweise unterlegenen Produkten, aber einige würden rückblickend jetzt wohl anders entscheiden, auch wenn das keine Relevanz mehr hat.
 
meckswell schrieb:
Es gibt diesmal keinen Founders Aufschlag.

Traurig so was:D.... ich habe immer noch nichts von einer MSI Lightnig gelesen. Haut raus die teile!
 
oldmanhunting schrieb:
Das gefällt mir an NVidia. Knall, Bumm und das Teil ist da und kann gekauft werden.
Für Den Titan Aufkleber abknibbeln, hat NVIDIA nen 3/4 Jahr gebraucht. Kann man auch so sehen und da Pascal sowieso nur ein Maxwellshrink ist, hat NVIDIA schon seit 2 Jahren nichts neues.
Volta genauso wie Vega bringen neue Architekturen und über beide ist nichts bekannt.
NVIDIA wartet in seit Kepler immer mit den TIs aka Consumer Titans. Ich tippe auf Marketing um übers Jahr verteilt im Gespräch zu bleiben.

Zur TI selber:
Man weiß quasi jetzt schon was man kriegt.
1. 35% mehr als ne normale 1080
2. OC ist vollkommen egal, beide OCed vergleichen sollte auf ähnlich Delta werte kommen. Die Titans kommen im Takt ähnlich hoch wie ne 1080.

Was ich noch nicht so ganz verstehe ist, warum AMD keinen Shrink von der Fury bringt mit GDDR5X. An sich, die Rohleistung passte doch, oder? Skaliert die Fury etwa nicht so gut mit einem Shrink, wie die Maxwell gen?Vielleicht kann mich mal einer aufklären, ob es eine Offensichtliche Antwort gibt.
 
Zuletzt bearbeitet:
Also nach dem 970-Debakel bin ich etwas zurückhaltend beim Kauf von nVidia-Produkten. Am Ende zählt natürlich nur die Leistung und wenn nicht bald Vega kommt, dann wird es eben wieder nVidia. Schade, dass die sich soviel Zeit lassen.
 
Also wegen 30% reden einige davon ihre nichtmal ein Jahre alter 1080 einzutauschen.

Glückwunsch Nvidia, jetzt haben sie genug *Stockholm syndromler" die alles kaufen :D
 
Einige werden ihren Unmut über die GTX 970 scheinbar noch auf ihren Grabstein eingravieren lassen ;)
 
aivazi schrieb:
Also wegen 30% reden einige davon ihre nichtmal ein Jahre alter 1080 einzutauschen.

Glückwunsch Nvidia, jetzt haben sie genug *Stockholm syndromler" die alles kaufen :D
Manche wollen auch ihren Sandy I7 tauschen. Der Kaby hat nominell auch nur 30% mehr Leistung.
Für manche kann es bedeuten das man 4K 60Hz schafft. Für Leute mit passenden Bildschirm und keine Bock auf den Titan Aufpreis ,kann die 1080 schon ein Zwischenschritt sein.
Ergänzung ()

Surfer74 schrieb:
Einige werden ihren Unmut über die GTX 970 scheinbar noch auf ihren Grabstein eingravieren lassen ;)
Naja es ist auch erst eine Gen her. So verwerflich finde ich das nicht. Wenn man das noch in 5Jahren auspackt, dann hat man sie nicht mehr alle.
 
Zuletzt bearbeitet:
D708 schrieb:
Was ich noch nicht so ganz verstehe ist, warum AMD keinen Shrink von der Fury bringt mit GDDR5X. An sich, die Rohleistung passte doch, oder? Skaliert die Fury etwa nicht so gut mit einem Shrink, wie die Maxwell gen?Vielleicht kann mich mal einer aufklären, ob es eine Offensichtliche Antwort gibt.
Fiji (Fury) kann nicht mit GDDR5(X), da geht nur HBM.
Die beiden Hauptprobleme der Fury waren ja 1) die Limitierung auf nur 4GB VRAM und 2) die massive Shaderleistung auch tatsächlich in Spielen auf die Straße zu bekommen.
Keines dieser Probleme kann man mit einem einfachen Shrink lösen, deshalb ist eine neue Architektur nötig --> Vega
 
masterw schrieb:
Fiji (Fury) kann nicht mit GDDR5(X), da geht nur HBM.
Die beiden Hauptprobleme der Fury waren ja 1) die Limitierung auf nur 4GB VRAM und 2) die massive Shaderleistung auch tatsächlich in Spielen auf die Straße zu bekommen.
Keines dieser Probleme kann man mit einem einfachen Shrink lösen, deshalb ist eine neue Architektur nötig --> Vega
Das erste,
Kann man nicht einfach nen andern VRAM Controller draufschnallen? Sind dafür nicht auch Normalerweiße die OEMs zuständig. Also die Auswahl des Vrams+Controller.

Das zweite,
Ist das nicht eher ein Problem des Treibers. An sich das Tonga backend war doch nicht so schlecht. An sich,die Pipline hat doch gepasst. Vega wird doch nichts großartig an der miesen Direct x11 Performance machen, oder?
 
@D708:
Die Speichercontroller sind natuerlich direkt auf dem Chip, kann also nicht hinterher getauscht werden. Die Boardpartner verbauen GDDR Chips, ja, HBM bekommen sie aber auch direkt zusammen mit der GPU auf dem Package.

Vega bekommt etwa einen tile based rasterizer, wie Nvidia sie seit Maxwell einsetzt. In dem Artikel steht was von Nvidia dazu: https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-vorgestellt/
Sie sparen sich laut eigenen Angaben dadurch also knapp die Haelfte der Bandbreite. Man hat auch seit Maxwell gesehen, dass AMD fuer aehnlich schnelle Karten deutlich mehr Bandbreite gebraucht hat als Nvidia. Dadurch musste AMD viel breiter bauen (256 Bit Polaris 10 vs. 128 Bit GP106; 512 Bit Hawaii vs. 256 Bit GM204; Fiji mit 4096 Bit HBM vs. 384 Bit GM200). Das kostet Effizienz und dementsprechend Budget fuer andere Module. Dazu wollen sie die Geometriepipline deutlich ueberarbeitet haben. Wenn das auf Anhieb klappt und die 1,5 GHz stimmen, sollte die Leistung tendenziell auch mit aelteren APIs und niedrigeren Aufloesungen besser ausfallen.
 
aivazi schrieb:
Also wegen 30% reden einige davon ihre nichtmal ein Jahre alter 1080 einzutauschen.

Glückwunsch Nvidia, jetzt haben sie genug *Stockholm syndromler" die alles kaufen :D


Ich weiß nicht was immer dieses dämliche Geblubber von Leuten soll, die sich solch eine Karte nicht leisten können, oder wollen.

30% Leistungszuwachs zur GTX 1080 wäre schon recht gewaltig, wenn man die Grundleistung dieser Karte betrachtet.
Wenn eine popelige RX 480 30% mehr hätte, wäre das sicherlich weniger gravierend.
Man sollte die Verhältnismäßigkeit dabei betrachten.

Morgen kommt der Test, leider für mich nachmittags zu spät, früh morgens wäre mir lieber, aber dann wissen wir Normalos mehr, ich freue mich jedenfalls darauf. 🚀
 
flmr schrieb:
Stimmt, die OEMs haben den VRAM bei der Fury direkt dazubekommen, hab ich glatt vergessen.
Das man nicht nen Fury Chip 1:1 Shrinken kann, verstehe ich. Pascal ist ja auch keine 1:1 Kopie von Maxwell.
ich kann mir nicht vorstellen, dass es so schwierig ist, das Tile gedönse mit ein paar VRAM Controller zu verbauen. An sich die Fury Architektur war ja nicht schlecht. Hängt nur an den 4GB VRAM.
 
Zurück
Oben