News Nvidia Titan X: Pascal-GPU mit 11 TFlops ab 2. August für 1.200 US-Dollar

@ampre,
hatte von Dir KEINEN anderen Beitrag erwartet! Kannst Du uns jetzt auch noch einen Link geben, der uns zeigt, dass GDDR5x Unmengen an Speicherinterface auf dem Chip benötigt?
Anders gesagt, behauptest Du dass die Shader verhungern weil die Speicherbandbreite bei der Titan X nicht ausreicht. Auch hier wüßten wir sehr gerne, woher diese Weisheit kommt? Hast Du da Messungen die das belegen?

Ich bin mir fast sicher, dass Du keine Deiner Aussagen belegen kannst.
 
etoo schrieb:
wann kapiert endlich auch der Letzte dass Aussagen wie : Das ist die erste karte für 4k und 60fps einfach unhaltbar und dumm ist? :)

"Dumm" ist diese Aussage mit Sicherheit nicht, nur eben nicht sonderlich präzise, da es die allererste Single GPU wäre (die Radeon Duo Pro packt das schon eine Weile und soweit ich weiss immer noch, trotz Fertigung in 28nm, für einen vergleichbaren Produktpreis ;) ) und zudem hat meines Wissens keiner hier hellseherische Fähigkeiten, so dass es sich bei dieser Aussage logischerweise eben nur um eine Momentaufnahme handeln kann (bis die Anforderungen durch neue Spiele so steigen, dass es eben nicht mehr passt bzw. der Fall ist) ...

... momentan weiss auch noch keiner, ob eine GPU mit 8 GB speichertechnisch "bis in alle Ewigkeit" für Spiele in Full-HD ausreichen wird, ich schätze eher nicht ... eigentlich schon unsinnig so etwas voraus setzen zu wollen, nicht (?) ...
 
Zuletzt bearbeitet:
HeinzNeu schrieb:
Wenn der Leistungszuwachs zur jetzigen mehr als 50% beträgt, würde ich die neue X kaufen.

dürfte drin sein. Eher mehr. Rechne mal mit + 30% zur GTX 1080 . Wenn man die Handbremse löst sowieso.
Ergänzung ()

ampre schrieb:
GDDR5x ist nicht sinvoll wenn HBM2 vor der Tür steht. GDDR5x hat weniger Bandbreite und verschlingt Unmengen als Speicherinterfache auf dem Chip den man besser für Shader genutzt hätte.

GP102 wird ein sehr unausgewogener Chip werden wenn er wirklich ohne HBM kommt. Keine Speicherbandbreite um die Leistung der Shader zu füttern, keine Shader um noch mehr Leistung herauszuholen.

das ist doch Käse. Wo sind denn heute sichtbare Vorteile von HBM? Und wie viele Karten mit HBM 2 gibt es? Wieso setzt AMD nicht bei Polaris auf einen HBM Chip statt GDDR5?

HBM macht es aktuell unnötig komplex und teuer. Dass man dadurch ein bisschen Energie und Fläche spart mag sein, die Nachteile überwiegen aber - einfach auf wirtschaftlicher Seite. Auch bei einer 1300€ Karte geht es nunmal um Marge.

So wenig wie bei einer GTX 1080 das SI limitiert, so wenig wird es das bei einer TITAN X Polaris. Wenn man den VRam OC wird man auch Mehrleistung erhalten, keine Frage, aber richtig dimensioniert ist das SI nicht nur dann wenn mehr VRam Bandbreite also VRam OC gar nichts mehr bringen würde.

Also 2 Dinge.

512 Bit oder HBM 2 wären schneller -> ja (etwas)
Wäre es technisch / wirtschaftlich logisch -> nein.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
das ist doch Käse. Wo sind denn heute sichtbare Vorteile von HBM? Und wie viele Karten mit HBM 2 gibt es? Wieso setzt AMD nicht bei Polaris auf einen HBM Chip statt GDDR5?

Antwort: Wegen der Kosten.
Eventuell damit verbunden auch, dass es noch nicht möglich ist, HBM(2)-Chips (also die gesamten Pakete) in für die Mittelklasse ausreichenden Stückzahlen zu produzieren.

Der selbe Grund also, warum es nicht auch schon APUs mit HBM-Speicher haben. Bei denen ist (im Gegensatz zu High-End-GPUs) das Speicher-Interface ja wirklich unbestreitbar ein schlimmer Flaschenhals und HBM würde viel bringen. Außerdem wäre die kompakte Bauform sowieso sehr interessant für die Nutzung in kleinen Notebooks oder Spielkonsolen.
Aber es wäre halt wie gesagt für diese Preisklasse noch zu teuer und wahrscheinlich auch noch nicht in ausreichenden Stückzahlen zu fertigen. Die Technologie muss also erstmal noch etwas reifen.

Diese Gründe zählen aber doch bei sowas wie dieser Titan X nicht. Bei so einem Mond-Preis, dessen einzige Berechtigung ist, dass es wohl Leute gibt, die ihn trotzdem noch bezahlen, braucht Nvidia nicht mit Optimierung von Herstellungskosten zu argumentieren und die Stückzahlen dieser Karte dürften auch nicht besonders groß sein.

Damit bleibt für Nvidia als einziges Argument, dass HBM(2) vielleicht keinen nennenswerten Performancevorteil gebracht hätte, weil das SI auch so schon nicht limitiert. Das wäre natürlich ein vernünftiges Argument.
Aber ganz ehrlich: Was hat diese Titan-Karte mit Vernunft zu tun? ;)
So eine Titan ist doch ein reines Luxusobjekt. Da HBM2 wegzulassen, nur weil konventioneller Speicher den Zweck auch noch gut genug erfüllt, ist wie Kunststoffamaturen in eine 500.000€-Luxuslimousine zu bauen. Ja, sie tun ihren Zweck genauso, aber trotzdem erwartet der Käufer in dieser Preisklasse Edelholz und Co.

Wenn ich als krasser Enthusiast schon so einen absurden Preis hinblättere, dann möchte ich doch auch die aktuellste, verfügbare Technologie haben, und nicht irgendwas aus Vernunftgründen beschnittenes. Oder nicht?
 
Zuletzt bearbeitet:
Sehe ich genauso .. jetzt noch eine Titan ohne HBM ist wirklcih traurig.. ich vermute aber mal das man einige monate danach die Titan HBM Deluxe Gamer edition kaufen kann die dann nur 300 Euro mehr kostet als die normale Titan.
 
@Krautmaster
Ja, nicht das SI limitiert, dafür aber der achso tolle gddrx Takt.

Es nützt einem nur kein tolles Speicher Interface (Autobahn), wenn der Speichertakt (Auto)aber mit angezogener Handbremse fährt.
Und eben beim lösen steigt der Verbrauch entsprechend an. Und das ist eben der Vorteil von HBM.
Großes SI, geringer Takt, entsprechend geringerer Verbrauch, dennoch leistungsfähiger als gddrx5.
Nachteil höhere Kosten. Aber wen interessiert bei der Titan die Kosten? Dann erhöht nvidia eben den Preis auf 1300$. Ist doch den Enthusiasten angeblich egal. (Ach halt, bzgl Preisschmerzgrenze war ja von mir nur ne bescheuerte Frage laut dir). Das wäre als wenn Ferrari keine Carbonteile verwendet, sondern Carbonlook aus Plastik und es mit dem Preis begründet.

Warum wohl nvidia beim GP100 auf HBM2 setzt. Warum nutzen sie denn nicht den tollen gddrx5, sondern schmälern dort ihre Gewinnmarge?
Weil die Leute in dem Bereich HBM "Fanboys" sind? Wohl kaum.
 
Zuletzt bearbeitet:
Ich traue Nvidia zu ~2017, als Konter zu einer allfällig sehr schnellen AMD-Karte, eine 1080Ti mit HBM2 raus zu hauen zum Preis der heutigen 1080^^

Und die Karten mit dem GP100 und HBM2 kosten gewaltig viel mehr als die neue Titan... Soviel zum Thema warum kein HBM2.
 
0xffffffff schrieb:
Wahrscheinlich ist die Titan X absichtlich beschnitten, damit sie nicht als Quadro-Ersatz missbraucht wird... :)

Ne weil die sonst 3000+ USD kosten würde... Die Quadros bekommen spezielle Treiber welche keine Spiele ausführen können bzw. nur sehr schlecht. Die neue Titan X ist aber eine Geforce Karte ergo hat die andere Treiber.
 
Cool Master schrieb:
Die neue Titan X ist aber eine Geforce Karte ergo hat die andere Treiber.

Das ist der wesentliche Punkt. Quadros oder auch FirePros sind nicht deshalb so viel teurer, weil sie auf teurere Hardware setzen. Die ist ja oft (bis auf das Kühler-Design) identisch, mit Consumer-Karten.
Die auf professionelle Anwendungen (die selbst leicht fünfstellige Lizenzkosten mitbringen) optimierten Treiber sind es, die den Preis so hoch treiben, zusammen mit dem Aufwand, die Karten+Treiber für solche Anwendungen offiziell zu zertifizieren.
All diese Investitionen müssen bei den Profi-Karten mit viel kleineren verkauften Stückzahlen wieder reingeholt werden, als bei den massenweise verkauften Gaming-Karten.

Wer meint, ein paar hundert oder tausend Euro sparen zu müssen, indem er statt einer Quadro eine Titan oder sonstige GeForce-Karte kauft, der kann das spätestens dann schwer bereuen, wenn es Probleme mit einer professionellen Anwendung gibt, und der Supportmitarbeiter erstmal einen kleinen Lachanfall bekommt, wenn man ihm mitteilt, was für eine Grafikkarte man benutzt.
Der erste Schritt zur Fehlerbehebung wird dann sein, die Spiele-Grafikkarte mit ihren GeForce-Treibern runterzuschmeißen und gegen eine Quadro auszutauschen. Selbst dann, wenn das Problem letztlich doch nicht an den Treibern gelegen haben sollte. Der Support z.B. von Siemens wird sich einfach erst gar nicht damit beschäftigen wollen, ihre CAD- und PLM-Anwendungen auf einem als Workstation missbrauchten Gaming-Rechner zum Laufen zu bringen.
 
Zuletzt bearbeitet:
@ Conceptions

wie Herdware und ich schrieben, einfach wirtschaftlich kalkuliert. Es ist kein Wünsch dir was. Nvidia musste ohnehin einen eigenständigen Chip für den Consumer Bereich entwickeln, den GP102. Dass der ganz andere Anforderungen hat wie eine TESLA liegt doch auf der Hand. Dazu gehört auch die Anforderung wirtschaftlich zu sein, noch weit mehr als bei einer 10000€ + Tesla Karte.

Zudem muss die Verfügbarkeit gewährleistet sein und HBM2 scheint es nicht gerade in rauen Mengen zu geben. Auch das Risiko dahingehend war schlicht zu hoch. Es hätte Nvidia wie AMDs Fiji ergehen können. Chip fertig, HBM Mangelware und vielleicht nicht in den Ausbaustufen wie verlangt vorrätig. Dazu noch teuer...

Und wenn man schaut was HBM der Fiji bringt so gehen die Vorteile gegen 0. Kleine Karte, das wars. Mit der Pascal Texturkompression und zusammen mit GDDR5X ist das Bandbreite zu Rohleistungs Verhältnis besser als bei der GTX 1080.

AMD hat sich bei Polaris ja bisher auch sehr auf den Wirtschaftlichkeits-Faktor konzentriert und auch das SI reduziert.

@0xffffffff

selbes wie bei der GK100. Erst einen teilaktiven Chip als TITAN, später dann vielleicht eine vollaktive mit 24 GB noch als Black Edition oÄ.
Ggf heißt die dann aber auch GTX 1180 und kommt mit vollaktivem GP102 und ebenfalls 12 GB.
 
Zuletzt bearbeitet:
Chismon schrieb:
"Dumm" ist diese Aussage mit Sicherheit nicht, nur eben nicht sonderlich präzise, da es die allererste Single GPU wäre (die Radeon Duo Pro packt das schon eine Weile und soweit ich weiss immer noch, trotz Fertigung in 28nm, für einen vergleichbaren Produktpreis ;) ) und zudem hat meines Wissens keiner hier hellseherische Fähigkeiten, so dass es sich bei dieser Aussage logischerweise eben nur um eine Momentaufnahme handeln kann (bis die Anforderungen durch neue Spiele so steigen, dass es eben nicht mehr passt bzw. der Fall ist) ...

... momentan weiss auch noch keiner, ob eine GPU mit 8 GB speichertechnisch "bis in alle Ewigkeit" für Spiele in Full-HD ausreichen wird, ich schätze eher nicht ... eigentlich schon unsinnig so etwas voraus setzen zu wollen, nicht (?) ...

Exakt, eine Momentaufnahme durch die Verwendung von "aktuell". Auch sehe ich in Bezug auf aktuelle Spiele immer noch kein OK für 4K/60FP, was meine Anforderung darstelt um auf 4K Gaming umzusteigen. Da ich die Karten gerne mal alle 1/2 Jahre wechsele sind Momentanaufnahmen für mich durchaus interessant da ich warscheinlich Ende nächsten Jahres nicht mehr mit dieser Karte spielen werde wenn ich sie denn holen würde . Das kann aber für jeden durch andere Anforderungen völlig anders aussehen.
Ansonsten ja, keine präzise Aussage.
 
Sunjy Kamikaze schrieb:
[Deine Frage zu Nvidia Suround]

Nvidia hat eine eigene Seite dafür: klick. Im Teaser steht was von "With the power of GeForce GPUs, gamers are able to combine up to five displays to create the most immersive gaming environment possible". Klick Dich doch dort mal durch.

Krautmaster schrieb:
Wetten dass keine Titan mit HBM vor 2018 kommt?

Vielleicht kommt die neue Volta-Architektur in 16nm bereits nächstes Jahr und diese sollte auf jeden Fall auf stacked Memory basieren. Derzeit scheint es jedenfalls gute Gründe für die Annahme zu geben.

DarkstormX schrieb:
Exakt, eine Momentaufnahme durch die Verwendung von "aktuell". Auch sehe ich in Bezug auf aktuelle Spiele immer noch kein OK für 4K/60FP, was meine Anforderung darstelt um auf 4K Gaming umzusteigen.

Bisher hörte ich diverse Tester/Redaktionen davon berichten, dass die Pascal-Titan die erste Karte für 4k/60fps sei (bzw. sein könnte). Wo hakt es denn Deiner Meinung nach, wenn Du dies vehement ablehnst?
 
0xffffffff schrieb:
Den Pascal-Vollausbau gibt es wohl nur mit den Quadro-Karten: http://www.heise.de/newsticker/meld...0-Volle-Pascal-Power-fuer-Profis-3277110.html



Wahrscheinlich ist die Titan X absichtlich beschnitten, damit sie nicht als Quadro-Ersatz missbraucht wird... :)

OK, ich halt es für ziemlich unwahrscheinlich, dass wir eine 1080Ti sehen werden. Einzige Option ist der Vollausbau mit wieder 12GB oder gar 24Gb und mit Herstellerdesigns. Ich würde diese Karte zwar lieben, aber ich glaube nicht dran, trotz der 780Ti. Möglicherweise kommt ein Vollausbau als 2k€ Ultimate Titan, wer weiß...
 
Zuletzt bearbeitet:
Hier stand Mist
 
Zuletzt bearbeitet:
Faust2011 schrieb:
Bisher hörte ich diverse Tester/Redaktionen davon berichten, dass die Pascal-Titan die erste Karte für 4k/60fps sei (bzw. sein könnte). Wo hakt es denn Deiner Meinung nach, wenn Du dies vehement ablehnst?

Gute frage Faust, danke

ich extrapoliere anhand meiner Erfahrungen. Ein Beispiel, ich spiele derzeit mit einer auf 2GHz übertakteten 1080 "The Division". Ich spiele mit der voreingestellten "Ultra" Einstellung, wobei ich die Qulität der Nebel auf "Medium" herabgesetzt habe, Nvidia Gameworks Features habe ich nicht aktiviert (sind auch bei default ultra deaktiviert), in der WQHD Auflösung. Speziell im Bereich "Stuyvesant" (zentraler Spielplatz) geht die FPS trotztdem gerne mal runter bis auf 45FPS. Wenn man dort Missionen macht ist das nervig. Nun geben wir eine Leistungsschippe von 25% drauf, gleichzeitig erhöhen wir die Auflösung von WQHD auf 4K. Ehrlich, das ist weit von 60 FPS entfernt. Ohne, dass das gesichert ist, ich werde recht haben :-).
Wenn die Anforderung wirklich ist diese "smoothen" FPS in 4K zu fahren, ohne die Details arg herunterzuschrauben, dann ist das bei aktuellen Spielen (zumindest einigen) auch mit der Titan X Karte sicher nicht gegeben.
Wenn man auch mit schwankenden 30 bis 50 klarkommt, dann ist das sicher eine andere Gesichte, jedoch nicht meine Anforderung und auch nicht der Kern meiner Aussage (4k 60FPS, aktuelle Spiele).
 
Zuletzt bearbeitet:
Ohne es hinterfragt zu haben, aber wahrscheinlich ist diese Aussage "4k/60 Hz endlich möglich mit Pascal-Titan" so gerechtfertigt, dass damit 90% der Spielszenen diese Bedingung erfüllen. Vielleicht auch 95% oder auch nur 80%... ich weiß es nicht, jedoch könnte ich es mir so erklären.

Wenn Du natürlich die Bedingung hast, dass gerade die 60fps die "Minimum-Fps" sein sollen, dann sieht die Welt natürlich schon wieder anders aus und eine Pascal-Titan ist dem dann wirklich noch nicht gewachsen.
 
Ja, ich gehe von einem durchgehendem Erlebniss aus, mir persönlich ist das sehr wichtig, auch in kritischen Stellen im Spiel. Wäre ich nicht so empfindlich wäre mein Hobby günstiger. Deiner Aussage ist meinerseits nichts hinzufügen, sie ist sehr gut :).
 
Die Gerüchteküche brodelt ,dass die Pascal eine kurze Lebenszeit haben und schon 2017 ein 16nm Ableger kommt der dann unter Pascal Gen2 oder eventuell schon mit Volta verkauft wird. u.a. wurden die Gerüchte bestärkt durch den überraschenden Release des GP102 und des eher enttäuschenden Shader Counts für den neuen 16nm Prozess.

Quelle: ^^
 
Zurück
Oben