News Nvidia: Titan V im Detail auseinander gebaut und erste Benchmarks

edenjung schrieb:
Ihr bekommt keine Karte oder?
Wobei ist ja eigentlich auch egal.
Die karte richtet sich an profis, da braucht ihr die nicht testen, da dieses Klientel wohl hier in der Minderheit ist.
Ist nicht negativ gemeint.

wir haben sicher einige profis hier, die sich für die leistung der karte interessieren. computerbase ist ja grundsätzlich keine reine gamer-seite
 
Gamers Nexus hat vor kurzem ein Benchmarkvideo nachgelegt:
https://www.youtube.com/watch?v=03toTq8vDYw

Wie erwartet ist die Performance nichts umwerfendes und auch inkonsistent was wohl entweder vom Treiber kommt oder einfach die Architektur von GV100 die nicht für Spiele optimiert ist. Auffällig ist jedoch auch die gute Performance in Low-Level API Titeln (DX12,Vulkan) welche auf eine bessere Async-Compute Optimierung in der Architektur hindeuten könnten.
 
Was für eine Spannungsversorgung und ich dachte die Armee an VRM auf meiner MSI R9 390 wäre schon viel, das toppt ja nochmal alles bisherige.
 
modena.ch schrieb:
@Krautmaster
Was aber wiederum belegt, dass Volta pro Takt 0 zugelegt hat.
Also Maxwell Mk3 ist. Zumindest für Gamer....
hat man das erwartet? Die Architektur wird abseits Tensor und FP64 quasi identisch sein. Beides bei Gaming kaum der Rede wert stand jetzt. Wie schon Maxwell -> Pascal.

Aber auf die 40% will ich gar nicht hinaus, eher geht es mir darum, dass man sicher nicht
davon ausgehen kann, dass jede Titan V von 1455Mhz Boosttakt kommend auf 2000Mhz laufen wird. (37% OC!!)

auch das wenig ungewöhnlich. 2000Mhz dürfte eher Standard OC sein so wie bei jeder Pascal gerade. Eher eine Sache des Power Limits. Ich rede auch nicht von Stock Cooler sondern Wasser, vermutlich standard bei so ner Karte wenn man sie für Gaming nutzt.
Und was der Riesenchip dann für eine Hitze erzeugt, will ich gar nicht wissen.
kommt drauf an was an Voltage nötig sein wird. Lass es 350-400W sein sofern das Power Target das hergibt. Laut Futuremark tut es das ja.
Große Chips sind meist nicht so ineffizient. Bis 2000 Mhz skaliert man da eigentlich fast linear mit dem Takt. GPU sind da nicht so an den Rand getaktet wie CPU. Zumindest die Pascals bisher.

NV wird schon wissen, wieso sie den Grund und Boosttakt gegenüber Pascal gesenkt haben.
Durch die 12NM Fertigung gibt es mehr Packdichte, das impliziert, dass man den Takt bei gleicher Strukturgrösse
senken muss.
Viel eher brauchen mehr Transistoren bei gleichem Takt mehr Saft. Um die 250W zu halten musste da natürlich der Boost Takt gesenkt werden (das sogar recht viel Takt angesichts der 815mm² und 250W finde ich). Sagt aber wenig über das typische max PC aus. 30-35% waren auch zb bei der niedrig daherkommenden GTX 780 kein Thema.
 
Zuletzt bearbeitet:
modena.ch schrieb:
Was aber wiederum belegt, dass Volta pro Takt 0 zugelegt hat.
Also Maxwell Mk3 ist...

....man sicher nicht davon ausgehen kann, dass jede Titan V von 1455Mhz Boosttakt kommend auf 2000Mhz laufen wird. (37% OC!!)...

...NV wird schon wissen, wieso sie den Grund und Boosttakt gegenüber Pascal gesenkt haben.

1. stimme zu. Leistung per Shader dürfte schon lange nicht mehr gestiegen sein

2. dachte ich mir auch, bis ich gesehen habe dass sowohl meine alte 1070 als auch jetzige 1080 Ti vollkommen problemlos 2GHz schaffen. Das gibt der Chip und der Prozess einfach her. Standardmässig hat Nvidia die Karten einfach sehr konservativ getaktet (wohl insb. weil man eh keine Konkurrenz hat)

3. das wird Stabilität und Leistungsaufnahme zu Grunde haben. Meine 1080 Ti @ 1750MHz @ 0,8V frisst 200w, und @ 1950MHz bei Standard 1,05V 300w. Man wird halt einfach ein bischen niedriger takten, damit die Voltage bei gleichzeitig gegebener Stabilität niedrig bleiben kann, und der Chip innerhalb seiner TDP bleibt.
 
XTR³M³ schrieb:
bitte was?

da, mal ein test wo beides ohne OC ist...
https://www.3dmark.com/compare/spy/2903576/spy/2845650

über 40% sind weit von deinen 10% weg... obs natürlich in games gleich ist, bleibt die frage.
Habe ich doch vor ein paar Tagen in den Beitrag mit der Vorstellung der "V" schon geschrieben, wenn überhaupt, dann ist sie maximal 50% schneller. Lag ich doch gar nicht so falsch.
Ne dann doch lieber meine zwei Titan X als eine V. Bei 16 - 24 GB Videospeicher wäre sie schon etwas interessanter. Aber ich befürchte fast, dass die richtigen für Spieler gedachten auch nicht wirklich schneller sein werden, als die "V". Die werden dann bestimmt wieder in den Shadereinheiten beschnitten und liegen dann Performancemäßig kurz hiner der "V" und sind mit Sicherheit aber nicht unter 1.000 Euro zu bekommen. Eher so Richtung 1.200 Euro mit 16 GB. Irgendwann kommt dann noch mal eine "Vp" mit Vollausbau für ca. 1.500 Euro.
 
Bin sehr gespannt auf die Consumer-Karten.

Gibts irgendeine grobe Schätzung wann man damit rechnen darf? Letztens wars doch so April/Mai 2018 bzw. Q1 2018?
 
Naja ich könnte mir gut vorstellen, dass die zur Cebit vorgestellt werden. Im Handel dann vielleicht im Sommer.
 
ExtremeRampage schrieb:
Auffällig ist jedoch auch die gute Performance in Low-Level API Titeln (DX12,Vulkan) welche auf eine bessere Async-Compute Optimierung in der Architektur hindeuten könnten.

Async Compute hat mit den Resultaten wenig zu tun. Low Level APIs wie DX12 oder Vulkan haben schlicht und einfach weniger CPU Overhead, wodurch der Flaschenhals sich Richtung GPU verschiebt - was bei einem Riesen Chip wie dem GV100 in DX11 nicht als gegeben angenommen werden kann.

Den Einfluss von Async Compute testet man zudem nicht, indem man alle Low Level API Spiele, die man findet, auf die Karte wirft. Man testet ihn, indem man ein Spiel findet, in dem sich AC deaktivieren lässt, und die Ergebnisse On/Off auf den verschiedenen Karten vergleicht.

Ebenfalls rennen die Typen von Gamer Nexus mit der Karte anscheinend ständig in irgendein (Power oder Temperatur) Limit, was die niedrigen Min-FPS in manchen Titeln erklärt. Sollten mal PT/TT maximieren oder undervolten, damit der Treiber nicht so zügelt.
 
Süß wie hier über die Leistung im Vergleich zu SLI Gespannen von Titan XP oder 1080Ti diskutiert wird. Die Karte leistet 110Teraflops im Vergleich zu 12Teraflops, 3k Bit Speicherinterface und von den CUDA/TensorCores ganz zu schweigen. Ihr vergleicht Äpfel mit Birnen - die wahre Performance der Karte wird in Grafikbenchmarks niemals ausgelastet oder überhaupt nur angefasst werden. Für 3000 Dollar ist die Karte ein absolutes Schnäppchen, die Tesla kostet mit 112Teraflops(und weiteren Speicherbandbreite etc) satte 7000 Dollar mehr.
 
PR3D4TOR schrieb:
Gibts irgendeine grobe Schätzung wann man damit rechnen darf? Letztens wars doch so April/Mai 2018 bzw. Q1 2018?

Spekuliert wurde Ende März für die offizielle Vorstellung und im Handel ... tja ... da weiß man im Grunde gar nix.

Geh mal davon aus, dass Ampere zwischen April und August im Markt erscheint.
Genauer kann man das einfach nicht vorhersehen. Glaub das weiß nicht mal Nvidia selber ganz genau, zur Zeit. ;)

Zu was für Stückzahlen(geht wieder erst alles an OEMs ? ), oder zu was für Preisen ( GTX 2080/1180 für 800€ ? ), wird man dann sehen, wenn's so weit ist.

Fänd's aber schön, wenn man dann was schnelleres, als eine 1080Ti kriegen kann, zu Preisen unter 3000€ . :D
Ergänzung ()

btw:

Im Forum bei 3D center hat jemand wohl etwas mehr Ahnung, bzw. Einblicke:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11549645#post11549645


P.S.: Bei PCGH spekulieren sie auch auf März, bzw. Q2:

Die Rede ist von einer Veröffentlichung im zweiten Quartal 2018, womit eine Vorstellung im Rahmen der Hausmesse GTC 2018 (26.-29. März) denkbar erscheint.

Quelle:
http://www.pcgameshardware.de/Volta.../Nvidia-Ampere-Geforce-Informationen-1244366/


Ach ... und GDDR6 ist wohl wahrscheinlicher, als HBM2.
 
Zuletzt bearbeitet:
Nvidia hat auch das Geld um mehrere Layouts auflegen zu können. Sie müssen nicht einen Chip für sämtliche Bereiche nutzen. Bringt dem Privatmann für das Gaming auch nicht viel, wenn er letzten Endes Geld für Features ausgibt, die er überhaupt nicht nutzen kann. Ampere ist fix laut Igor für Q2 2018. Also ab April geht es los. Ich würde eine 1180 bei 800€ ansetzen mit leicht höherer Leistung als die 1080 Ti aber nur mit 8GB VRAM. Die Ti läuft dann bis der Nachfolger kommt weiter für 700€. Etwas darunter angesiedelt die 1170. :)
 
00Zetti schrieb:
Süß wie hier über die Leistung im Vergleich zu SLI Gespannen von Titan XP oder 1080Ti diskutiert wird.
Und warum hast du jetzt damit ein Problem? Alles was du schreibst weis hier sowieso jeder. Erzähl doch mal was, was wir noch nicht wissen.
 
herhade schrieb:
Sieht irgendwie komisch aus. Heißt das nicht übersät?

BT: Schon eine fette Karte. Bin mal auf Benches gespannt.

Der ganze Artikel ist irgendwie komisch formuliert finde ich.

sind ist Doppelungen und
in der X Kalenderwoche dieses Jahres Substantiv ist auch wirsch. "n" vielleicht?

Bin gespannt ob ihr die auch testet, rückt NV Samples raus oder müsstet ihr die kaufen?
 
SKu schrieb:
Ich würde eine 1180 bei 800€ ansetzen mit leicht höherer Leistung als die 1080 Ti aber nur mit 8GB VRAM.

Das würde die neue Karte aber nicht attraktiv genug gegenüber der ti machen, um klar mehr Geld dafür auszugeben, bei nur leicht besserer Leistung, aber 3 GB Ram weniger.

Kann ich mir nicht so vorstellen, denn bis dahin könnte die 1080ti nur noch 600-650€ kosten.
Was dann allerdings wiederum ein attraktives Angebot wäre, falls die 1180 tatsächlich nur mit 8GB ram käme.

Naja, wir werden es ja wohl in ca. 3 Monaten erleben, was dabei raus kommt, bei der Vorstellung.

Um die 800€ kommt aber evtl. hin, für die ersten customs.
Ich tippe aber auf mehr Speicher, als nur 8 GB.

Ich meine ... das hat die GTX 1070 ja schon.
Nee, das können sie nicht bringen.


P.S.: Also im "Notfall" würd ich mir auch ne Asus Strix 1080Ti oc für 599€ kaufen. :D
Dann muss die halt reichen. ;)

Sowas in der Art: https://www.computerbase.de/preisve...0-ti-oc-90yv0am0-m0nm00-a1587607.html?hloc=de

Wenn die 1180 draußen ist, werden die 1080Ti es schwer haben.
 
Zuletzt bearbeitet:
Mehr Speicher macht bei den Karten aber kaum Sinn. Es gibt vielleicht eine Handvoll Spiele die mehr VRAM benötigen, was aber nicht bedeutet, dass das Speicher-Management im Spiel selbst gut ist. Die 11GB der Ti bekommst du z.B. in Origins erst bei 8K gefülllt. Kein Szenario, was für die Praxis Relevanz hätte, noch dazu wäre auch Ampere außer Stande so eine Auflösung überhaupt befeuern zu können. Ich denke schon, dass viele trotzdem die 1180 vorziehen würde, wenn sie schneller wäre als die 1080 Ti. Und ich denke auch, dass Nvidia mit Sicherheit die Speichergröße so bemisst, dass sie rein wirtschaftlich Sinn macht und der Kunde auch keinen wirklichen Nachteil dadurch erfährt. Solange über 90% der potentiellen Kunden auch noch eine Auflösung von FullHD fahren, wir auch wirklich effiziente Engines wie Frostbite haben, macht immer mehr Speicher einfach nur begrenzt Sinn - in Bezug aufs Gaming. Vlt. sehen wir auch Karten mit 12GB aber eine Verdopplung des VRAMs halte ich für relativ unwahrscheinlich. Je nachdem was für Deals Nvidia erzielen kann, glaube ich da eher an schnelle GDDR5X/GDDR6 Chips auf den Karten.

Wenn die 1180 schneller wird als die 1080 Ti, dabei aber effizienter ist, dann reicht das schon aus, damit die Leute die Karten kaufen. Und Nvidia kann zuerst in der Performance-Klasse abkassieren und später dann, wenn der Nachfolger der 1080 Ti erscheinen wird, nochmals mit dem größeren Chip.

Zuerst muss Ampere erst einmal die 1080 Ti schlagen. Da liegen in WQHD im Schnitt schon 35% zwischen, in 4K noch mehr im Vergleich zur 1080. Und dann muss Ampere da noch einen drauf setzen.
 
Call of Duty WW2 war das erste Spiel überhaupt, dass sich bei mir in Wqhd bei Ultra tatsächlich mehr als 10GB gegönnt hat. Doch selbst dann isses ja noch nicht gesagt, dass belegt = benötigt bedeutet und Nachteile entstehen würden
 
Zurück
Oben