Bericht Turing TU102, -104, -106: Die Technik der Nvidia GeForce RTX 2080 Ti, 2080 & 2070

IBISXI schrieb:
Auch hat NV gleich das Ti Modell gebracht.
Das deutet darauf hin das die 2080 nicht viel schneller als eine 1080ti ist.
(Ich tippe mal auf weniger als 10% Vorsprung für die 2080)

Wäre doch nichts ungewöhnliches. Die 980 war auch nur minimal schneller als die 780Ti und die 1080 ist auch kein wirkliches Upgrade gegenüber der 980Ti. Ich denke eher das man gleich die Ti bringt, weil man nächstes Jahr die ersten 7nm Chips bringt und nicht wieder über 2 Jahre das Lineup ausbaut.
 
  • Gefällt mir
Reaktionen: Rage, fox40phil und amorosa
startaq schrieb:
Heise hat ja diesen unsäglichen NVidia NDA nicht unterschrieben, deswegen dürfen sie berichten: https://www.heise.de/newsticker/mel...fuegig-schneller-als-GTX-1080-Ti-4165622.html
Und jetzt schau Dir mal die OC Ergebnisse einer GTX 1080Ti mit einem i7 8700K im Time Spy Benchmark an, da kommt man auf weit über 11.000 Grafikpunkte, da muss dann auch eine RTX 2080 schon sehr Taktfreudig sein, um das noch zu übertrumpfen.

Ich glaube, es wird Szenarien geben, wo eine RTX 2080 die GTX 1080Ti nicht überflügeln wird, daher wundert es auch nicht, warum Nvidia diesesmal gleich die RTX 2080Ti nach vorne geschoben hat, was den Launch betrifft. Wäre das nicht der Fall gewesen, das hätte doch einen riesen Aufschrei durch alle Foren gegeben!
 
  • Gefällt mir
Reaktionen: DanHot und dohderbert
ok , nur als bsp:Eine 1080 war gerade mal im Schnitt von 12 Spielen 9.3% besser als eine 980ti.Der Rest interessiert mich zb nicht die Bohne. Das einzige was nicht im Normalen Rahmen liegt ist der Preis.Wobei Pascal ein Shrink war und Turing eben Neuere Technik .Schauen wir mal in ein paar Tagen wie es aussieht :evillol:
 
Sehr guter Artikel wie seinerzeit schon zur Pascal-Architektur, vielen Dank.

Ein paar Rechtschreibfehler:
Auf dem TU102 ist der L2-Cache mit 6.144 MB damit doppelt so groß wie auf dem GP102
Deshalb wurde bisher nur. auf Raytracing zurück gegriffen, wenn die Grafik möglichst realistisch sein sollte, die Rechenzeit aber keine übergeordnete Rolle spielt.
Laut Nvidia benötigt bei manchen Objekten beziehungsweise Szenen nicht jedes Pixel eigenen eigenen Farbwert, sodass mit einer geringeren Shading Rate die Performance verbessert werden kann, ohne dass dies optisch auffällt.
Zudem können die Features unterschied intensiv genutzt werden.
 
  • Gefällt mir
Reaktionen: Jan
Ich bin am Überlegen eine GTX 1080 Ti oder RTX 2070 zu kaufen. Wenn die 2080 im Spiele-Benchmarks mindestens 20-30 % schneller ist als die 1080 Ti, dann sollte eigentlich die 2070 etwa so schnell sein als die 1080 Ti.
 
Technisch ein hochinteressantes Stück Technologieträger. Da das eingesetzte, stark simplifizierte RT mich aber eher an Rohrkrepierer wie PhysX und 3D Vision erinnert endet mein Interesse dort auch schon. Die wirkliche Marktreife, inklusive vernünftigem RT, sehe ich aber erst in 2 oder 3 Generationen.
Wie sich die architektonischen Umbauarbeiten abseits von RT schlagen werden wir (hoffentlich) in ein paar Tagen beurteilen können.
 
  • Gefällt mir
Reaktionen: dohderbert
Schöner Artikel, der viel erklärt, aber auch noch genug Spielraum für unsere geliebten Spekulationen offen lässt.

Für mich hat es zwei Gründe, warum man eine RTX 2080 Ti jetzt schon bringt, aber nicht im Vollausbau. Dies hat meiner Meinung nach mit dem Mitbewerber AMD zu tun.

nVidia brettert AMD im Highend Bereich direkt wieder einen vor und zeigt wo der momentane Hammer hängt...aber lässt sich als zweites Hintertüren offen, was eine Karte über der RTX 2080 Ti angeht (meinetwegen 2080 Ti XL) oder aber man lässt es so "vor sich hin dümpeln", falls von AMD nicht der kleinste Ansatz eines Konters kommt.

Frage an die Runde, da ich mich mit Vega nicht beschäftigt habe: gäbe es denn für AMD beim aktuellen Vega eine Option oberhalb von Vega 64? Sprich hat AMD eine Version z.B. im CAD / OpenGL Sektor, die komplett freigeschaltete Shader, etc. hat, die man in den Ring werfen kann...

...um zumindest ggf. noch an eine GTX 1080 Ti ran zu kommen? Lassen wir mal die Kühlungsgeschichten der Vega außen vor. Geht mir grade nur um eine potentielle Option.
 
Bei Turing gibt es pro SM dagegen 64 FP32-Einheiten und zusätzlich 64 weitere INT32-Einheiten, die damit zwar nicht so flexibel (und oft) einsetzbar sind, aber exklusiv für Integer-Berechnungen genutzt werden und daher die FP32-Einheiten nicht blockieren. Laut Nvidia kommen in modernen Spielen im Durchschnitt auf rund 100 Floating-Point-Berechnungen 36 Integer-Aufgaben.

Wenn die Aufteilung etwa 1:3 ist, warum wurden dann die Einheiten 1:1 genommen? Müssten damit die INT32-Einheiten nicht teilweise brachliegen?

Und wozu dann nicht gleich den Vollausbau?
Bei dem Preis hätte ich den Vollausbau erwartet. Abgesehen davon, sind ja auch RT-Cores gesperrt, welche für ein besseres Raytracing hätten genutzt werden können.
Ich bezweifel, dass AMD da jetzt schnell einen Hammer gegen setzen kann, der ein zurückhalten deswegen rechtfertigen würde.
Und wie soll dann der Vollausbau preislich gerechtfertigt werden?
Für eine RTX2080TI-mine-is-bigger dann 1400+ € verlangen?

Ansonsten bin ich eigentlich weniger auf das Raytracing gespannt, dafür kostet das zu viel Leistung, auch wenn es ansich nicht schlecht sein mag. Auch DLSS interessiert hier weniger, wenn das für ein paar ausgewählte Spiele verfügbar ist.
Interessant wird für mich ein Vergleich zwischen den Generationen, also 2080TI vs 1080TI, 2080 vs 1080 und 2070 vs. 1070. Vor allem bei Spielen, die Raytracing nicht unterstützen.

Edit: Und auch wie sich die neuen Karten dann gegen AMD mit Vega 64 schlagen wäre interessant zu wissen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: dohderbert
Tidus-FFX schrieb:
Ich bin am Überlegen eine GTX 1080 Ti oder RTX 2070 zu kaufen. Wenn die 2080 im Spiele-Benchmarks mindestens 20-30 % schneller ist als die 1080 Ti, dann sollte eigentlich die 2070 etwa so schnell sein als die 1080 Ti.

wann fällt das test nda? mittwoch? für die 2070 dann irgendwann im oktober...dazu noch die preisentwicklung nach release und die danach aufkommende "holliday season"....
jetzt noch 2-3 monate warten macht den kohl für neukäufer auch nicht mehr fett...
 
Bully|Ossi schrieb:
Klar, Pascal ist nur Maxwell mit Shrink und dadurch viel höheren Taktraten, es gab von Maxwell zu Pascal keinerlei Neuerungen außer GDDR5X
Pascal brachte einige kritische Verbesserungen.
1. Eine bessere Delta Color Compression, für eine effektiv höhere Bandbreite.
2. Die dynamische Neuzuweisung von Arbeitsschlangen an die SMs, womit Async Compute effektiv genutzt werden konnte.
3. Massiv schnellere Pre-Emption von 3D/Compute-Befehlen, auch nützlich für Async Compute und VR
4. Fortschrittlichere VR-Features

Revan1710 schrieb:
[...]
Mich würde auch interessieren, ob mit dem Wechsel von GDDR5 auf GDDR6 ähnliche Augenwischerei betrieben wird wie bei DDR3 => DDR4. Man liest nur 27 % "schneller", aber wenn der höhere Takt mit höheren Latenzen erkauft wird, ist der Vorsprung im Durchsatz wieder schnell marginal
Wenn die Latenz höher liegt, aber auch die Taktraten im ähnlichem Maße, dann bleibt die effektive Zugriffslatenz gleich.

Die effektive Latenz bei GDDR6 sollte ähnlich bleiben, übrig bleibt die höhere Bandbreite.


Freiheraus schrieb:
[...]
Eine Frage hätte ich weil mir der RTX-Roman einfach zu lange und zäh ist: Die bessere Kompression bzw. höhere Bandbreite, spart die auch VRAM-Verbrauch? Wird eine RTX 2080 weniger VRAM in Games belegen als eine GTX 1080Ti und kann damit ihren Nachteil von 3GB weniger VRAM (8GB vs. 11GB) ausgleichen?
Der VRAM-Verbrauch wird dadurch nicht reduziert, bei Speichertests sollte man sehen, dass die 2080 früher einbricht, als eine 1080Ti.
 
  • Gefällt mir
Reaktionen: yummycandy und Freiheraus
Trotz fehlendem NV-Link wird die RTX2070 das interesannteste Produkt, weil es ahlbwegs erschwinglich ist und diese features mitbringt.

die 2080 ist weder fisch noch fleisch zu dem aufgerufnenen preis.

die 2080Ti sicher das aufregenste produkt zum preis eines Mc Book Pro ( fast), bzw 2 gehälter eines azubis ( deren potentielle käuferschicht).
 
wie immer, der teufel steckt im detail......

"Mit Hilfe von Mesh Shading soll es für Entwickler einfacher werden, Draw-Call-Engpässe auf der CPU mit Hilfe einer neuen Shader-Pipeline zu umgehen, sodass deutlich mehr Dreiecke als zuvor in einem Frame genutzt werden können um komplexere Umgebungen ohne Leistungsverlust zu erstellen. "

das finde ich z.b. mega geil. da gibt es noch so einige andere features, die ihr zwar erwähnt aber die genau JETZT nicht wirklich knallen.

mir gefällt die neue karte, leider zu teuer für meine jüdisch, schottische ader die ich mir seit jahren erarbeitet habe. die wollen doch alle nur mein bestes, den inhalt meiner geldbörse :D

mfg
 
  • Gefällt mir
Reaktionen: Unnu
  • Gefällt mir
Reaktionen: dohderbert
  • Gefällt mir
Reaktionen: MeisterOek, dohderbert und Hobojobo
Phear schrieb:
Nein. Einfach Nein.



damit du glücklich bist...;)


.... die jenigen die es sich gern kaufen würden ohne über das geld nachzudenken
 
Chesterfield schrieb:
die 2080Ti sicher das aufregenste produkt zum preis eines Mc Book Pro ( fast), bzw 2 gehälter eines azubis ( deren potentielle käuferschicht).

ich will es mir nicht ganz anmaßen, aber ich glaube nicht das azubis mit ihrem gehalt die kundschaft ist auf welche nvidia hier setzt.
wer als azubi (mit den "entsprechenden" gehalt) dann hingeht sich eine solche kauft und nebenher über die hohen preise jammert und beteuert dass gaming aber sein wichtigstes hobby ist...der hat es dann auch schlicht verdient diese preise abzudrücken..
 
Entgegen der Tradition hat sich Nvidia dafür entschieden, heute nur das Embargo über die Technik hinter Turing fallen zu lassen. Die Motivation scheint klar: Turing ist mit den Tensor- und RT-Cores für AI und Raytracing mehr als nur Pascal und damit Maxwell in schneller. Turing ist ein großer Bruch. Und diese Botschaft würde in einem Test ohne Spiele, die die neuen Funktionen unterstützen, untergehen, was der technischen und preislichen Positionierung von RTX über GTX nicht zugute käme.
Tl:dr: Wie die geringe Mehrleistung in TFLOPS vermuten ließ, wird die Mehrleistung in klassischen Spielen in keiner Relation zum Aufpreis stehen.
18,5% mehr TFLOPS für 100% Aufpreis von 1808 Ti zu 2080 Ti. Nee danke, den überteuerten Kram können Sie behalten.
Mein Beileid schonmal an alle Geldbeutel der Grünlinge.
 
  • Gefällt mir
Reaktionen: Bright0001, stevefrogs, DanHot und 2 andere
Die neuen Mesh Shader erinnern mich ein bisschen an die Primitive Shaders, die Vega nie erhalten wird. Zusätzlich zu dem geringeren CPU Overhead sollten die Mesh Shaders auch noch Bandbreite innerhalb der GPU sparen, weil nicht so viele Daten bewegt werden müssen. Der Task Shader übernimmt das Culling und sollte dafür sorgen, dass die GPU immer komplett ausgelastet ist.
 
  • Gefällt mir
Reaktionen: fox40phil, f0cu$ und Colindo
Zurück
Oben