Notiz „Get Amped“: Nvidia holt GTC 2020 Keynote am 14. Mai nach

So klein war der Sprung von Pascal auf Turing gar nicht. Nvidia hat nur die Flaute bei AMD genutzt um die Basis für ganz neue Möglichkeiten in die Hardware zu gießen. Da gleichzeitig auch noch die Effizienz gesteigert wurde kann man recht zufrieden sein. Die anfänglichen Preise waren so hoch, weil es erstens keine Konkurrenz gab und man zweitens die Pascal Überbestände auf Grund des Mining Booms loswerden musste. Hat doch weitestgehend geklappt. Danach kam Navi irgendwann, also im relevanten Bereich die Preise runter und da wo es immer noch keine Konkurrenz gibt eben nicht.
Ach ja btw, darauf, dass Ampere sehr wohl Relevanz für die nächste Generation Gamer Karten hat sind hier vor Matty die meisten auch schon gekommen. Wir sind ja auch superschlau, alle hier.
 
Oneplusfan schrieb:
Also von einem Minisprung wie bei Pascal -> Turing gehe ich nicht aus.

Wovon redest du? So war die Entwicklung bis zu der 1080, die ausnahmsweise etwas mehr drauf gelegt hat.
1587914907279.png

https://www.computerbase.de/2018-09/geforce-480-580-680-780-980-1080-vergleich/2/

Bei der 2080 gab es dann 36% mehr und die 2080S legte da nochmal eine Schippe oben drauf.
1587915647234.png

https://www.computerbase.de/2019-07/geforce-rtx-2080-super-test/2/

Also bitte, zu behaupten es gab nur einen "mickrigen Sprung" ist schlichtweg lächerlich und entspricht nicht im Ansatz der Wahrheit, von den zusätzlichen Einheiten für RTX ganz zu schweigen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel. und pietcux
Von 65% auf 100% ist eine Steigerung um über 50%. Der Sprung von Maxwell auf Pascal war also größer als von Pascal auf Turing...(980 vs 1080 vs 2080).
Das lag aber mehr am großen Sprung, den die Fertigung gemacht hat (28->16nm). Turing hat dann tatsächlich einen größeren Sprung in der Architektur gemacht (und die Die-Size erheblich anwachsen lassen)
 
  • Gefällt mir
Reaktionen: pietcux und xexex
Oneplusfan schrieb:
Auch bei AMD wird mmn. von manchen etwas zu tief gestapelt. Ich gehe schon davon aus, dass die 2080ti zumindest knapp geschlagen wird.
Dafür bräuchte es ja lediglich ca 40% auf die Radeon VII, das würde die 5700XT schon schaffen, wenn sie 60CUs wie die Radeon VII hätte.
Und wenn Big Navi wirklich 80CUs haben soll, gepaart mit +50% Perf/Watt ggü RDNA respektive +125% Perf/Watt ggü. Vega für die entsprechenden CUs, dann müsste sie schon mindestens 30% über der 2080Ti landen bei gleichem Verbrauch.
 
Soll ja auch eine Ankündigung bezüglich OpenSource kommen. Mal gucken was sie da auspacken ;)
 
"Minisprung" muss man im Kontext sehen.
Der Sprung von Kepler auf Maxwell war größer, obwohl die gleiche Fertigung verwendet wurde.
Der Sprung von Maxwell auf Pascal war auch größer, obwohl fast die gleiche Architektur verwendet wurde.
Nun kriegt man ne neue Architektur + Fertigungssprung. Da wären nur 50% (oder gar weniger) mehr Leistung etwas wenig.

Mir ist klar, dass man mit Turing dafür neue Hardwareeinheiten eingeführt hat. Hab ja auch nirgends geschrieben, dass Turing eine schlechte Architektur ist. Nur ist halt die Rasterperformance vergleichsweise weniger stark gestiegen.

Zur Skalierung bei AMD muss man auch sagen, dass man eine 60-80 CU RDNA1 gebracht hätte, wenn diese konkurrenzfähig und technisch möglich gewesen wäre.
 
Oneplusfan schrieb:
Zur Skalierung bei AMD muss man auch sagen, dass man eine 60-80 CU RDNA1 gebracht hätte, wenn diese konkurrenzfähig und technisch möglich gewesen wäre.
Der Haken wäre hier der Verbrauch gewesen, wenn die 40CU Karte schon mit 225W kommt. Und auch der Preis in der zu dem Zeitpunkt neuen Fertigung.
7nm+ ist ja günstiger als 7nm und der Verbrauch (sowohl Strom als auch Fläche)durch die Fertigung und durch RDNA2 soll massiv sinken.
 
Oneplusfan schrieb:
Also von einem Minisprung wie bei Pascal -> Turing gehe ich nicht aus. Alleine der Shrink dürfte in etwa so viel bringen (wenn nicht gar mehr, da ja direkt auf 7nm+ gewechselt wird).
50% mehr Leistung wird wohl eher am unteren Spektrum angesiedelt sein, ich gehe von 60-70% aus (Maxwell -> Pasacal war ähnlich, nur was Pascal eigentlich keine neue Architektur war).


In meinen Augen war Turing kein Minisprung. Auch wenn es viele belächeln, aber Themen wie die dedizierten RT Cores und Tensor-Cores sind Themen, die sich besonders mittelfristig auszahlen dürften. Spätestens wenn die alten Konsolen ausgemustert sind, wird hier einiges auf uns zukommen. Auch DLSS sieht mittlerweile extrem vielversprechend aus Zudem kommt es jetzt auch langsam mal in Fahrt. Dazu hat Turing einen extremen Sprung bei den Low level APIs hingelegt und hier quasi alle schwächen ausgebessert und die Architektur für die Zukunft vorbereitet.

Theoretisch könnte Nvidia mit 7nm sicherlich extrem einen drauflegen. Bei der Effizienz liegen sie ja jetzt mit 14/12 nm schon auf einer ähnlichen Augenhöhe wie AMD mit 7nm.

Aber ich denke nicht, dass Nvidia das pulver gleich zum Anfang verschießt. Ich denke Nvidia wird zum Anfang eher etwas tiefer stapeln und später entweder mit einer späteren TI nachlegen oder eventuell mit einer Refreshgeneration wie damals bei Kepler.
 
  • Gefällt mir
Reaktionen: xexex
Da mein aktuelles setup der Inbegriff eines Bottlenecks ist freue ich mich auf die neuen GPUs. Ob sie aber in nivdia kommt ist fraglich. RDNA2 ist auch im Rennen. Sicher ist aber dass ich das dickste kaufe was der jeweilige hersteller hat incl. Eines neuen Monitors. Dann kann die 3200 WX als zweite Karte im System andere Aufgaben übernehmen.
Computing und Unterstützung beim editing sind bei mir genau so wichtig wie gaming, eher noch wichtiger. Ich hätte mir ja die radeon VII gekauft aber ich wollte gerne noch auf eine Performante Implementierung von raytracing warten. Da ich aber eine brauchte ist es der vollausbau von Polaris 12 geworden.

Also dann.. Lasset die spiele beginnen. Ich denke mal vom AMD werden wir auch kurz darauf hören nachdem Nvidia vorgelegt hat.
 
  • Gefällt mir
Reaktionen: Chismon
PS828 schrieb:
... dass ich das dickste kaufe was der jeweilige hersteller hat incl. Eines neuen Monitors. Dann kann die 3200 WX als zweite Karte im System andere Aufgaben übernehmen.
Computing und Unterstützung beim editing sind bei mir genau so wichtig wie gaming, eher noch wichtiger. Ich hätte mir ja die radeon VII gekauft aber ich wollte gerne noch auf eine Performante Implementierung von raytracing warten. Da ich aber eine brauchte ist es der vollausbau von Polaris 12 geworden.

Also dann.. Lasset die spiele beginnen. Ich denke mal vom AMD werden wir auch kurz darauf hören nachdem Nvidia vorgelegt hat.

Na gut, den absehbaren, kommenden RTX Titan (X?) Nachfolger wirst Du Dir bei dem Bisschen Mehrwert in Spielen und dafür unverhältnismäßig hohen Preis vermutlich nicht aussuchen, oder(?), also eine RTX 3080Ti (wobei diese erst nachgeschoben werden könnte, zuerst "nur" eine RTX 3080 von nVidia salamitaktisch aufgedeckt werden könnte und aus dem Grund nVidia erst noch warten könnte mit Ankündigungen auf AMD/RTG) oder der Vollausbau von Big Navi RDNA2 (RX 6900XT oder RX Navi 80?).

Also von mindestens 800 Euro zum Marktstart würde ich schon ausgehen (für eine RTX 3080 oder RX 6900XT bzw. RX Navi 80), das ist eine Menge Holz für eine GPU ;).

Bei mir wird es allerdings aller Voraussicht nach maximal entweder eine RTX 3070 oder das Big Navi Äquivalent (RX 6900 oder RX Navi 72?) werden, aber auch davon abhängig was die Grafikkarten bieten werden (mindestens 12 GB GDDR6 oder HBM2 sollten da idealerweise schon an Bord sein, denn 8GB könnten mittelfristig doch knapp werden, zumal die Next Gen Konsolen ja auch 16GB (shared RAM) bekommen werden) und kosten sollen.

Noch bezahlbares (effizienteres) RTX 2080Ti Niveau würde mir mehr als reichen, denke ich, nur ob ich die Zeit haben werde das auch auszureizen ist eben auch fraglich ... 'mal schauen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PS828 und DarkerThanBlack
Chismon schrieb:
aber auch davon abhängig was die Grafikkarten bieten werden (mindestens 12 GB GDDR6 oder HBM2 sollten da idealerweise schon an Bord sein, denn 8GB könnten mittelfristig doch knapp werden, zumal die Next Gen Konsolen ja auch 16GB (shared RAM) bekommen werden) und kosten sollen.


Ich glaube ja, dass Big Navi mit normalen GDDR6 kommen wird. HBM hat den letzten High End Karten von AMD Ziemlich das Genick gebrochen und die Preise massiv hochgetrieben. Dabei hatte man nie einen echten Vorteil von dem speicher gegenüber GDDR6. Okay, die VII hat tatsächlich mehr und schnelleren Speicher, aber richtig nutzen daraus konnte die Karte in Spielen nicht ziehen, obwohl der speicher angeblich die Hälfte vom Verkaufspreis ausgemacht hat. GDDR6 ist mittlerweile ziemlich günstig geworden und ist auch gut verfügbar.

Ich denke AMD wird deshalb bei Big Navi auch darauf setzen. Bei der Menge bin ich mal gespannt. Für die 3080 standen ja lange mal 10GB im Raum und bei der 3080 Ti 12GB. Das wäre jetzt kein riesen Sprung, aber durchaus realistisch. Möglich wäre auch eine Verdopplung des Bisherigen, aber ich denke das Wollen Sie eher vermeiden.

Aber mit 8-10 GB dürfte man sich wohl in etwa auf dem Niveau der Konsolen befinden, was den reinen Grafikspeicher angeht. Von den 16GB ist wieder ein teil für das Betriebssystem reserviert. Bei der Xbox Series X sind von den 16GB schon mal 2,5GB fest für das betriebssystem reserviert, bei der PS5 ist es noch nicht bekannt, aber bei der PS4 waren es schon 3,5GB.

Bleiben von den 16Gb also schon mal nur 13,5 Gb über.Dann geht ein Teil für den normalen Rambedarf drauf. Als tatsächlich genutzter Vram dürften bei den meisten Spielen also 7-10GB über bleiben, wenn überhaupt.
 
wir brauchen endlich HDMI 2.1 und dp 2.0 grakas, danke :D
 
  • Gefällt mir
Reaktionen: Shoryuken94 und -Ps-Y-cO-
@Colindo HBM hat recht niedrige Latenzen. Langsamer Takt und Speicherdichte / Nähe zum Chip zahlen sich da aus. Sicherlich reißt man damit einiges an Leistung, ob es den Preis und potentiell wieder stark limitierte Verfügbarkeit wert ist?

Es gibt viele Punkte, die man an den aktuellen GPUs mit genug Geld optimieren könnte. Aber am Ende entscheidet dann doch meist das liebe Geld. Auch der Ansatz von AMD neben Grafikspeicher noch schnellen Flashsspeicher zu verbauen, kann in bestimmten Szenarien enorme Vorteile bringen. aber auch hier scheitert es im Massenmarkt am Geld.

AMD Müsste bei Big Navi mindestens 3 HBM Stacks verwenden, was den Interposer recht groß und teurer macht. Dazu ist der Speicher deutlich teurer. Und die Verfügbarkeit wird schlechter. HBM hat sich bisher für AMD nicht ausgezahlt und wird es bei den Consumerkarten wohl auch zukünftig nicht so schnell. Ich sehe da eher den Weg von Nvidia. HBM Compute segment und auf den Consumerkarten günstiger GDDR6. Auch wenn HBM hier und da sicher ein paar Leistungsvorteile bringt, er bringt massive finanzielle Nachteile mit sich.

In den Compute und Servermodellen sehe ich da eine große Zukunft. Im Spielebereich eher nicht, solange man nicht annähernd mit dem Preis von GDDR mithalten kann bzw. so enorme Vorteile bietet, dass sich der Aufpreis lohnt. Und beides scheint momentan nicht der Fall zu sein.
 
Shoryuken94 schrieb:
Für die 3080 standen ja lange mal 10GB im Raum und bei der 3080 Ti 12GB. Das wäre jetzt kein riesen Sprung, aber durchaus realistisch. Möglich wäre auch eine Verdopplung des Bisherigen, aber ich denke das Wollen Sie eher vermeiden.

Die 3080 und die 3070 wird wieder ein 256Bit-Speicherinterface besitzen. Da bin ich mir doch recht sicher und daher wieder nur mit 8GB-Speicher erscheinen und alle werden NVIDIA dafür abstrafen indem sie ihren Unmut verkünden und in sämtlichen Foren über den mangelnden Speicher im Jahr 2021 debattieren (streiten, zanken, beleidigen), den man für über 1000 Euro serviert bekommt. Aber trotzdem werden sie wieder alle kaufen wie das tägliche Brot beim Bäcker...(Siehe den 1.Post hier in den Kommentaren...)

NVIDIA hat sich in Sachen Speicher noch nie freiwillig großzügig gegeben. Warum auch? Die Karten werden verkauft, die Umsätze steigen in neuen Rekordgefilde und die paar Leute, die tatsächlich wegen dem Speicher ernst machen und sich gegen NVIDIA entscheiden, werden von den ganzen Forenfanboys als minderbemittelt umschrieben.🤪

Klar, mit schnellem GDDR6 oder gar eine weitere Stufe GDDR6X kann man die Bandbreite noch erhöhen.
Aber sie ersetzt keinen Mangelspeicher oder kann ein Bandbreitenlimit effektiv aufheben.

Aber dies will ja dann keiner mehr hören, wenn die neuen NVIDIA-Karten erscheinen.😊
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TIMOTOX
@Chismon korrekt, derzeit tendiere ich eher zum größten RDNA2 Chip. Mal sehen wie sich das entwickelt. Aber ich werde selbstverständlich keine 2,5k für eine titan ausgeben für die paar Prozent mehr Leistung :D

GPU + Monitor wäre in der Preisklasse okay. Aber auch damit warte ich was zu diesem Zeitpunkt auf dem Markt ist. 4k 144 Hz 27" wäre halt schon was. Wenns dann wegen Mondpreisen nur 100 Hz sind ists mir auch egal. Aber wenn ich doch mal spiele möchte ich auch über die 30 fps hinaus, wenn die Karte dann endlich dazu in der Lage ist ^^
 
  • Gefällt mir
Reaktionen: Chismon
Ich bin ja auf die Preise und die menge an VRAM gespannt. Ersters darf, im Gegensatz zur 20er Serie, gerne nicht steigen wohingegen letzteres gerade bei der "3080" definitiv ein Steigerung verdient hat.
 
Shoryuken94 schrieb:
Auch wenn in dem CB Test damals rausgekommen ist, dass die IPC gleich sein soll, dass glaube ich bisher nicht so richtig. Siehe 2070 Super, die eigentlich in fast allen Spielen und auf fast allen Seiten 10-15% vor der 5700XT liegt, trotz annähernd gleicher Rohleistung, gleicher Speicherbandbreite und gleich großem Speicher.
Ich hab es eben bei PCGH schon mal durchgerechnet, könnte für dich und andere hier auch interessant sein:

Anhand des Vergleichs von 2070S und 5700XT könnte man meinen, die Shader von Turing sind noch deutlich besser, jedoch muss man auf die TFLOP Angaben im Realbetrieb schauen.

Die 9TFLOPs die bei den Specs der 2070S stehen, sind bemessen an einem Boost Takt von 1770MHz, bei der 5700XT beziehen sich die 9,75TFLOPs auf den angegebenen Boost von 1905MHz.


Schaut man sich die Taktraten an, die die 2070FE und die 5700XT im Test hatte, sind das aber fast durchgängig 1890MHz für die 2070S und um die 1800-1840MHz für die 5700XT, in zwei der Spiele hatte sie sogar nur 1700-1780.

Das entspricht dann real 9,67 TFLOPs für die 2070S und 9,22-9,42TFLOPs für die 5700XT, somit hat die 2070S im realen Betrieb nicht 8% weniger sondern 4-5% mehr TFLOPs als die 5700XT, dazu kommt dann evtl. noch das bessere Speicherinterface, wodurch es seltener zu Bandbreitenlimitierungen kommt als bei der 5700XT und ein evtl. ganz leicht beginnendes Problem die CUs auszulasten, und man hat seine 10%.

(Das wird bei der 2080Ti übrigens noch deutlicher, die hat laut Specs 13,45TFLOPs, läuft aber im realbetrieb meist out of the box schon mit mindestens 15)

Computerbase hatte den Test mit der RTX2070 und der RX5700 hingegen mit festem Takt von 1500MHz bei beiden Modellen gemacht, somit hatten beide über den gesamten Testverlauf reale 6,9TFLOPs und die 5700 war im Schnitt 1% schneller.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DarkerThanBlack und PS828
Zurück
Oben