Bericht Nvidia Ampere: A100 ist für KI eine 20 Mal schnellere GPU

Nur 10gb VRam für eine GTX 3080?

Also innerhalb 4 Jahren von 8gb auf 10? ( gtx 1080 / gtx 3080 )

Schon wenig hätte ca 16gb erwartet.
 
Das weiß doch noch keiner :D abwarten.
 
  • Gefällt mir
Reaktionen: Shoryuken94 und onkuri
War mir klar,das Ampere nicht für Consumer-ist. Wie damals Volta. Denke Ende 2020 oder Anfang 2021 kommt was für Consumer.
 
Portal501 schrieb:
War mir klar,das Ampere nicht für Consumer-ist. Wie damals Volta.
Es soll auch Geforce/Quadro werden.

"Ampere will eventually replace Nvidia’s Turing and Volta chips with a single platform that streamlines Nvidia’s GPU lineup, Huang said in a pre-briefing with media members Wednesday. While consumers largely know Nvidia for its videogame hardware, the first launches with Ampere are aimed at AI needs in the cloud and for research. "
– MarketWatch
(Videocardz)
 
Portal501 schrieb:
War mir klar,das Ampere nicht für Consumer-ist. Wie damals Volta. Denke Ende 2020 oder Anfang 2021 kommt was für Consumer.

Wahrscheinlich kommt nach Volta und Ampera dann Watta ^^
 
Kacha schrieb:
Flops pro Zyklus (IPC)
Ja, da hast du Recht, wenn es rein um die Compute-Leistung geht. Teralios hatte anfangs aber einen Bezug zu RDNA2 gegeben, was die Gamingleistung betraf, weswegen ich dachte, deine Antwort bezöge sich auch auf die Gamingleistung der Chips.

Das hat jetzt aber mein Interesse geweckt, welche Eigenschaft innerhalb eines Shaders kann man denn verändern, um mehr TFLOPS zu bekommen? Bei Compute geht es doch schon seit Ewigkeiten nur um Shaderanzahl und Takt. Da kann man höchstens das Shaderdesign besser taktbar machen, oder?
 
F1Freak schrieb:
Wahrscheinlich kommt nach Volta und Ampera dann Watta ^^
Von diesem Physiker habe ich noch nichts gehört.
Wenn dann James Watt.
 
  • Gefällt mir
Reaktionen: Colindo
Uri Geller wäre auch lustig. Einfachste Art Ohmsches Gesetz zu merken 😅

Aber neben Ampere und Volta wäre auch Ohm denkbar. Marketingtech. fraglich, ob man aber Karten echt so benennen will.
 
Zuletzt bearbeitet:
Schöner Artikel.
Ein Fehler hat sich eingeschlichen. Da wird von über 300 Tflops bei FP32 gesprochen, es müsste aber FP16 sein
Ergänzung ()

pipip schrieb:
Aber neben Ampere und Volta wäre auch Ohm denkbar
Volta ampera und ohma :D

Ach ja, der Herr ohm. Geistiger Vater von pornhub und Netflix. Gott habe ihn selig.
https://de.m.wikipedia.org/wiki/Jens-Rainer_Ohm
 
Zuletzt bearbeitet:
Allgough schrieb:
Nur 10gb VRam für eine GTX 3080?

Also innerhalb 4 Jahren von 8gb auf 10? ( gtx 1080 / gtx 3080 )

Schon wenig hätte ca 16gb erwartet.

Also wenn sie schon "Murmelspielchen" als Techdemo zeigen die sich nur auf einer Karte mit 48GB Spielen lassen, sind 16GB das "minium" was der Mainstream bekommen sollte...
 
tochan01 schrieb:
Also wenn sie schon "Murmelspielchen" als Techdemo zeigen die sich nur auf einer Karte mit 48GB Spielen lassen, sind 16GB das "minium" was der Mainstream bekommen sollte...
Das ist ja nicht definiert, ob es überhaupt die 48 gebraucht hat. Oder überhaupt die teure Quadro.
Aber dennoch.

Eine 3080TI ohne mindestens 16GB VRAM kommt mir höchstwahrscheinlich nicht in den Rechner...
Bei der Entscheidungsfindung spielt natürlich aber auch Preis und Technologie eine Rolle.

Wird technologisch sichergestellt, dass z.B. 12 GB sich durch Kompression oder anderweitiger Verfahren wie 20GB geben, dann würde ich mir das dann nochmal überlegen.

LG
Zero
 
gibt's denn derzeit irgendein Game, dass die 12 GB einer Ti ausreizt? MIr fällt keines ein.
 
Die kommen noch keine sorge ab 2021 sind die ersten games da die mehr als 10gb vram nutzen
 
Mag sein, aber 16 Gb, zumal auf einer 3080 oder 3070 ist halt absoluter Overkill und unnötig teuer. Man bezahlt Speicher, den man zu Lebzeiten der Karte nie ausnutzen wird. Der Sprung ist einfach zu groß. 16 gb bei der Ti und 12 bei den kleineren würde ich eher glauben aber dagegen spricht irgendwie die 12 (ergo "krumme") GB im gehobenen Massenmarkt.

und das die 380 soviel Speicher bekommt wie die Ti mag ich auch nicht glauben. Das kannibalisiert irgendwie die Stellung der TI.
 
ZeroZerp schrieb:
Das ist ja nicht definiert, ob es überhaupt die 48 gebraucht hat. Oder überhaupt die teure Quadro.
Aber dennoch.

Doch es wurde einganz geschrieben:
2020-05-15 12_23_40-Window.png


Also wenn es auf einer "kleineren" Karte möglich gewesen wäre, hätte sie die wohl genommen...
Spec vergleich:
8000 RTX, 48GB
6000 RTX, 24GB
sonst ist quasi alles gleich wie ich das sehen bis auf das die "kleine" 6000er 1440Mhz Basistakt hat und die große 8000er "nur" 1395....

Zu dem Thema nicht nötig etc. Was das ganze RT in naher zukunft an "RAM" Recourcen kosten wird.... Ich tippe ma drauf das es wohl nicht wenig RAM sein wird ;).
Ich bin gespannt wann GPU's kommen die mit RAM nachgerüstet werden können, der aber nur von NV gekauft werden kann ;)
 
Zuletzt bearbeitet:
RT ist weitgehend Ram neutral. Und nur weil die Demo auf der größten Quadro gerendert wurde bedeutet das nicht, dass der Ram nötig war. Das ist blanker Unfug. Man hat die größte Quadro genommen, weil man im allgemeinen mit dem Spitzen Modell Marketing macht...
 
ZeroZerp schrieb:
Das ist ja nicht definiert, ob es überhaupt die 48 gebraucht hat. Oder überhaupt die teure Quadro.
Aber dennoch.

Eine 3080TI ohne mindestens 16GB VRAM kommt mir höchstwahrscheinlich nicht in den Rechner...
Bei der Entscheidungsfindung spielt natürlich aber auch Preis und Technologie eine Rolle.

Wird technologisch sichergestellt, dass z.B. 12 GB sich durch Kompression oder anderweitiger Verfahren wie 20GB geben, dann würde ich mir das dann nochmal überlegen.

LG
Zero
Zwar nicht Kompression aber ein Feature was gehörig VRAM einspart wenn es genutzt wird, gibt es ja mit DX12 Ultimate. Sampler Feedback erlaubt eine wesentlich effizientere Nutzung des VRAMs, Microsoft spricht von Faktoren von 2-3x erhöhtem effektiven VRAM.
Ja ich weiß du konntest das mit deinen Tests noch nicht feststellen, aber wie wir bereits besprochen haben, die Features sind noch nicht mal in den Engines implementiert und wir können das erst sehen, wenn die Implementation vollständig ist. Und eine wichtige Komponente für SFS fehlt ja noch, nämlich die Direct Storage API. Ich glaube da erstmal MS und es macht ja auch Sinn, wenn das wirklich so funktioniert wie MS es beschreibt, dann sollten wir es definitiv im Auge behalten. :)
 
Zurück
Oben