Bericht Nvidia Ampere: A100 ist für KI eine 20 Mal schnellere GPU

In dem High-Performance-Computing-System DGX A100 stecken im Gegensatz zum Vorgänger keine Intel-Prozessoren mehr. AMD bietet mehr CPU-Kerne und PCIe 4.0

Intel raus - von Nvidia durch AMD ersetzt.
Schon lustiger Satz irgendwie ;)
 
Ich hab bei uns für unsere DL Truppe schon beim Vorgesetzten nach dem Kauf eines A100 nachgefragt :evillol:, wurde leider abgelehnt. :( Gut, wir würden das Ding auch nur teilweise ausnutzen können.

Weil hier immer erwähnt wurde, daß RT bei dem Ding nicht onboard ist. Turing wurde doch damals auch als große Renderplattform beworben, was nun schneller und kostensparender gehen soll. Warum sollte Ampere das nicht können? :confused_alt:
 
pipip schrieb:
Aber neben Ampere und Volta wäre auch Ohm denkbar. Marketingtech. fraglich, ob man aber Karten echt so benennen will.

Nach Ampere und Volta kommt Farad. Weiß doch jeder. 🤪

Aber wäre schon ein Ding, wenn NVIDIA mit der RTX3060 nur 6GB verbaut. Empfehlen kann man dies ja dann nicht mehr, besonder, wenn die RTX2060 Super schon 8GB hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: tochan01 und pipip
Mustis schrieb:
RT ist weitgehend Ram neutral.
Leider nicht so wirklich. Du hast zusätzlich zum üblichen Tamtam noch Beschleunigungsstruktur und deutlich umfassendere Szenendaten im VRAM. Schaust Du in nen Spiegel brauchst Du nämlich nicht nur die Viewportdaten, sondern auch die des zu spiegelnden Bereichs inkl. Texturen und allem drumrum.
Das macht zudem einige neue wirklich schöne und effektive Culling- Techniken zunichte.

Und nur weil die Demo auf der größten Quadro gerendert wurde bedeutet das nicht, dass der Ram nötig war. Das ist blanker Unfug. Man hat die größte Quadro genommen, weil man im allgemeinen mit dem Spitzen Modell Marketing macht...
Bingo- Es kann was heissen, muss es aber nicht.

dampflokfreund schrieb:
Zwar nicht Kompression aber ein Feature was gehörig VRAM einspart wenn es genutzt wird, gibt es ja mit DX12 Ultimate. Sampler Feedback erlaubt eine wesentlich effizientere Nutzung des VRAMs, Microsoft spricht von Faktoren von 2-3x erhöhtem effektiven VRAM.
Sowie virtual texturing, tiled textures etc.? Hmmmmmm... :)

Ja ich weiß du konntest das mit deinen Tests noch nicht feststellen, aber wie wir bereits besprochen haben, die Features sind noch nicht mal in den Engines implementiert und wir können das erst sehen, wenn die Implementation vollständig ist.
Man kann auch außerhalb fertiger Engines damit experimentieren. Aber Du hast es richtig erfasst - Ich glaub noch nicht so wirklich dran...

Der PC zieht zu viel "alte Hardware" in der Kompatibilitätsnotwendigkeit hinterher. Wirst sehen wie groß der "Aufschrei" wäre, allein wenn man eine SSD voraussetzen würde.

Diesbezüglich setzen Konsolen gerade wirklich Maßstäbe, in welchen der PC eine ganze Zeit lang hinterherhinken wird. Die Spreizung zwischen Low- und High- End am PC ist einfach zu hoch bzw. die Ausstattung des durchschnitts- PC erheblich niedriger.
Das gabs auch schon lange nicht mehr.

Und eine wichtige Komponente für SFS fehlt ja noch, nämlich die Direct Storage API. Ich glaube da erstmal MS und es macht ja auch Sinn, wenn das wirklich so funktioniert wie MS es beschreibt, dann sollten wir es definitiv im Auge behalten. :)
Direct Storage ergibt für mich nur in einer hardwaregestützten Implementation Sinn, die alle Flaschenhälse aufmacht, also so, wie es die Konsolen machen und es scheinbar von der PS5 vorbildlich umgesetzt wurde.

LG
Zero
 
  • Gefällt mir
Reaktionen: dampflokfreund und Colindo
Mustis schrieb:
und über wieviel mehr Ram sprechen wir bei RTX ON/OFF?
Derzeit so im Schnitt 20%-30%. Will man diverse Vorteile von mesh shadern nutzen, kanns dann auch mal deutlich mehr werden.
Dampflokfreund hat schon Recht damit, dass Techniken in den Startlöchern stehen, die dem ganzen entgegenwirken sollten...

Wenn man aber sieht, wie so die Adaptionsgeschwindigkeit der Entwickler aussieht, was Engine- Stuff anbelangt, glaube ich nicht wirklich dran, dass das so schnell genutzt wird.

Da wir uns aber im Umbruch bezüglich der neuen Konsolengeneration befinden, die dem PC da einiges vormachen wird, kann das aber auch ganz anders laufen, nämlich dass die Entwickler massiv darauf drängen, dass sich die PCs da schnellstmöglich angleichen.

Damit würden dann alte Zöpfe abgeschnitten werden und es wird viel "Geplärr" von PC- Usern kommen, die mit vermeintlicher Mid- Upper- Range- Hardware dann plötzlich nicht mehr mitspielen können.

Dann heissts wieder inneffektiv, schlecht optimiert und all die anderen Dinge die man dann so hört, wenn ein Titel mal die Latte etwas höher legt.

Ich bin gespannt. Freu mich aber darüber, dass wirklich wieder an allen Ecken und Enden Bewegung am Markt ist.
Ryzen, Turing, DX12 Ultimate, VULKAN RT etc. da ist die letzten Jahre so viel passiert, wie ein ganzes Jahrzehnt zusammengenommen zuvor nicht mehr.

LG
Zero
 
  • Gefällt mir
Reaktionen: Shoryuken94
ZeroZerp schrieb:
Derzeit so im Schnitt 20%-30%.
Sicher? Ich habe nur ein RTX Game (Metro) aber da konnte ich das so nicht dokumentieren. Aber gut, war auch nur RTX ON/OFF und bei Afterburner auf die VRAM Auslastung geschaut
 
Beim Launch-Test der RTX 2060 wurde das Ruckeln mangels Speicher besonders im RTX-Test festgestellt. Also etwas zusätzlichen Speicherverbrauch hat es garantiert. Ist eben die Frage, wieviel.

DXR Ultra benötigt mehr Speicher
Damit ist die GeForce RTX 2060 mit Raytracing kaum langsamer als die GeForce RTX 2070, zumindest was das Niedrig-Preset betrifft – dann ist das größere Modell nur 6 Prozent schneller. Mit Ultra wächst der Abstand dagegen auf 13 Prozent bei der Framerate und gar 17 Prozent bei den Frametimes an. Der Grund dafür ist einfach: Raytracing benötigt deutlich mehr Speicher als klassische Screenspace-Schatten und die 6.144 MB reichen für das Ultra-Preset selbst in Full HD nicht mehr für die volle Performance aus.
 
mal so am rande.
weil es hier ja zwei "lager" auf gewisse weise vereint, hat es mal wieder richtig spass gemacht, den kompletten thread ohne gebashe zu lesen. klasse.
 
  • Gefällt mir
Reaktionen: Krautmaster, Shoryuken94, Galatian und eine weitere Person
Allgough schrieb:
Nur 10gb VRam für eine GTX 3080?

Also innerhalb 4 Jahren von 8gb auf 10? ( gtx 1080 / gtx 3080 )

Schon wenig hätte ca 16gb erwartet.

Das weiß keiner und es ist nur ein Gerücht. Gleichzeitig tauchen in Gerüchten aber auch neue Techniken wie eine Speicherkompression mittels Tensorcores und eine Technik namens NVCache auf, welche wie HBCC und die neuen Konsolen einen Speicherpool aus Hauptspeicher und SSD Speicher generieren kann. Also einfach mal abwarten, was da wirklich kommt und wie es funktioniert.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Wird wohl 4k in Spielen immer noch nicht zufriedenstellend stemmen, wie die 2xxx.
Nur so als Ausblick auf die Gaming-Varianten.
 
Der A102 Vollausbau (3090)soll laut neusten Gerüchten angeblich +40% mehrperfomance zur 2080Ti liefern, bei 5376 shadern. Das wäre eine sehr realistische Größe (23,5% mehr shader + 2,0 bis 2,2 GHz Takt) die 70% bis zu 100% aus älteren Gerüchten beziehen sich mit hoher Wahrscheinlichkeit auf die Raytracing-Leistung, was RTX unter UHD bei guter Optimierung seitens der Hersteller denkbar gestalten würde.

etwas weniger Preis (1000€) sowie TDP und Nvidia hätte ein sehr gutes Produkt. Die 3080Ti mit 5120 könnte dann etwa die 2080 super preislich beerben und eine 3080 würde das Portfolio für etwa 400 bis 500€ bei 2080ti „Standardleistung“ und +25% RTX Leistung komplettieren.....

bitte🙏 zusammen mit ryzen 4000 veröffentlichen 🤓
 
Ende 2020 -> Ryzen 4700 + GTX 3080 = Richtig guter PC
Mitte 2022 ->y Ryzen 5700 + GTX 4080 = Richtig guter PC

Ich denke zwischen Ende 2020 und Mitte 2022 wird sich kaum was tun.
 
Wie die letzen Jahre schon. Moores law existiert nicht mehr, der CPU Markt ist da die positive Überraschung gewesen, aber das wird sich normalisieren, da weder Intel noch amd IPC aus der Luft zaubern können.

alle 2 Jahre 30-40% wird die Regel sein
 
Stunrise schrieb:
Ich hoffe auf einen baldigen Turing Nachfolger mit HDMI 2.1 Unterstützung für 4K 120Hz Oled Fernsehr mit G-Sync. Dann können diese ganzen lächerlichen Gaming Monitore vergessen werden.

Was soll denn diese Überheblichkeit? Schon mal dran gedacht dass sich nicht jeder einen 4k/120Hz HDMI 2.1 OLED TV leisten kann? Und schon mal darüber nachgedacht dass wenn man am Schreibtisch zum gamen sitzt es etwas unhandlich kommt ein Monstrum von Fernseher sich vor die Nase zu stellen?
Du kannst ja gerne allgemein auf HDMI 2.1 und schnellere Hardware hoffen aber bitte nicht so übelst herablassend sein und das auch noch völlig zu Unrecht.
 
OLED als Gaming Monitor? Ja, grundsätzlichg nicht schlecht aber zum normalem Arbeiten durch die statischen Inhalten nicht so der Bringer. Und 2 Monitore zum wechseln? Ich weiß nicht...
 
Zurück
Oben