News Nvidia Ampere: PCB einer mutmaßlichen „GeForce RTX 3090“ abgelichtet

Kev2one schrieb:
Nicht ganz richtig, mein Straight Power E10 600W hat 4x PCIe.
Ich bin natürlich von der aktuellen Serie ausgegangen und nicht von einem 6 Jahre alten NT das es praktisch nicht mehr zu kaufen gibt. Hätte schon dadurch klar sein sollen, dass es vom alten 10er gar keine 550W und 650W Versionen gibt.
 
Zuletzt bearbeitet:
Ich nehme an, Nvidia liefert mit den neuen Karten die ersten 8k-Gamingfähigen Karten ab. Zumindest was die 3090 betrifft. Das hier so viele über die angeblichen 350W jammern versteh ich auch nicht. Ist das zuviel? Dann begrenzt es einfach im Afterburner auf euren Wunschverbrauch. Sollte jeder hinkriegen...mit allen Vor- und Nachteilen!
 
Lübke82 schrieb:
Ich nehme an, Nvidia liefert mit den neuen Karten die ersten 8k-Gamingfähigen Karten ab.
Angenommen nvidia würde sich DLSS noch einmal vorknöpfen und angenommen sie würden die Jitter/Samplezahl und Akkumulation erhöhen, also mehr Rechenleistung in die Rekonstruktion des Bildes stecken und der Auswertung der Bewegungsvektoren investieren, dann wären die 8K auch mit einer 2080TI bereits (gut) möglich.

https://www.tweaktown.com/articles/...hmarked-at-8k-dlss-gpu-cheat-codes/index.html
https://www.techradar.com/news/deat...at-8k-all-it-takes-is-a-dollar2500-nvidia-gpu

Durch KI und moderne Bildabtastungs- und Rekonstruktionsverfahren wird so etwas wie eine rein physische Brutforce- Rasterauflösung bald der Vergangenheit angehören. Das in Kombination mit einem erweiterten, intelligenteren variable rate shading oder auch hier einem akkumulierenden oder interpolierendem shading und schon verlieren Auflösungen ihren schrecken.
Was man aus DLSS 2.0 gelernt hat ist, dass das einzige wovon man (noch) in Sachen Bildrekonstruktion seine Finger lassen sollte, die Texturverarbeitung ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lübke82
.Sentinel. schrieb:
Durch KI und moderne Bildabtastungs- und Rekonstruktionsverfahren wird so etwas wie eine rein physische Brutforce- Rasterauflösung bald der Vergangenheit angehören. Das in Kombination mit einem erweiterten, intelligenteren variable rate shading oder auch hier einem akkumulierenden oder interpolierendem shading und schon verlieren Auflösungen ihren schrecken.
Weia, dazu müßte die Rechenleistung aber noch erheblich gesteigert werden. Nochmal, Imagination ging vor Jahren von 50GFLOPs minimum für eine einzige Szene aus. Und die redeten von FP32. Rasterizing wird noch eine Weile leben. Und ich denke schon, daß Nvidia sich nochmal DLSS vornehmen wird. Ist es doch das, was sie im Consumerbereich von den Konkurrenten unterscheidet. DXR werden wohl bald alle unterstützen.
 
Raytracing wird ja aus genau dem Grund nicht mit FP32-Shadern, sondern den spezialisierten RT-Cores berechnet.
Bei UHD und 60fps bist du bei einer halben Milliarden Primärstrahlen pro Sekunde, das kriegt die 2080TI mit ihren 10GRays/s schon locker hin. Mit zukünftigen Optimierungen für Sekundärstrahlen und Anti-Aliasing wird man das schon flüssig hinkriegen.

Zusätzlich hängt Raytracing nicht vom Takt ab. Du kannst einfach per Node-Shrink die doppelte Anzahl Einheiten darauf loslassen und kriegst (ohne Bottleneck beim Speicher) die doppelte Leistung.
 
MXE schrieb:
Hoffe die 22-24GB Speicher GPU kommen um die gleichen Preise wie jetzt auch, dann müssen die ganzen Freaks ihre dann schrottigen S 2070-2080TI "Schrottkarten" verkaufen :D:D:D weil mit 8GB kommt man ja nicht weit. :rolleyes:

Schön wärs, aber ich glaub nicht wirklich daran dass ich für meine 2080ti bis 1000€(das war auch der Preis der 2080ti) nen guten Ersatz bekomme.

Ich hab so das gefühl ich muss bis 2024 warten bis RTX4000 kommt...Die Generationen leben ja immer länger.
 
Apropos GPU: Die Rückseite ist auf dem Bild zwar nicht verpixelt, jedoch wurde eine Intel-CPU darauf gelegt, um die Herkunft zu verschleiern.
Als AMD-User fühle ich mich ausgeschlossen :confused_alt: :D

Warum keinen Threadripper?
Da hätte man auch gleich die ganzen RAM-Chips abdecken können :D :schluck:
 
Zurück
Oben