News GeForce RTX 3090 & 3080 & 3070: Finale Spezifikationen der Ampere-Grafikkarten bekannt

Beg1 schrieb:
ist aber logisch wenn die Hardware trotz "RTX 2080 Ti"-Leistung keine 4K/60fps schafft.

Ich denke dass mit Konsolenoptimierung die Kiste schon 4k/60 packen kann aber halt nicht mit Raytracing, was ein dicker Aspekt in dieser Konsolengeneration werden wird. Wäre Raytracing nicht, dann würde es denk ich mal für beine Kisten kein Problem sein 4k/60 regulär zu liefern mit schicker Grafik.
Aber nachdem man die Ergebnisse von DLSS sieht und von Checkerboard Rendering, da stellt sich mir und sicher auch den Spieleentwicklern die Frage: Braucht es überhaupt natives 4k? Meine Antwort: Auf keinen Fall. Wenn man mit Rekonstruktionstechniken die Spiele zu 90% von der Schärfe her so aussehen lassen kann wie 4k, aber ggü nativem 4k locker 30-40% an Leistung einspart die man besser in Grafik-Bling-Bling stecken kann dann wäre es idiotisch sich auf "nativ 4k" zu versteifen.
 
Murasame schrieb:
Wenn die Specs wirklich stimmen ist die nächste Konsolengeneration also doch wieder vom Start weg veraltet.
Ich glaub nicht das AMD das Ende des Jahres kontern kann.

Eine Konsole kostet einen Bruchteil.

Technisch veraltet kann sie auch nicht sein, da die Konsolen auf RDNA2 als GPU setzen, welche gegen Ampere auch im Desktop-Bereich eingesetzt wird.

Nun, wie kommst du also darauf, dass die Teile veraltet wären ?
 
th3o schrieb:
Ich denke dass mit Konsolenoptimierung die Kiste schon 4k/60 packen kann aber halt nicht mit Raytracing, was ein dicker Aspekt in dieser Konsolengeneration werden wird.
Aber nachdem man die Ergebnisse von DLSS sieht und von Checkerboard Rendering, da stellt sich mir und sicher auch den Spieleentwicklern die Frage: Braucht es überhaupt natives 4k? Meine Antwort: Auf keinen Fall.

Von Raytracing hat man bei keiner Ankündigung irgendwas gehört, wie die Unterstützung bei RDNA2 aussehen soll ist bisher ja auch noch ziemlich unklar.
Ja Checkerboard/DLSS sind ganz gut, ABER bei Konsolen fehlt leider häufig die Auswahl, sodass man an 30 fps gebunden ist.
Die Ratchet & Clank Rift Apart Devs haben ja auch einen Performance-Mode mit 60 fps angekündigt (normal sind laut DF 30), was für mich aber ohne Details auch ziemlich wertlos ist (könnte auch 1080p sein).
Ergänzung ()

aldaric schrieb:
Nun, wie kommst du also darauf, dass die Teile veraltet wären ?

Er ist vermutlich ebenfalls frustriert, dass es wieder eine 30fps-Gen werden könnte.
 
Beg1 schrieb:
Er ist vermutlich ebenfalls frustriert, dass es wieder eine 30fps-Gen werden könnte.

Das wird man sehen, von der Leistung her kann die Konsole auch 4k 60 FPS stemmen, je nach Optimierung und Engine. Leistung haben die neuen Konsolen ausnahmsweise diesmal genug. Vor allem vom GPU Part her.
 
Buggi85 schrieb:
Eine 1080 Ti ist doppelt so schnell wie meine 1070

Ist die nicht, wie kommt man auf so einen Unsinn? Du willst mir echt sagen eine 1080 Ti ist 100% schneller als eine 1070? Autsch.

https://www.computerbase.de/2019-05...bschnitt_grafikkartenbenchmarks_in_1920__1080

Bitte. Eine 1080Ti ist ungefähr 54% schneller als eine 1070. Das ist WEIT weg von doppelt so schnell.

Das ist der selbe Schwachsinn wie von @MeroWinger, eine 3080 wird niemals 4x so schnell wie eine 1080.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: schkai, evilhunter, katamaran3060 und eine weitere Person
xexex schrieb:
Erst mit Freesync Premium und Freesync Premium Pro, hat die Angabe auch irgendeine Bedeutung, das gibt erst aber erst seit Anfang 2020.
Selbst bei den labels sollte man auf die Specs schauen. Free-Sync alleine ist so aussagekräftig wie "ich hab mir einen HDR Monitor gekauft"

Die Specs selbst sind halt wichtig, und das gsync Label ist in der hinsicht sicherlich verlässlicher, anderseits gibt es wohl auch sehr gute Free-Sync Monitore. Reviews lesen und in die Specs schauen sollte man so oder so. Es wird halt einfach viel Schrott verkauft.
Ergänzung ()

Taxxor schrieb:
eine genannten Ausnahmen wie RT und DLSS spielen da in der Mehrzahl der Spiele keine Rolle
So der Stormverbrauch auch nur so explodiert wenn die RT-Cores im Einsatz sind. dann wäre das ja eigentlich zu verschmerzen.
 
Zuletzt bearbeitet:
Ich lese immer noch nichts über HDMI 2.1 oder Diplayport 2.0. (Das sind die neuesten, richtig?) Dann wird das wohl auch nicht der Fall sein. Dann heisst es wohl nochmals warten...
 
Skjöll schrieb:
Meine erste Grafikkarte war die Riva TNT2.)) Und eine 8800 GTS hatte ich auch. Da ich zur Zeit nur Mahjongg spiele, reicht mir meine GK bisher aus:)

Erste echte Grafikkarte .. hm, kann mich garnicht mehr daran erinnern. Kenne noch die Zeit als man 2D-Karten hatte und einen Voodoo 3dfX Beschleuniger dazu einbauen musste. Allerdings ist die 8800 GTS ein gutes Beispiel.

Die 8800 Ultra war sprichwörtlich das non-plus-ultra. Hatte jedoch auch Nachteile (384-Bit Speicherinterface, 768MB VRAM, hoher Verbrauch / hohe Abwärme). Deshalb gab es Angebote für jeden. Zum Beispiel die 8800 GTX (damals "nur" 2x 6-pin) und mehrere abgespeckte 8800 GTS Modelle (320 und 640 MB). Später dann noch die 8800 GT für die breite Masse. Alles jeweils mit genauer Abstufung!

Da gab es ganz klar eine Produktlinie mit klarer preislicher und technischer Trennung. In der Generation gab es für jeden etwas. Erinnert mich stark an die jetzigen Ampere Karten. Man muss nur seine entsprechendes Wunschmodell finden oder auf die Refreshs später warten.

Daher verstehe ich nicht, wieso jeder gleich auf den Barrikaden ist. Endloses Meckern und sinnlose Beschwerden sind aktuell Hochkultur in jedem PC Forum. Dabei haben wir nicht einmal alle Fakten. Das geht allmählich auf keine Kuhhaut mehr!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: orlof
BloodReaver87 schrieb:
Ich lese immer noch nichts über HDMI 2.1 oder Diplayport 2.0. (Das sind die neuesten, richtig?) Dann wird das wohl auch nicht der Fall sein. Dann heisst es wohl nochmals warten...

Doch, leaks haben es schon bestätigt dass die HDMI Anschlüsse der neuen RTX Karten 2.1 sein werden, das ist eigentlich auch schon ohne leaks klar dass das kommt. DP 2.0 aber höchstwahrscheinlich nicht. Stöber mal ein wenig in den ganzen leaks von wccftech oder videocardz.
 
@th3o ok....hab ich jetzt wirklich noch gar nichts gesehen. All die Monitore die in letzter Zeit vorgestellt worden sind, haben ja auch mehrheitlich noch die alten Anschlüsse, weshalb ich da nie gross Hoffnung hatte. Anyway, ich wart eh noch die nächste Graka Gen ab oder refresh whatever.... :)
 
BloodReaver87 schrieb:
@th3o ok....hab ich jetzt wirklich noch gar nichts gesehen. All die Monitore die in letzter Zeit vorgestellt worden sind, haben ja auch mehrheitlich noch die alten Anschlüsse...

Korrekt, aber zB LG mit seinen OLEDs drängt hart in den gaming Markt und schon die 2019er Modelle haben bereits HDMI 2.1, immer mehr PC gamer nutzen jetzt vermehrt auch die LG TVs wegen deren GSync Unterstützung. Ich beispielsweise wechsel je nach dem ob ich mit Maus/Tastatur oder Gamepad spiele zwischen Monitor und TV. Und gerade auch wenn man Freunde zu Besuch hat und zusammen spielen möchte ist es schöner wenn man sich vor einem größeren TV versammelt anstatt vor nem Schreibtischmonitor zu hängen.
 
@th3o Jep ist mir bekannt. Hab ja selber einen C9 in der Wohnung. Der neue CX in 48zoll wäre halt prädestiniert für gaming am PC. Ich hoffe ja schon lange darauf aber nächstes Jahr kommt hoffentlich mal richtig Bewegung in den Monitormarkt. Die benötigte Leistung ist ja auch bald vorhanden.
 
@BloodReaver87 Ich habe seit gestern hier den neuen 27" LG 4k/144Hz Monitor, ders erst seit ein paar Tagen verfügbar und bin mehr als zufrieden, allerdings verlangt der dann jetzt doch schon nach einer potenteren GPU als die 2080Ti, zumindest wenn man die volle Auflösung und fps über 60 nutzen möchte. Hat weder HDMI 2.1 und auch kein DP 2.0, aber mit DP 1.4 läßt der sich locker fahren mit RGB Full 10bit 144Hz, was will man mehr. HDR würde ich bei noch keinem Monitor nutzen.
 
Der Unterschied zwischen 50% und 100% ist zu vernachlässigen weil „Pi mal Daumen“ und „V-Sync“.

Alles klar. :freak:
 
  • Gefällt mir
Reaktionen: McFritte, Acedia23, Pisaro und eine weitere Person
Apocalypse schrieb:
So der Stormverbrauch auch nur so explodiert wenn die RT-Cores im Einsatz sind. dann wäre das ja eigentlich zu verschmerzen.
Die 2000er verbrauchen doch auch gemäß ihrer TDP Angabe oder sogar etwas darüber ohne dass im Test RT oder DLSS genutzt wird
 
  • Gefällt mir
Reaktionen: schkai und KlaraElfer
Na mal schauen.

Auf dem Papier enttäuscht mich der "Boost" Takt.

Dafür hat das Teil 34.5 Milliarden Transistoren auf 628 mm² Fläche (round about).

Wenn man das mit anderen vergleicht (RTX2080Ti 18.9 bei 700+ mm² oder 5700XT 10 bei 250 mm²) sind das schon ordentlich viele rechnenden Einheiten.

Was sie dann in FPS daraus machen, werden wohl erst finale Benchmarks zeigen.

mfg
 
Die Boost-Taktraten bei Nvidia sind sehr konservativ zu betrachten. Die ganzen Custom-Karten boosteten bislang immer wesentlich höher als Angabe. Die FE der 2080ti gibt Nvidia mit 1.635Mhz an. Mein EVGA 2080ti boostet out of the box mit 2Ghz.
 
Der Merowinger schrieb:
Die 3080 wird etwa 4 mal so schnell sein wie die 1080, von dem her gehen die 320Watt voll in ordnung.

Ich glaube das kann sich nur um ein versehen handeln. Wenn die 2080S ca 40-50 % vor der 1080 liegt und die 3080 ca 40 - 50% vor der 2080S liegen würde, wäre das doppelt so schnell und nicht vierfach.
Ergänzung ()

styletunte schrieb:
Wird interessant werden zu sehen, warum die so mit der Brechstange arbeiten.

Meine Vermutung ist das die auf biegen und brechen versuchen vor AMD zu bleiben. AMD wird wahrscheinlich auch einen großen Sprung machen und man will mindestens mit der 3090 wenn nicht sogar mit der 3080 vor AMD bleiben. Sonst waren die letzte Nvidia Karte nicht so Stromhungrig.
Ergänzung ()

Interessant ist aber auch zu sehen wie die Perfomance sich zwischen der 2080(S) und der 1080 verändert hat. Bei Release waren es 28% unterschied, jetzt sind es 52%. Die 2080S ist ca 5% Schneller als die 2080. Wären dann also immer noch 47% unterschied. Entweder hat Nvidia die Turing Treiber optimiert oder den Pascal Treiber Support vernachlässigt. Dieses Bild kann man aber schon immer bei Nvidia beobachten.
 
Zuletzt bearbeitet:
schkai schrieb:
Bei Release waren es 28% unterschied
Laut Test zu Release waren es in Full HD bereits 31% (eine 2080S wäre wohl bei ca. 38% gewesen, zudem gibt es bei 1080p auch gerne mal ein CPU Limit), jetzt sind es 47% für die 2080S in Full HD sprich 6-7% Unterschied zu damals. Außerdem wurde der Testparkour inzwischen umgebaut um besser für neue GPUs angepasst zu sein und die 1080 altert eben jetzt schneller, sie ist ja auch schon über 4 Jahre alt. Auch zu sehen wenn man sie mit GPUs der gleichen Generation vergleicht: In beiden Tests ist die 1080 1% vor einer Vega 64.
 
  • Gefällt mir
Reaktionen: Apocalypse
@MrNejo

meine Werte beziehen sich auf WQHD und nicht FullHD.
 
Zurück
Oben