News GeForce RTX 3090 & 3080 & 3070: Finale Spezifikationen der Ampere-Grafikkarten bekannt

Banger schrieb:
Und bei der 3090 mit 5248 Shadereinheiten, ist das der Vollausbau
Die 3090 wurde auch als "cut" etikettiert.

Ich bin mir sicher, mehrfach von 5376 Shadern und 84 Streamingprozessoren gelesen zu haben, bei 48 GB VRAM für den uncut GA102.

Und ja, alles unter Vorbehalt ^^
 
  • Gefällt mir
Reaktionen: Banger
Oha, das wird erstmal nix, kein Platz im A4-SFX dafür. Irgendwie wirkt das Design etwas so, als wäre da was gewaltig außer Kontrolle geraten. Da wünscht man sich ja bald die Probleme der FX 5800 Ultra zurück...
 
Die 3070 könnte tatsächlich (wenn der Preis stimmt) interessant werden. Nur die 8GB erscheinen mir für 1440p etwas knapp...
 
pipip schrieb:
Klar haben sie das bemängelt, indem immer wieder zu lesen war, wieviel an Stromkosten man im Jahr spart. Hardware kompkexer wird (bei den CPUs war es sogar oft SpaWa) oder fettes Kühlerdesign.
Performance war dann ein weiterer Punkt, bei weiten aber nicht der einzige.

Du muss es als ganzes sehen und nicht als ein einzelnes Detail. Was kostet die GPU in der Anschaffung, was leistet sie und was verbraucht sie. Wenn es Diskussionen gab, dann zum Beispiel wenn mal wieder eine Vega 56 empfohlen wurde, die zwar eine Zeit lang billig in der Anschaffung gewesen ist, aber locker 100W mehr als die vermeidlich 50€ teurere, leistungsgleiche Karte der Konkurrenz verbraucht hat.

Niemand beschwert sich über eine 200W GPU, solange nicht eine andere GPU die gleiche Leistung bei 100W bringt.
1598732743368.png


1598732795753.png

https://www.computerbase.de/2019-02/geforce-gtx-1660-ti-test/4/

Zudem kommt es drauf an, wie hoch die Anschaffungskosten sind. Wer sich eine Karte für 1500€ kauft, interessiert sich für 100€ Stromkosten über drei Jahre weniger, als jemand der ein vermeintliches "Schnäppchen" für 200€ ergattert.
 
Zuletzt bearbeitet:
time-machine schrieb:
Was ist denn über die Tflops bekannt?
Können die anhand der vorliegenden Daten berechnet werden?
TFLOPs = Shader * Takt * 2

RTX 3090 = 17.79
RTX 3080 = 14.88


Zum Vergleich, die 2080Ti kommt mit den Taktraten im CB Test auf 15.45 TFLOPs, Ampere müsste also einiges an IPC dazugewonnen haben oder die Karten müssten in der Praxis ebenso ~200Mhz höher takten als der Boost Takt nach Specs wie es bei der 2080Ti der Fall ist, um hier eine deutliche Mehrleistung zu erzielen.
Ergänzung ()

xexex schrieb:
Niemand beschwert sich über eine 300W GPU, solange nicht eine andere GPU die gleiche Leistung bei 200W bringt.
Oder gar 157W (GTX1080 vs Vega64 im Vega Release Test) ^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: time-machine
Chismon schrieb:
Laut WccfTech koennte die RTX 3060(Ti?) koennte uebrigens auch - wie von mir zuvor ebenso spekuliert - als 12 GB Version kommen, wenn die Preise wirklich so unverschaemt ausfallen sollte wie von einigen angenommen, was dann evt. gerade noch so reichen koennte, wenn einem RTX 2080 ("Super" ?) Leistung reichen sollte.


NVIDIA GeForce RTX 30 Series 'Ampere' Graphics Card Lineup:
Graphics Card NameNVIDIA GeForce RTX 3060NVIDIA GeForce RTX 3070NVIDIA GeForce RTX 3080NVIDIA GeForce RTX RTX 3090
GPU NameAmpere GA106-300?Ampere GA104-300Ampere GA102-200Ampere GA102-300
Process Node7nm7nm7nm7nm
SMs / CUDA CoresTBD2944 (46)?4352 (68)5248 (82)
Boost ClockTBDTBD1710 MHz1695 MHz
Memory Capacity6/12 GB GDDR6X8/16 GB GDDR610/20 GB GDDR6X24 GB GDDR6X
Memory Bus192-bit256-bit320-bit384-bit
Bandwidth384 Gbps (16 Gbps)512 Gbps (16 Gbps)760 Gbps (19 Gbps)936 Gbps (19.5 Gbps)
TDPTBD220W320W350W
Launch TimeframeNovember 2020October 2020September 2020September 2020

Diese Tabelle ist absoluter Unsinn und zeugt nur davon, dass irgendwer einfach Werte eingetragen oder sogar einfach nur kopiert hat, ohne auch nur wirklich darüber nachzudenken, ob das Sinn macht oder nicht. Eine 3060 soll also den aufgepumpten GDDR6X Speicher bekommen, der ebenso ein 12-Layer PCB erforderlich werden lässt, das wiederum nur bei den Top-Karten genutzt wird und die Kosten für eine kleine GPU völlig aus dem Ruder laufen lässt, während eine stärkere 3070 mit dem üblichen GDDR6 RAM und evtl. einem 8-Layer PCB auskommen soll? Ergibt überhaupt keinen Sinn.
 
  • Gefällt mir
Reaktionen: hahaqp, time-machine und xexex
Ich denke das dies nur ein Tippfehler ist weil ja unten wiederum 16Gbps steht und nicht 19.
 
  • Gefällt mir
Reaktionen: JohnnyTexas
So, hab mich gerade doch mal überwunden, mich an meine Glaskucel zu setzen:

Rtx 3070 700 €,
Rtx 3080 999 €,
Rtx 3090 1399€.
 
caparzo schrieb:
Rtx 3090 1399€.
Dürfte nicht passieren weil die 3090 eine umbenannte Titan darstellen dürfte.
Deshalb glaube ich eher an die 2000+€.
 
  • Gefällt mir
Reaktionen: Vitec, Garack, hahaqp und eine weitere Person
TIMOTOX schrieb:
Mehr Verbrauch mehr Abwärme mehr Lautstärke. Und die Lautstärke Interessiert mich sehr.

ach und jetzt hast du bei 350 Watt kein Problem mit Abwärme und Lautstärke?
 
Taxxor schrieb:
Volle Last bedeutet die GPU wird optimal ausgenutzt und das sollte das Ziel sein, ansonsten ist die Karte überdimensioniert.

Würde ich nicht sagen bei langsamen Spielen Stelle ich über cool & quite das fps target auf 30-60 fps das schont die Ohren und die Stromrechnung.

144 fps bringen nicht immer einen Mehrwert.
 
Linmoum schrieb:
Natürlich nicht, die 2080Ti ist noch nicht einmal doppelt so schnell wie eine 1080.
Eine 1080 Ti ist doppelt so schnell wie meine 1070, da sollte die 2080 Ti locker das doppelte und mehr einer 1080 schaffen.
 
MiaSanMiaaa schrieb:
Oder ist es eher so, dass AMDs Verbrauch höher war, aber trotzdem nicht ansatzweise mit der Leistung von NVIDIA mithalten konnte? Haben die Leute ganz vielleicht das bemängelt? Hm. Andere versuchen in eine Fanboy-Schublade zu stecken und dabei so mega offensichtlich selbst in einer sitzen. 👍🏿

Davon rede ich nicht. Aber ich denke du weißt schon genau was ich meine wenn du nicht versuchen würdest den Spieß umzudrehen. Soviel zur Fanboy Schublade.

Mani89HW schrieb:
nein ich rede von Effizienz. Wenn die Karte 50% schneller ist und 30% mehr Strom braucht ist das ok

Das wäre nicht so sehr Prickelnd. Es ist ja ein neuer Fertigungsprozess, da würde ich eher erwarten das der Stromverbrauch gleichbleibt bei einer Mehrleistung, vielleicht nicht gleich 50%, aber 30 - 40% könnten es sein.
Sonst landen wir irgendwann jenseits der 400 bzw 500 Watt.
 
Ich
Buggi85 schrieb:
Eine 1080 Ti ist doppelt so schnell wie meine 1070, da sollte die 2080 Ti locker das doppelte und mehr einer 1080 schaffen.

Die 2080 TI ist doppelt so schnell wie eine 1070.
 
TIMOTOX schrieb:
Mehr Verbrauch mehr Abwärme mehr Lautstärke. Und die Lautstärke Interessiert mich sehr.

Ja aber bei 350 Watt und dessen Abwärme und Lautstärke hast du plötzlich kein Problem mehr ?
Ergänzung ()

leipziger1979 schrieb:
3080 & 3090 mit über 300W, ufff. :lol:
Da wird wohl nur die 3070 mit 220W und angemessenen Preis interessant, vor allem wenn die 3080, vorerst, nur lausige 10GB VRAM hat.

Das finde ich richtig schlimm. Erstmal mit 10GB melken und schon jetzt ankündigen das diese mit 20GB kommt. Warum eigentlich nicht gleich ?
 
Mani89HW schrieb:
16gb
solange das zur Leistung passt ist das ok

Das ist dann die Frage, ob/wie es zur Leistung passt und eine RX 6900 mit 16GB von AMD/RTG bspw. nicht die bessere (und vielleicht auch früher erhältlichere) Wahl ist als eine RTX 3070Ti mit 16GB von nVidia, die schätzungsweise maximal 15% über einer RTX 3070 mit 8GB liegen dürfte?

Was die Radeon VII mit 16GB angeht, scheint es da wohl geteilte Meinungen zu geben, denn bei den (semi-) professionellen Käufern sind die 16GB HBM2 gerne gesehen/waren zeitgemäß und nicht zu unterschätzen/ein sehr guter Deal für den Preis.

Für 4K/UHD Gaming soll es auch oft genug langen (mit Abstrichen, je nach Gusto), wenn man Grafikqualitätsregler zu bedienen weiss, nur stimmt es da leider nicht mit dem relativ alternativlosen und nicht gerade vorbildlichen Referenzdesign.
 
hahaqp schrieb:
@schkai Dir ist bewusst dass Turing eine besser Performance pro Watt hat als Pascal?

Ich hatte damals mir eine 2070 für meine defekte 1080 geholt. Diese war grade mal 5% schneller als meine 1080. Verbrauch war 225 vs 180 Watt. Das war was ich noch in Erinnerung habe deshalb auch meine Aussage.
 
SKu schrieb:
Diese Tabelle ist absoluter Unsinn und zeugt nur davon, dass irgendwer einfach Werte eingetragen oder sogar einfach nur kopiert hat, ohne auch nur wirklich darüber nachzudenken, ob das Sinn macht oder nicht. Eine 3060 soll also den aufgepumpten GDDR6X Speicher bekommen, der ebenso ein 12-Layer PCB erforderlich werden lässt, das wiederum nur bei den Top-Karten genutzt wird und die Kosten für eine kleine GPU völlig aus dem Ruder laufen lässt, während eine stärkere 3070 mit dem üblichen GDDR6 RAM und evtl. einem 8-Layer PCB auskommen soll? Ergibt überhaupt keinen Sinn.

Komplett absoluter Unsinn, dann kennst Du die Details schon und weisst alles besser?

Ich denke eher nicht, ansonsten erzähl doch bitte die Details ;).

Ja, das GDDR6X Detail ist sicherlich fragwürdig, aber das macht nicht alles komplett unsinnig, was in der Tabelle zusammen getragen ist.

Die dortigen Fragezeichen und "TBDs" suggerieren, dass die Tabellendaten auch z.T eigener Einschätzung unterliegen, aber das ist Dir bei der gespielten Entrüstung wohl nicht aufgefallen, wie es scheint.
 
schkai schrieb:
Das finde ich richtig schlimm. Erstmal mit 10GB melken und schon jetzt ankündigen das diese mit 20GB kommt. Warum eigentlich nicht gleich ?

Das fände ich ehrlich gesagt sehr fair, denn dann kannst Du jetzt schon entscheiden ob Du gleich die kleine 10GB Variante kaufst oder noch warten kannst/willst/musst auf die 20GB.
Wenn Nvidia das nicht machen würde, kaufen viele vielleicht zähneknirschend die 3080 (weil ne 3090 zu teuer ist) um in ein paar Monaten, wenn die 3080 mit 20 GB raus kommt, sich dann zu ärgern, dass sie nicht gewartet haben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cyberbernd
Wenn die Specs wirklich stimmen ist die nächste Konsolengeneration also doch wieder vom Start weg veraltet.
Ich glaub nicht das AMD das Ende des Jahres kontern kann.
 
Zurück
Oben