News GeForce RTX 3090 & 3080 & 3070: Finale Spezifikationen der Ampere-Grafikkarten bekannt

th3o schrieb:
@BloodReaver87 Ich habe seit gestern hier den neuen 27" LG 4k/144Hz Monitor, ders erst seit ein paar Tagen verfügbar und bin mehr als zufrieden, allerdings verlangt der dann jetzt doch schon nach einer potenteren GPU als die 2080Ti, zumindest wenn man die volle Auflösung und fps über 60 nutzen möchte. Hat weder HDMI 2.1 und auch kein DP 2.0, aber mit DP 1.4 läßt der sich locker fahren mit RGB Full 10bit 144Hz, was will man mehr. HDR würde ich bei noch keinem Monitor nutzen.
Hii, also mit DP 1.4 bekommst du, falls du in 4k meinst, keine 144Hz mit 10bit HDR maximal sind da 98hz drin. Da DP 1.4 eine Max. Bandbreite von 32.40 Gbit/s, mit einer Daten-Rate von 25.92 Gbit/s hat. Des weiteren sind auch keine 4k @ 144hz ohne Chroma subsampling möglich. Nur 4k @ 120hz bei full RGB/4:4:4 @ 8bit.
 
Velve schrieb:
Hii, also mit DP 1.4 bekommst du, falls du in 4k meinst, keine 144Hz mit 10bit HDR maximal sind da 98hz drin. Da DP 1.4 eine Max. Bandbreite von 32.40 Gbit/s, mit einer Daten-Rate von 25.92 Gbit/s hat. Des weiteren sind auch keine 4k @ 144hz ohne Chroma subsampling möglich. Nur 4k @ 120hz bei full RGB/4:4:4 @ 8bit.


Ich meinte auch kein HDR, meine SDR mode.
Habe nur gesagt was ich in meinem NVIDIA Control Panel einstellen kann. Bei nativer Auflösung kann ich 144Hz, RGB Full 10bit einstellen und er nimmts. Obs sich dann tatsächlich ins Bild übersetzt kann ich nicht beurteilen, aber diese Einstellungen kann ich applyen und die stehen dann auch da. Kann auch gern nen Screenshot davon machen.
20200830_163830.jpg
 
https://www.pcgameshardware.de/Nvid...fXeVAX-h9Iza9GZrKCZUyVBeP4#Echobox=1598694696

Hier gibt es Renderbilder, ein Referenzdesign von der 3080TI und dann eine Platine von einer Zotac. Falls kein Fake, ist es auf der Platine ziemlich gequetscht und die Spannungswandler grillen schön den Speicher und am Ende ist der GPU-Die dann das kälteste Teil mit 70°C oder so und der Speicher und die Spannungswandler schmoren bei 90-100°C. Gerade bei Zotac war das ja nicht so dolle mit der Kühlung von manchen Karten.

Edit:

Das PCB ist auch sehr kurz, daher könnte Zotac den Kühler dann auch länger haben, sodass der hintere Lüfter dann durchpustet.
 
@schkai
2080 Test: 1080 vs 2080 39%
2080S Test: 1080 vs 2080 39% (ca 10 Monate später) und 1080 vs 2080S 46%
aktuelles Performancerating: 1080 vs 2080S 52% (4% Unterschied zum Test)

Alle Werte von Computerbase und in WQHD, also welchen Punkt versuchst du zu machen? Die Vega 64 ist einmal 1%, 0% und 3% vorne also auch hier kein Beleg für deine Aussage, dass Nvidia angeblich ihre Karten schlechter altern lässt. Es wäre der Diskussion auch schon zuträglich, wenn du deine Quellen nennen würdest.
 
Velve schrieb:
Des weiteren sind auch keine 4k @ 144hz ohne Chroma subsampling möglich. Nur 4k @ 120hz bei full RGB/4:4:4 @ 8bit.
Der neue Monitor des Kollegen unterstüzt als einer der wenigen das neue DSC und kann damit 4k 10bit 144hz über DP 1.4
Ergänzung ()

MrNejo schrieb:
dass Nvidia angeblich ihre Karten schlechter altern lässt.
Das ist auch einfach Käse der mehr als einmal widerlegt wurde. Es ist nunmal so das neuere Titel sich auch mit den aktuellen Architekturen häufig besser verstehen und der Abstand damit nach einger zeit und bei neueren titeln eben zunimmt.
Pascal ist inzwischen einfach alt und das macht sich grade bei neueren Titeln häufig bemerkbar, das ist normal.
Die Vegas verlieren ja auch immer häufiger an Boden gegen Navi.
So ist der lauf der dinge, die GPU Hersteller haben damit aber nix zu tun, die Entwicklung findet einfach auf neueren Architekturen statt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse, milliardo, Strikerking und 2 andere
MrNejo schrieb:
@schkai
2080 Test: 1080 vs 2080 39%
2080S Test: 1080 vs 2080 39% (ca 10 Monate später) und 1080 vs 2080S 46%
aktuelles Performancerating: 1080 vs 2080S 52% (4% Unterschied zum Test)

Alle Werte von Computerbase und in WQHD, also welchen Punkt versuchst du zu machen? Die Vega 64 ist einmal 1%, 0% und 3% vorne also auch hier kein Beleg für deine Aussage, dass Nvidia angeblich ihre Karten schlechter altern lässt. Es wäre der Diskussion auch schon zuträglich, wenn du deine Quellen nennen würdest.

Meine Quelle ist Computerbase. Wo habe ich gesagt das Nvidia die Karten schlechter altern lässt ? Ich habe 2 Varianten als Möglichkeit angegeben aber du willst dich nur an einer festfahren ?

Ich bin wohl beim Vergleich wohl auf die 1080 OC gegangen und nicht auf die 1080, mein Fehler - aus dem Grund war ich so überrascht über den doch so großen unterschied. So ist der Leistungsunterschied aktuell liegt wohl bei ca 8% (39% vs 52% - 5%) mehr im vergleich zum Release (1080 vs 2080).
 
Mich würde interessieren, wie GTA5 auf der neuen Karte skaliert. Auf Pascal war es übermäßig gut und auf Turing relativ schlecht. Aus meiner Erinnerung muss da eine 2080(S) arg knabbern, um gleichwertig mit einer 1080TI zu sein. Ebenfalls aus Erinnerung, bei anderen Spielen ist die 2080(S) so 5-10% schneller.
 
katamaran3060 schrieb:
Die R9 390 war so schnell wie vergleichbare Nvidia Karten! Erst Fidji und Vega waren langsamer und stromhungriger als Nvidias Topmodelle und wurden von Nvidia Fanboys wie dir kritisiert. Aber bei Termi und Ampere war und ist der Verbrauch ja egal und darf nicht kritisiert werden. Wer sitzt nun in der nvidia- Fanboy-Schublade?

Wo war die 390 bitte vergleichbar schnell bei gleichem Verbrauch?
Und wo hab ich gesagt dass man bei NVIDIA nicht kritisieren darf? Kritisiert doch. Dumm halt nur, dass man weder zum realen Verbrauch, noch zur Leistung von Ampere was sagen kann. Oder hast du die mega geheime Quelle an der Hand? Oder doch nur deine Glaskugel? Und zur Konkurrenz kann man im Moment noch viel weniger sagen. Da wartet man ganz einfach ab und gut.
Das ist halt der Unterschied zu normalen Konsumenten wie mir und Leuten wie dir. Mir ist es schnuppe wem ich am Ende meine Kohle gebe. Mich interessiert, was ich dafür bekomme und wie das Produkt im Vergleich zur Konkurrenz abschneidet. Hat halt wenig mit Fanboy zu tun, dass NVIDIA so gut wie immer besser aufgestellt ist.
 
Zuletzt bearbeitet:
Chismon schrieb:
Komplett absoluter Unsinn, dann kennst Du die Details schon und weisst alles besser?

Ich denke eher nicht, ansonsten erzähl doch bitte die Details ;).

Ja, das GDDR6X Detail ist sicherlich fragwürdig, aber das macht nicht alles komplett unsinnig, was in der Tabelle zusammen getragen ist.

Die dortigen Fragezeichen und "TBDs" suggerieren, dass die Tabellendaten auch z.T eigener Einschätzung unterliegen, aber das ist Dir bei der gespielten Entrüstung wohl nicht aufgefallen, wie es scheint.

Diese Daten werden reingeschrieben. Willst du meine Daten?

RTX TITAN 128GB VRAM, 10.000GB/s, 256.000 Cuda-Cores. 10W TDP.

Hat den gleichen Wahrheitsgehalt wie Videocardz als Trash-Website.
 
katamaran3060 schrieb:
Die R9 390 war so schnell wie vergleichbare Nvidia Karten! Erst Fidji und Vega waren langsamer und stromhungriger als Nvidias Topmodelle
Die 290X hat sich damals mit der GTX Titan duelliert und die GTX780 geschlagen.

Die 390X war ebenfalls das Topmodell von AMD, lag aber nur noch auf dem Niveau einer GTX980, die 390 auf dem Niveau einer GTX970, dafür hat die 390X aber über 100W mehr verbraucht als die 980 und die 390 lag sogar fast 150W über der 970.

Die 980Ti war noch über beiden bei trotzdem weniger Verbrauch als selbst die 390.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse und JohnnyTexas
CrustiCroc schrieb:
Was ist dein Problem? Ich hab das Geld, und werd mir eine dicke Ampere gönnen.

Hey, mach mit deinem Geld, was du willst.

Wenn du kein Problem darin siehst, das X Prozent mehr Leistung seit der RTX Umbenennung und wahrscheinlich noch mal mit der 3000er Reihe auch X Prozent mehr Geld kosten, haben wir einfach eine andere Auffassung von technischem Fortschritt. ¯\(ツ)
 
  • Gefällt mir
Reaktionen: Apocalypse
v_ossi schrieb:
Mehr rohe Leistung und Speicher für's gleiche Geld bei gesteigerter Effizienz.

Ernstgemeinte Frage da ich keine Daten vorliegen habe sondern nur so ein diffuses Gefühl, aber ists nicht so dass schon seit mindestens 10 oder mehr Jahren es so war dass die Nachfolgegeneration immer etwas teuerer wurde als die Generation davor? Wann genau war denn dieses "früher" von dem du sprichst wo die Karten zwei Jahre später genausoviel gekostet haben wie ihre Gegenparts der früheren Generation?
 
th3o schrieb:
Wann genau war denn dieses "früher" von dem du sprichst wo die Karten zwei Jahre später genausoviel gekostet haben wie ihre Gegenparts der früheren Generation?
z.B. GTX 480 auf GTX580 auf GTX680, also 2010-2012. Die UVP Preise aller drei Karten entsprechen heute Inflationsbereinigt ~560€

TDP: 250W auf 244W auf 195W
 
  • Gefällt mir
Reaktionen: schkai und v_ossi
Naja sagen wirs mal so: Ich denke nicht dass NVIDIA absichtlich Karten produziert die viel Strom fressen. Scheinbar ist es halt nicht so ohne Weiteres so einfach eine gewisse Leistung zu liefern und gleichzeitig den Stromverbrauch weiter zu senken. Das wird wohl einerseits an irgendwas physikalischem liegen aber auch daran dass es sehr teuer is energieeffizient zu bauen. Als Unternehmen muss NVIDIA halt kalkulieren.

Was die Preise angeht: Gaming hat sich denke ich auch mal weiterentwickelt, die Nachfrage ist 2020 nach Gamingprodukten um einiges höher als noch vor 10 Jahren. Dass man diese Nachfrage auch finanziell abernten möchte ist ja nur verständlich, das find ich erstmal eher normal.

Man muss sich einfach ehrlich fragen: Wenn man selbst die Chance hat einen Gegenstand für 300€ zu verkaufen, also wenn man dafür Käufer finden würde, würde man es einfach nur so für 200€ verkaufen weil man das Gefühl hat dass man mit 300€ unmoralisch ist? Nö. Wenn jemand bereit ist mir 300 zu geben dann werd ichs auch für den Preis verkaufen.
 
  • Gefällt mir
Reaktionen: milliardo
Taxxor schrieb:
z.B. GTX 480 auf GTX580 auf GTX680, also 2010-2012. Die UVP Preise aller drei Karten entsprechen heute Inflationsbereinigt ~560€

TDP: 250W auf 244W auf 195W
Die GTX 680 mit dem Midrange Chip und die Einführung der Titan war sozusagen der Anfang vom Ende. Seit her hinkt AMD hinter her. Der Mining Boom letztens hat zudem nochmals neue preisliche Möglichkeiten freigeschaltet. Das Selbe haben wir schon vor zwei Jahren bei Turing durchgekaut.

Diesmal „muss“ ich mir jedoch eine Karte holen, weil die 1080 Ti zu langsam wird. Bin wirklich gespannt, was am Dienstag letztendlich gezeigt wird. Eine 3090 24GB zu einem erträglichen Preis wäre schön. 😅
 
  • Gefällt mir
Reaktionen: OR4LIFE
Fraggball schrieb:
So ist der lauf der dinge, die GPU Hersteller haben damit aber nix zu tun, die Entwicklung findet einfach auf neueren Architekturen statt.
Jein, ich glaube durchaus, dass du Recht hast, wobei da denke ich als zweite Komponente noch dazu kommt, dass weniger Optimierung seitens Nvidia/AMD bei neuen Titeln in die alten Architekturen gesteckt wird.

Bewusst langsamer wird da aber nichts gemacht und ist meiner Meinung nach auch verständlich, dass sich nach Jahren nicht mit etlichen Entwicklerstunden um die alte Architektur gekümmert wird.
 
  • Gefällt mir
Reaktionen: milliardo und Fraggball
Ich wollte ja eigentlich von meiner 2080 auf 3080 upgraden, aber 320 Watt sind ne ganz schöne Hausnummer.
Da bräucht ich auf jedenfall noch ein neues Netzteil, und dann Ausbau/Einbau, alles neu verkabeln...
Dazu müssen 100 Watt mehr aus dem Gehäuse raus...
Das ist mir dann doch zuviel Aufwand. 😢

3070 lohnt sich wahrscheinlich nicht für ein Upgrade. Dann muss ich wohl eine Generation warten bis es das entsprechende Leistungsupgrade bei 200 Watt gibt.
 
Abwarten, vielleicht braucht die auch nicht 320W, sondern begnügt sich mit 250W in den meisten Spielen, und hat dann TDP-Reserve, damit die bei den Fressern nicht den Takt verstümmelt. Außerdem lohnt sich die Variante mit 20GB dann eh mehr.
 
  • Gefällt mir
Reaktionen: Knito
Ich werde mir ganz genau die Reviews mit der Founders Edition 3090 dieses Mal ganz genau anschauen, es könnte nämlich sein dass ich zu einer greife wenn NVIDIAs Kühllösung dieses mal besser sein sollte als die der 20er Serie. Und hochziehen aufs Niveau der Partnerkarten kann man die Founders ja auch.
 
Zurück
Oben