News GeForce RTX 3090 & 3080 & 3070: Finale Spezifikationen der Ampere-Grafikkarten bekannt

aldaric schrieb:
Du aber auch. Woher willst du wissen das eine 3070 die Leistung einer 2080 Ti bringt ?[/

Wo habe ich das behauptet? Lesen.

Kacha schrieb:
Ich rede von Rohleistung und da hat sich null geaendert wie man am A100 sehen kann.

Zur Leistung einer GPU gehört aber nicht nur die reine Rohleistung, sondern auch die höhere Leistung/Takt und die fehlt als Unbekannte in der Betrachtung, ergo redest du die Karte schlecht, bevor sie überhaupt erschienen ist. :D

Kacha schrieb:
Das ist nicht was ich gerne haette, sondern schlichtweg die Informationen die bekannt sind.

Nein, auch eine gesteigerte IPC sind bekannt, das hat Nvidia mehrfach in deren Sheets erwähnt.

Kacha schrieb:
Der Takt wurde schon miteinbezogen, denn der ist im Artikel genannt.

Leistung/Takt, nicht Takt.

Kacha schrieb:
Die Industrie und der Markt interessieren sich in der Tat recht wenig dafuer wenn man sieht wie mager es mit Spielen noch aussieht.

Strohmannargument, da gehe ich nicht weiter drauf ein.
 
th3o schrieb:
Ernstgemeinte Frage da ich keine Daten vorliegen habe sondern nur so ein diffuses Gefühl, aber ists nicht so dass schon seit mindestens 10 oder mehr Jahren es so war dass die Nachfolgegeneration immer etwas teuerer wurde als die Generation davor? Wann genau war denn dieses "früher" von dem du sprichst wo die Karten zwei Jahre später genausoviel gekostet haben wie ihre Gegenparts der früheren Generation?
Bis zur R9 290 etwa, die hat ja soviel gekostet wie eine 7970.
Analog bei Nvidia bis zur 780 iirc, die 780ti war da schon ein wenig aus dem Rahmen gefallen, wenn ich mich richtig erinnere. Wobei selbst die TItans in den ersten Generation jedes Jahr das gleiche gekostet hatten.

Bei AMD im Grunde sogar bis zur 580, den Polaris mag keine Top Modelle mehr gehabt haben, aber brachte Mid-Range und Einsteiger-Gaming Karten mit der mehr Performance als die alten 290/390 Top Modelle.

Hier die Erinnerung an die gute alte 7970 ghz edition: https://geizhals.at/sapphire-vapor-x-radeon-hd-7970-ghz-edition-11197-12-40g-a804863.html
Die 6GB Version kostete sogar mehr als die aktuell 5700xt ;-)

Und ich will jetzt nicht sagen das hohe Preise für das absolute high-end es vorher nicht gab, im Gegenteil, zwei 3DFX Voodoo2 haben auch ne stange Geld gekostet, wenn auch wohl nicht mal inflationsbereinigt die Kombo, selbst mit einer Millenium für den 2D Teil auf über 2000 Euro kommen sollte ... gerade so nicht wahrscheinlich. ;-)

Sieht aber wirklich so aus als würden high-end consumer Desktops wieder zur Nische werden. Mal schauen wann die Rechner wieder 10k+ kosten ;-)
 
Zuletzt bearbeitet:
Angeblich sind Präsentationsfolien geleaked, Quelle von wccftech, kopite7kimi hats auch schon geposted...
RTX On, 4k, DLSS. Wenn das so stimmt, dann wärs sehr geil.
Dennoch auch interessant was die non-rtx non-dlss reine leistungsdifferenz zur 2080ti ist. Könnte mir aber irgendwie gut vorstellen dass sie darauf gar nicht eingehen werden bei der Präsentation, habs so im Gefühl.

NVIDIA-RTX-3090-Leaked-Slides-1.jpg
NVIDIA-RTX-3090-Benchmarks-1.jpg
 
th3o schrieb:
RTX On, 4k, DLSS. Wenn das so stimmt, dann wärs sehr geil.
Naja überraschend sieht das nicht aus.

Die reine Performance ohne DLSS und RT dürfte sich eben auf +40-50% belaufen, da müssen die RT und Tensor Cores nur jeweils etwas schneller arbeiten und mit beiden Optionen aktiviert kommt man schnell auf +100%
 
  • Gefällt mir
Reaktionen: th3o
|Maulwurf| schrieb:
neues Foto von der ASUS RTX 3090 ROG STRIX

Ich hoffe, Asus bekommt von seinem Lüfterproduzenten weniger Rattergurken. Denn auf meiner Asus 2080S Strix hat einer bei 68% Drehzahl gerattert und einer bei 74 oder so. Die Ersatzlüfter von Aliexpress rattern bei 80%. Und bei der 3090 sieht es nach den gleichen Lüftern aus wie beim Vorgänger aus. :( Die Asus wird bestimmt wieder einer der teuersten Karten im Sortiment sein. ROG-Strix-Label halt. :freaky:
 
th3o schrieb:
Angeblich sind Präsentationsfolien geleaked
Anhang anzeigen 961033


Also 4K alles an und RTX und DLSS an. Hmm ich weiß nicht, da gehen bei mir eher die Alarmglocken aka FAKE an.
Und wenn man die genaue Ausgangslage nicht kennt, ohnehin extrem schwer. Dort hatte Nvidia erst vor paar Wochen auch bei Turing zugelegt: https://www.computerbase.de/2020-05/nvidia-dlss-2.0-test/2/#diagramm-control-3840-2160

Und dann bleibt immer noch die Frage, wie viele Grafikfehler es noch gibt. Bisher war DLSS ja mitunter zu Haare raufen^^
 
  • Gefällt mir
Reaktionen: rumpel01
th3o schrieb:
Angeblich sind Präsentationsfolien geleaked, Quelle von wccftech, kopite7kimi hats auch schon geposted...

Aber auch nur (sofern der Leak keine Fakenews ist), weil Raytracing-Leistung auf der alten Karte verhältnismäßig schlecht ist? Bei der Leistung ohne Raytracing sind es bestimmt nur 30-40% Zuwachs.

3090 >3080TI (?) > 3080 > 2080TI > 3070 > 2080S > 2080
 
Apocalypse schrieb:
Sieht aber wirklich so aus als würden high-end consumer Desktops wieder zur Nische werden. Mal schauen wann die Rechner wieder 10k+ kosten ;-)

Sind doch schon seit vielen Jahren wieder Nische und Mainstream waren sie sowieso nie.
Bei den RTX 2070-2080Ti Modellen, welche ich mal als "Mittel-Oberklasse" definiere liegen wir bei einem Gesamtanteil von vielleicht 5-7% (wenn man Steam hwsurvey als Grundlage nimmt).
Ergänzung ()

Banger schrieb:
Aber auch nur (sofern der Leak keine Fakenews ist), weil Raytracing-Leistung auf der alten Karte verhältnismäßig schlecht ist? Bei der Leistung ohne Raytracing sind es bestimmt nur 30-40% Zuwachs.

Das Problem könnte auch sein, dass selbst viele potenzielle High-End-Käufer kein Bock mehr auf Raytracing-Geschwafel haben, denn der Support ist wirklich lächerlich. Insgesamt 12 "A-AAA" Produktionen haben aktuell Raytracing und ca. gleich viele DLSS (oft dieselben), angekündigt sind zudem nur ca. 10 weitere "A-AAA" Produktionen die RT supporten.
Für mich kein Grund tief in die Tasche zu greifen, auch wenn die Technik recht cool ist.

Sollte sich die Leistung - entgegen aller Erwartungen - auch im normalen Betrieb zu einer 2080 Ti fast verdoppeln, können die gerne 2000+€ von mir bekommen, aber für RT definitiv nicht.
 
Zuletzt bearbeitet:
Schlussendlich wir das dazu führen, dass der High-End PC-Markt zahlenmässig uninteressant wird, die Spieleentwickler keine Games mehr mit Hardcoreanforderungen entwicklen und dann die Preise irgendwann wieder runterkommen. Und so bewegen wir uns im Kreislauf.
 
machiavelli1986 schrieb:
Schlussendlich wir das dazu führen, dass der High-End PC-Markt zahlenmässig uninteressant wird, die Spieleentwickler keine Games mehr mit Hardcoreanforderungen entwicklen und dann die Preise irgendwann wieder runterkommen. Und so bewegen wir uns im Kreislauf.

Es wurde ja nie speziell für den High-End-Markt entwickelt (einige wenige Projekte mal außen vor), aber alle Topseller laufen eigentlich auch ziemlich flüssig in 1080p-1440p bei mittleren-hohen Details auf Mittelklasse-Hardware.

Und es war auch eigentlich immer so, dass man bei den xx60er Serien bei nvidia meist keine GPU-Gen skippen konnte, wenn man nicht relativ deutliche Qualitätseinbußen in Kauf nehmen wollte.
 
Ich denke halt dass Raytracing und Rekonstruktionsverfahren wie DLSS spätestens jetzt ab dieser neuen Konsolengeneration zum Standard werden. Sony hat ja mit Checkerboard Rendering extrem geile Ergebnisse und Control und Death Stranding mit DLSS sieht echt sehr geil aus und bringt performancetechnisch richtig was.
Insofern denk ich dass selbst wenn die neuen 30er Karten 'nur' 30-40% schneller in der normalen Leistung sein werden als ihre respektiven Vorgänger, dass alleine es schon wegen mehr RT und Tensor Cores wert sein wird da ich stark davon ausgehe dass kommende Spiele das viel mehr utilizen werden als bisherige. Ich sehe die 20er Serie als Pionierarbeit auf dem Feld von Raytracing und DLSS und dafür ziehe ich vor NVIDIA durchaus meinen Hut, das war Risiko was die eingegangen sind aber dass jetzt die Konsolen Raytracing pushen bestätigt es nur dass NVIDIA richtig lag diese Tech in den Consumer market zu lassen.
 
  • Gefällt mir
Reaktionen: orlof
Igor hat ja heute schon was mit dem derzeit alten Schwerkraft Eisen gezeigt, was durchaus interessant ist.


Werden die Möglichkeiten bei der RTX 3000 dahin gehend weiter ausgebaut, sieht AMD bei dem Funktionsumfang überhaupt kein Land mehr und von den schlimmen 350W bleibt am Ende auch weniger übrig.

Ich hoffe, nvidia wird DLSS auch für alte Titel durch lernfähige Algorithmen bereit stellen.
 
th3o schrieb:
Ich denke halt dass Raytracing und Rekonstruktionsverfahren wie DLSS spätestens jetzt ab dieser neuen Konsolengeneration zum Standard werden. Sony hat ja mit Checkerboard Rendering extrem geile Ergebnisse und Control und Death Stranding mit DLSS sieht echt sehr geil aus und bringt performancetechnisch richtig was.
Insofern denk ich dass selbst wenn die neuen 30er Karten 'nur' 30-40% schneller in der normalen Leistung sein werden als ihre respektiven Vorgänger, dass alleine es schon wegen mehr RT und Tensor Cores wert sein wird da ich stark davon ausgehe dass kommende Spiele das viel mehr utilizen werden als bisherige. Ich sehe die 20er Serie als Pionierarbeit auf dem Feld von Raytracing und DLSS und dafür ziehe ich vor NVIDIA durchaus meinen Hut, das war Risiko was die eingegangen sind aber dass jetzt die Konsolen Raytracing pushen bestätigt es nur dass NVIDIA richtig lag diese Tech in den Consumer market zu lassen.

Ja, alles richtig, das Problem ist wirklich der spärlich gesäte Support. nvidia Ansel z.B. ist für Screenshot-Liebhaber eines der besten Tools, allerdings wird dies auch nur von äußerst wenigen Games komplett unterstützt, genau wie Raytracing und DLSS.
Screenshots in 2-10 facher Auflösung (eventuell auch mit Filter etc.) sind einfach eine tolle Sache und verleihen den besten Momenten eines Spiels andere "Erinnerungswerte" als nen simpler 1080p Screenshot.
 
Nvidia läßt sich das natürlich was kosten wenn die Entwickler ihre Games bei NVIDIA durch ihren Supercomputer durchjagen wollen damit am Ende ne DLSS Version davon rauskommt....So macht NVIDIA auch nochmal Kohle.

@Beg1 ja, der Support dieser Tech ist bisher nicht so wahnsinnig, aber das was da ist kann sich definitiv sehen lassen find ich. Ich gehe einfach davon aus dass die Anzahl Spiele die das unterstützen werden jetzt so langsam exponentiell ansteigen wird. Vor allem wenn sie sehen dass DLSS 3.0 nochmal besser sein wird als 2.0. Dann werden die doch sicher das in ihren Games implementieren wollen damit sie schmackhafter für die Gamer sind.
 
Beg1 schrieb:
Hoffe ich auch, aber glauben tu ich es nicht.
Ich auch nicht, denn kein Entwickler fängt an, nochmal neue Features in alte Games einzuprogrammieren.
 
@Beg1
Es müssen nur genügend Spieler abseits der free to play Szene auf den Geschmack kommen und einen für nvidia hörbaren Aufschrei im Internet und Foren betreiben. Dann wird es auch was. ;)

Am Ende nimmt nvidia auch auch für sich selbst und damit das eigene Marketing was mit.
Natürlich müssen es auch die Spieleentwickler und Publisher wollen, denn wie sieht es aus, wenn nvidia die Spiele über Algorithmen aufhübschen kann, was manch Remaster überflüssig machen würde.

@HerrRossi
Wenn man teils unfertige Spiele über Jahre versucht fertig zu patchen und mit DLC die Kunden an der Stange hält, kann man auch sinnvolle Funktionen integrieren.
Die Zukunft und Integration nur über die Treiber könnte sicher weit unabhängiger vom Spieleentwickler werden, besonders wenn man alte Spiele mit eingebauten Editor und Texturpaketen mit in die Auswertung nehmen kann.

Aber man sieht eines, nvidia bringt neue Techniken auf den Bildschirm, über die sich die Nutzer austauschen und es vergleichen.
Da kann sich am Ende nicht jeder Spieleentwickler von entziehen, weil sein Spiel länger aktiv kommuniziert wird und wenn es schon durch die Engine grenzwertig läuft, rettet vielleicht ein Patch die Stuidoreputation.
Hätte auch FS2020 gut getan, die ja gleich mit dem DX11 Killer ihre Entwcklungskunststücke auffliegen ließ. :D
 
Zuletzt bearbeitet:
Reset90 schrieb:
3070 -> auch? im ernst?

Hoffentlich nicht. 8GB ist so 2016. Aber so kann man natürlich geplante Obsoleszenz betreiben, indem man Speicherkrüppel macht und dann in einem Jahr dann den Refresh mit 128 Shaderenheiten mehr bringt und Doppelspeicher, sodass die Leute dann am besten den Speicherkrüppel kaufen und dann noch den Refresh.
Ergänzung ()

Anhand des Gainward-Leaks von heute scheinen 10GB für die 3080 bestätigt zu sein, daher wären das dann 8 für die 3070. :(

https://www.computerbase.de/2020-08/geforce-rtx-3090-3080-gainward/
 
Zuletzt bearbeitet:
Banger schrieb:
-Unnötiges Komplettzitat entfernt-
Wie es richtig geht, ist hier nachzulesen.


das ist ja schon ein bisschen frech. dann wird es wohl ne AMD.
 
Zuletzt bearbeitet von einem Moderator: (Komplettzitat entfernt)
Zurück
Oben