Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

m.Kobold schrieb:
Ist schon schön, wenn man nach 2 Wochen recht behält und sieht das die neue Gen. nur
den üblichen Performance boost bietet wie bereits zwischen 900er und 1000er release :)

Es gab nie einen Anlass zu glauben, dass die 3080 die 2080Ti um mehr als 40% übertreffen wird.
Der Schnitt des Tests von Digital Foundry am 1.09 ging im Schnitt von 76% Mehrleistung zur 2080 aus und laut 3D Center sind es 72% in ihrer Meta-Analyse. Also war das was Nvidia angegeben hat, ziemlich akkurat, bis auf die üblichen 5% cherry picking.

m.Kobold schrieb:
Die 2000er Gen war doch eh der totale fail release, abgesehen von der 2080Ti,

Sie war wesentlich besser als die Konkurrenz und brachte zusätzlich völlig ohne Not noch ein komplett neues Featureset. (RT, DLSS).

m.Kobold schrieb:
gab es keine Mehrleistung.. zumindest bis dann irgendwann die S Modelle nachgeschoben wurden.

Die 2060 war 60% schneller als die 1060. Das sieht für mich schon nach Mehrleistung aus.

m.Kobold schrieb:
Aber Digital Foundry testet dann absichtlich nur die 2080er
(die in vielen Spielen sogar noch langsamer als die 1080Ti war)

Es existiert kaum ein Spiel in dem die 2080 langsamer ist, die 2080S ist heute in UHD 16% schneller bei Computebase, die 2080 11%.

m.Kobold schrieb:
Da wurden viele Fanboys geblendet.

Alle die nicht richtig lesen konnten und vielleicht die 2080 mit der 2080Super oder 2080Ti verwechselten.
 
  • Gefällt mir
Reaktionen: adAstra, Schokolade, Celinna und 4 andere
Gestern hatte ich in einem Project Cars 3 Regenrennen, im Pulk, Einbrüche auf 30FPS. Ich frag mich, ob Ampere das ändern würde, oder müßte es könnte heißen?

Wobei es natürlich hirnverbrannt wäre, wegen sowas zu upgrayden.
 
SPECIALIZED- schrieb:
Die 50W mehr machen es ja auch am Ende bei dem gesamten System ... :rolleyes:
Nein aber sie verbessern die Effizienz nicht unwesentlich mit minimalen Leistungseinbußen. Also absolut unnötig für eine FE. Das wäre eher von den Customs zu erwarten gewesen.
Wenn du glücklich bist mit 320 Watt+ Karten, gönn dir. Ich bin’s nicht. Unabhängig davon ob Grün oder Rot.
 
m.Kobold schrieb:
Ist schon schön, wenn man nach 2 Wochen recht behält und sieht das die neue Gen. nur
den üblichen Performance boost bietet wie bereits zwischen 900er und 1000er release :)

700 -> 900 Betrug rund 50%, 900 ->1000 Betrug rund 65%, 1000 -> 2000 rund 35%

Was heißt hier üblicher Performance Boost?

m.Kobold schrieb:
Aber Digital Foundry testet dann absichtlich nur die 2080er
(die in vielen Spielen sogar noch langsamer als die 1080Ti war),
gegen die 3080er.

Da wurden viele Fanboys geblendet.

Werd sachlich. Die 3080er ist nunmal der Nachfolger der 2080 und liegt im gleichen Preisbereich.
Auch wenn es wieder der Big Chip ist, das spielt für den Endkunden keine Rolle.
 
  • Gefällt mir
Reaktionen: McFritte
m.Kobold schrieb:
Plötzlich nur noch 20-40% (in 4k) und das obwohl nur Tripple A games getestet worden sind.
Tja bei Computerbase sinds in Doom über 40%. Alles relativ hier. Ich halte das für nen top Wert. Und deshalb hast du ja sicher dieses Doom Video verlinkt, da sinds auch grob 40% bis maximal 60%, naja gut.
Ist schon recht akkurat alles.
 
  • Gefällt mir
Reaktionen: gr1nd
Wenn ich den Zuwachs von 1080Ti zu 3080 seh, wirds mir bisle schwindelig, ich hab nämlich Höhenangst.
 
  • Gefällt mir
Reaktionen: Rockstar85
Tronx schrieb:
3070Ti wird aber niemals vor der 3080 sein.

Einerseits hängt es davon ab, was AMD präsentieren kann, andererseits gibt es 2Gbyte GDDR6 Module zu kaufen, 2Gbyte GDDR6X hingegen nicht. Wenn es irgendwann Versionen der Karten mit mehr Speicher geben sollte, dann dürfte die 3070 eher kommen, außer Nvidia bestückt eine 2080Ti mit 20, statt der 10 GDDR6X Chips, was den Preis einer solchen Variante stark nach oben treiben würde.
 
mastakilla91 schrieb:
Dieser "Custom 8nm Samsung Prozess" erlaubt es Nvidia bei 20% kleinerer Chipfläche 28 statt 18,6 Mlrd also 50% mehr Transistoren drauzupacken.

Das hört sich eigentlich stark nach 7nm und nicht nach aufgewärmter 10nm a la 8nm Prozess an.

7nm TSMC - 65,37 MT/mm² (GA100)
8nm Samsung - 44,33 MT/mm² (GA102/GA104)
12nm TSMC - 24,67 MT/mm² (TU102)
Quelle
Sind nicht ganz "50%" aber zu TSMC7 nm wären es wieder "50%" gewesen, der Samsung Prozess war wohl sehr günstig ;-) Wenn die 4080 von TSMC kommt wirds nen Effizienzwunder ;-) Der 8nm den Nvidia da nutz ist aber wohl nur nen optimierter 12er mit EUV und allem Zipp und Zapp.
 
  • Gefällt mir
Reaktionen: mastakilla91 und KlaraElfer
IXI_HADES_IXI schrieb:
Leistung passt. Verbrauch im Rahmen. Einziger Knackpunkt auf längere Sicht sind die 10 GB Vram wer in UHD oder höher unterwegs ist....
den Quatsch wirds in den nächsten Wochen hundertfach zu hören geben...ihr lernt es einfach nicht :)
 
  • Gefällt mir
Reaktionen: Onkel Föhn
So, ich hänge seit 18.30 Uhr in den Kommentaren um überhaupt auf Seite 76 zu kommen um überhaupt anzufangen zu schreiben und mit der Erkenntnis, Moderation wäre eine Vollzeitjob.


Da hat nvidia für mich ein starkes Stück an GPU abgeliefert. Allein Blenderman braucht bei mir unter der Vega 56 20 Minuten Renderzeit, was die neue RTX3080 in knapp über einer Minute schafft. Man hat ja selbst kein rein knackig frisches Benchmarksystem laufen, aber das ist einfach nur brachial. Die RX5700XT mit den 10 Minuten ist bedauerlich und selbst beim Videoschnitt gängiger Programme würde ich mit jeder RTX Karte weiterhin glücklich werden, was ich mit der Vega nicht immer bin und teils auf schöneres CPU Encoding gehe, womit die VEGA brach liegt. Da sieht man auch, warum nvidia nur den Decoder hoch gestuft hat und der Encoder noch die gute Turing Klasse hat. Die so Compute starke Vega von 2017 wird einfach nur von nvidia vernichtet und da hilft es mir nicht die TDP auf 150W zu begrenzen. Die 320W der nvidia sind einfach nur höchst effizient, aber da sieht sogar die RTX2070 schon gut aus.

Die gesamten nvidia Leistungwerte durch alle Testszenarien sind gut, auch für das eine oder andere Spiel, was ich mal einschalten würde, für den Preis sowieso, weil AMD bis jetzt keine ebenbürtige Karte mit Preisvorstellung vorgestellt hat oder gar anbietet. Selbst Turing glänzt bis zur RDNA 2 Vorstellung.
https://www.igorslab.de/amd-radeon-...n-vega-und-fast-2-1-ghz-takt-unter-wasser/11/

Wenn die RX5700XT hier schon unter 7nm als halbe Silizium Portion 220W zieht und ein großer, komplexerer AMD Chip kommen soll, wird auch kein 7nm+ was dran reißen. Jedenfalls nichts für die Nutzer, die abseits von Spielen auch Compute Anwendungsmöglichkeiten durch den Kauf nutzen wollen, AMD seine RDNA 2 weiterhin auf Gaming Teaser stützt und die RX5700XT Treiber gerade mal gefixt wurden. So lange werde ich wohl nicht warten, bis Frau Su auch mal die Enkunden ansprechen will, was RDNA 2 noch so alles abseits von Gaming doch noch kann.

Jetzt muss ich schauen, wie sich das mit der RTX 3000 am Markt entwickelt, der Kauf hat noch etwas Sparzeit. Welche es der RTX Karten werden soll, wobei mir die FE wie schon bei der Vorstellung sehr zusagte. Hoffentlich passen auch die Treiber und sollte es eine Knappheit sei es wieder durch Corona bedingte Lockdowns geben, dann wird es auch RTX 2000 tun, falls AMD nicht auf den nvidia Encoder und Decoder aufschliessen kann.

Nun, jetzt habe ich die Zeit die Benchmarktests der anderen tester anzuschauun, falls ich nicht doch schlafen gehe. 7 Stunden in einem Thema zu hocken ist dann keine Freizeit mehr, sondern Arbeitsaufwand.
 
  • Gefällt mir
Reaktionen: Schokolade, xexex und WieselX
[
dante1975 schrieb:
Sicher? ich glaube du irrst dich.. Die 1070 TI war zb. auch schneller als die normale 1080.
Nein, die Beste 1070TI (Nutze ich gerade, da meine 2080TI zu meinem Sohn gewandert ist) liegt auf dem Niveau der 1080. Mehr ist nicht drin ...
 
Sehr schöner Test, mein Kompliment an das CB Team, hat mir viel Spaß gemacht ihn zu lesen und mir viele Fragen beantwortet. Jetzt bin ich gespannt auf die 3090 ;)

m.Kobold schrieb:
So wurden aus den damaligen 50-60% (in 4k) Mehrleistung... https://www.computerbase.de/news/grafikkarten/geforce-rtx-3080-doom-eternal.73433/

Plötzlich nur noch 20-40% (in 4k) und das obwohl nur Tripple A games getestet worden sind.
Ab 17:33:
Sorry aber wer ist denn dieser "Hardware unboxed" Typ, dessen Tests scheinbar so über jeden Zweifel erhaben sind, daß er hier ständig gerquoted wird? Natürlich kann man so lange auf Youtube rumsuchen, bis man irgendeinen Hansel findet, der genau die Ergebnisse produziert die man jeweils haben will und dann kann man sie allen unter die Nase reiben. Ich halte davon allerdings gar nichts.

Ich lese Tests auf vielen Seiten, bevorzugt aber immer auf den gleichen, weil ich da über Jahre die Erfahrung der Tester bewerten konnte und die Nachvolziehbarkeit der Testmethoden habe. Wer viel misst, misst viel Mist, es ist nicht so leicht, aussagekräftige Tests zu erstellen die nachvollziehbar sind. Die richtigen Schlüsse daraus zu ziehen und Fehlerquellen zu identifizieren und auszuschließen ist nochmal eine Kunst für sich. Da bin ich konservativ und erwarte Erfahrung und über Jahre nachgewiesenes solides Fachwissen und nicht jemand der eine Karte in seinen Rechner steckt und ein paar Benchmarks laufen läßt, damit er einen Daseinszweck auf Youtube hat. Also, wer ist das und worauf beruht seine Qualifikation ?
 
Der Nachbar schrieb:
So, ich hänge seit 18.30 Uhr in den Kommentaren um überhaupt auf Seite 76 zu kommen um überhaupt anzufangen zu schreiben und mit der Erkenntnis, Moderation wäre eine Vollzeitjob.


Da hat nvidia für mich ein starkes Stück an GPU abgeliefert. Allein Blenderman braucht bei mir unter der Vega 56 20 Minuten Renderzeit, was die neue RTX3080 in knapp über einer Minute schafft. Man hat ja selbst kein rein knackig frisches Benchmarksystem laufen, aber das ist einfach nur brachial. Die RX5700XT mit den 10 Minuten ist bedauerlich und selbst beim Videoschnitt gängiger Programme würde ich mit jeder RTX Karte weiterhin glücklich werden, was ich mit der Vega nicht immer bin und teils auf schöneres CPU Encoding gehe, womit die VEGA brach liegt. Da sieht man auch, warum nvidia nur den Decoder hoch gestuft hat und der Encoder noch die gute Turing Klasse hat. Die so Compute starke Vega von 2017 wird einfach nur von nvidia vernichtet und da hilft es mir nicht die TDP auf 150W zu begrenzen. Die 320W der nvidia sind einfach nur höchst effizient, aber da sieht sogar die RTX2070 schon gut aus.

Die gesamten nvidia Leistungwerte durch alle Testszenarien sind gut, auch für das eine oder andere Spiel, was ich mal einschalten würde, für den Preis sowieso, weil AMD bis jetzt keine ebenbürtige Karte mit Preisvorstellung vorgestellt hat oder gar anbietet. Selbst Turing glänzt bis zur RDNA 2 Vorstellung.
https://www.igorslab.de/amd-radeon-...n-vega-und-fast-2-1-ghz-takt-unter-wasser/11/

Wenn die RX5700XT hier schon unter 7nm als halbe Silizium Portion 220W zieht und ein großer, komplexerer AMD Chip kommen soll, wird auch kein 7nm+ was dran reißen. Jedenfalls nichts für die Nutzer, die abseits von Spielen auch Compute Anwendungsmöglichkeiten durch den Kauf nutzen wollen, AMD seine RDNA 2 weiterhin auf Gaming Teaser stützt und die RX5700XT Treiber gerade mal gefixt wurden. So lange werde ich wohl nicht warten, bis Frau Su auch mal die Enkunden ansprechen will, was RDNA 2 noch so alles abseits von Gaming doch noch kann.

Jetzt muss ich schauen, wie sich das mit der RTX 3000 am Markt entwickelt, der Kauf hat noch etwas Sparzeit. Welche es der RTX Karten werden soll, wobei mir die FE wie schon bei der Vorstellung sehr zusagte. Hoffentlich passen auch die Treiber und sollte es eine Knappheit sei es wieder durch Corona bedingte Lockdowns geben, dann wird es auch RTX 2000 tun, falls AMD nicht auf den nvidia Encoder und Decoder aufschliessen kann.

Nun, jetzt habe ich die Zeit die Benchmarktests der anderen tester anzuschauun, falls ich nicht doch schlafen gehe. 7 Stunden in einem Thema zu hocken ist dann keine Freizeit mehr, sondern Arbeitsaufwand.
Seit 18:30 ist das dein ernst krass^^
 
rasenschach schrieb:
kannst Dich trotzdem auf eine schönen Zockerwinter freuen ..

Danke..:D
Und die Wattzahl geht mir am Poppos vorbei, ja ich gebe es zu ich bin ein Klima Schwein^^
Dafür gehen meine Frau und ich 40 Stunden die Woche arbeiten, und unsere Hobbys müssen uns Spass machen.;)
 
  • Gefällt mir
Reaktionen: Onkel Föhn, freezer255 und rasenschach
 
  • Gefällt mir
Reaktionen: Th3ri0n
KlaraElfer schrieb:
Sie war wesentlich besser als die Konkurrenz und brachte zusätzlich völlig ohne Not noch ein komplett neues Featureset. (RT, DLSS).
Die Konkurrenz (AMD) ist seit Jahren ein Witz im GPU Bereich bei High End Grakas.
Die wirkliche konkurrenz hat sich nvidia selbst gemacht und das war die 1080 und 1080Ti.

KlaraElfer schrieb:
Die 2060 war 60% schneller als die 1060. Das sieht für mich schon nach Mehrleistung aus.
Okay, so low budget Grakas interressieren mich da eigentlich weniger.

KlaraElfer schrieb:
Es existiert kaum ein Spiel in dem die 2080 langsamer ist, die 2080S ist heute in UHD 16% schneller bei Computebase, die 2080 11%.
Du meinst weil nvidia absichtlich ihre alten Grakas künstlich langsamer macht mit neueren Treibern?

Guck dir mal vor genau 2 Jahren die Benches an... das Problem das hier 95% der CB user nicht mal sich
die mühe machen, alte Tests rauszusuchen anstatt mal etwas quer zu denken:

Ab 23:32 sieht man das die Performance zwischen 1080Ti und 2080er +- 0 ist... es gibt zumindest genug games
wo die 1080Ti schneller ist und daher ist deine aussage falsch.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Incident schrieb:
Wieder einer, der nicht der Unterschied zwischen VRAM Allokierung und VRAM Nutzung verstanden hat.
 
  • Gefällt mir
Reaktionen: adAstra, Matthias80, CrustiCroc und 3 andere
Zurück
Oben