Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

demoness schrieb:
Für 4K 60Hz Monitore passt die natürlich auch super, aber ganz ehrlich wer kauft sich so ein Setup um dann in 60Hz herum zu krüppeln.
Für 4K 144Hz brauchts dann halt wieder ne 3090.
Insofern seh ich den 4K usecase nicht

Für 4k/120 oder 4k/144 müssten wir noch bis zur nächsten Generation warten. Sprich RTX40xx und RX7xxx.
Also nochmal mind. 2 Jahre warten.. yuck. :freak:
 
  • Gefällt mir
Reaktionen: Mike_MTL und demoness
KlaraElfer schrieb:
Praktisch alle 8GB Modelle sind leistungstechnisch weit von 2080Ti und noch weiter von 3080 entfernt, logischerweise, wenn man das CPU Limit rausnimmt, werden sie in Relation langsamer.
Was für die prozentualen Abstände irrelevant wäre da sich an der Rechenleistung an sich nichts ändert.
Allein das sich die 3080 in UHD prozentual stärker von der 2080Ti absetzt zeigt das du hier ein Märchen von einem CPU Limit erzählst.

Der einzige Bereich wo es recht deutlich erkennbar ist (prozentualer Einbruch des Vorsprungs im Vergleich zum restlichen Feld) ist in FullHD ab der 2080Ti denn darunter bleiben die Abstände über alle Auflösungen hinweg nahezu konstant und das eine Vega64 bei halbwegs aktuellen Spielen in UHD nicht selten in den VRAM Überlauf rennt kenne ich aus Erfahrung nur allso gut, daher ja auch der damalige Ausflug zur VII die hier deutlich gleichmäßiger lief.
 
Nvidia könnte der GPU locker 16GB spendieren und was würde AMD dann machen ?!
Huang hat mal gesagt das Konkurrenz wichtig ist, deswegen "lediglich" 10GB !

Das war schon bei der RTX2080 so !
VII dann "etwas" später und langsamer mit 16Gb !

Ich denke jeder mit einem gesunden Menschenverstand kann sich denken was wäre, wenn RTX2080 16GB spendiert bekäme und RTX2080 ebenfalls.

Bye, bye AMD.

Nein, dass will AMD nicht und NVIDIA genauso wenig !

Naive Fanboys werden das aber sicherlich nicht verstehen, viel zu hoch.
 
demoness schrieb:
Die Aussage, dass die 3080er in erster Linie eine ultra HD Karte sei kann ich nur bedingt nachvollziehen.
Zumindest bei den Spielen in eurem Test Parkour sieht man doch, dass selbst mit diesem Leistungsplus weder durchschnittliche +150fps (geschweige denn bei 0,2%) die Regel sind. Insofern seh ich die 3080 als dringend benötigtes Upgrade um den passenden QHD 144Hz Monitor mit genügend Leistung zu befeuern.

Für 4K 60Hz Monitore passt die natürlich auch super, aber ganz ehrlich wer kauft sich so ein Setup um dann in 60Hz herum zu krüppeln.
Für 4K 144Hz brauchts dann halt wieder ne 3090.
Insofern seh ich den 4K usecase nicht
Also ich habe wochen nach nem 32 4k 144hz monitor gesucht, es gab keinen... daher muss ich mich in 4k halt mit 60hz zufrieden geben und alles unter 32 zoll ist keine steigerung bei nem 24zoll monitor, viel zu mickrig alles......
 
Cool Master schrieb:
Und? Juckt mich nicht. Ich kann es mir leisten ein Hobby zu betreiben.
Kann ich auch aber darum geht es nicht : Die Abwärme muss man erstmal aus dem Gehäuse bekommen und in einigen Tests sieht man dass unter Vollast die CPU 10 Grad wärmer wird als eine CPU mit 2080TI !
 
aldaric schrieb:
Nö, eure Diskussion nervt nur schon seit letzter Woche. Und wird daher wohl eher von vielen einfach ignoriert. Wie man in anderen Tests sieht, limitiert ja auch der 10900k die GPU ordentlich.

Welche wären das?
Bei HWLuxx wird er ia mit der Handbremse benutzt.
Ungeeignet für ein GPU Rig, ja.
 
  • Gefällt mir
Reaktionen: KlaraElfer, .Sentinel. und SPECIALIZED-
zeedy schrieb:
Ich finde das Fazit fällt zu positiv aus. Wäre da nicht der vergleichsweise günstige Preis, wäre es vermutlich anders ausgefallen.

Dass die neue Grafikkarte trotz neuer Architektur und Fertigung nur 10% effizienter ist als der Vorgänger, ist ein Armutszeugnis für Nvidia. Dass die extrem hohe Leistungsaufnahme nicht wirklich kritisiert wird, verstehe ich nicht. Bei einer neuen Generation erwarte ich zumindest 30% Mehrleistung bei gleicher Leistungsaufnahme. Hier gibt es dieses Leistungplus bei 18% höher Leistungsaufnahme. Übertaktet man die 2080TI, sieht es noch schlechter für die 3080 aus.

Die Technik ist echt enttäuschend. Einzig der Preis rettet die Karte noch.
Der Samsung 8nm Prozess ist halt am Ende des Tages nur ein verfeinerter 10nm Prozess, auf TSMC 7nm würde die 3080 wahrscheinlich gleich viel schlucken wie ne 2080Ti, vielleicht sogar weniger. Was noch hinzu kommt ist der GDDR6X Speicher der extrem stromhungrig zu sein scheint.
 
Smartin schrieb:
Wenns so ist, wie Du sagst, wird die Karte ohnehin kein Thema sein, denn warum brauchst Du dann so eine Karte?

Nochmal! Die Behauptung war die Leute würden sich kleine Netzteile nur deshalb kaufen, weil sie billiger sind wie große. Das stimmt aber eben nur bedingt, man kauft kleinere Netzteile weil ein dickes Netzteil was kaum gefordert wird, schlichtweg viel Strom verschwendet und viel kostet.
 
  • Gefällt mir
Reaktionen: Kalsarikännit, Bright0001 und Bigfoot29
Danke für den tollen Test, vor allem die Betrachtung mit 270W fand ich sehr gut. Ich würde bei meiner definitv das Powertarget senken und auf die 4% pfeifen.
 
  • Gefällt mir
Reaktionen: milliardo
naicorion schrieb:
Das weiss keiner. Bis heute sind sie nicht einmal an einer 2080 dran...
Nur mal meine 2cts. warum AMD nicht an einer 2080 dran ist ...
Bei dieser Leistungskategorie, und vor allem Preiskategorie, hätte man noch RTX haben müssen, denn das "konnten" die Oberklassemodelle der Nvidiaseite, AMD ... nicht, da kann man dann keine 600€+ verlangen, jeder hätte die ausgelacht mit dieser Erwartungshaltung - die VII hatte eher nen produktiven Nutzen, als Gamer fand ich die gar nicht so interessant und die 16GB HBM unterstrichen diesen produktiven Nutzen...zudem war das Resteverwertung der ProKarten.

Damals war der Output bei 7nm noch nicht so der Hammer, kostspieliger und wie hoch dann der Ausschuss wäre bei großer DIE-Size - aua, das wäre immens teuer gewesen.

Dran von der Geschwindigkeit, wäre man mit einem größeren Chip aber mit Sicherheit - es hätte sich nur nicht gerechnet und man sah ja, dass Vega quasi nix wirtschaftlich einbrachte - vermutlich war das in Anbetracht aller oben aufgeführten Dinge - die wirtschaftlichere Wahl, auch wenn mich das sehr traurig macht.
 
  • Gefällt mir
Reaktionen: Bigfoot29
Avarios schrieb:
Kann ich auch aber darum geht es nicht : Die Abwärme muss man erstmal aus dem Gehäuse bekommen und in einigen Tests sieht man dass unter Vollast die CPU 10 Grad wärmer wird als eine CPU mit 2080TI !

Bei mir kommt ein Wasserblock drauf... Juckt mich daher auch nicht.
 
  • Gefällt mir
Reaktionen: Tronx
Immer dieses Gemecker hier...
Leute, wenn Ihr zuwenig Kohle für die RTX 3080 hat, dann lass es doch und such nicht irgendwelche unlogische Gründe, um blos meckern zu können!

Wenn sich jemand ein RTX 3080 leisten kann, dann ist es doch nicht zuviel verlangt eine anständige Netzteil zu kaufen?

Logisch ist die Grafikkarte für 320W ausgelegt, dementsprechend sind die Leistung dafür auch ziemlich hoch und gerechtfertigt.

Die Leistung / Watt ist gestiegen! Da die Grafikkarte soviel schneller wurde (65% gegenüber eine direkte Vorgänger RTX 2080 [Ohne Super]), stieg dementsprechend auch dessen verbrauch. Wenn jemand WIRKLICH soviel Wert auf einen tiefen verbrauch legt, dann wartet doch auf die RTX 3070! Die bietet sicher super Leistung bei Moderaten verbrauch.

Ich kaufe doch auch kein BMW M5 mit 600/625PS V8 Bi-Turbo und erwarte dass der verbrauch bei 6l/100km liegen soll!?
 
  • Gefällt mir
Reaktionen: Ctrl, tomasvittek, Mike_MTL und 3 andere
aldaric schrieb:
Nö, eure Diskussion nervt nur schon seit letzter Woche. Und wird daher wohl eher von vielen einfach ignoriert. Wie man in anderen Tests sieht, limitiert ja auch der 10900k die GPU ordentlich.

So ordentlich das es bei Anno 20 FPS mehr sind... :daumen:
 
  • Gefällt mir
Reaktionen: Tschitta, iceshield, KlaraElfer und eine weitere Person
Cool Master schrieb:
Bei mir kommt ein Wasserblock drauf... Juckt mich daher auch nicht.
Bei mir auch , dennoch 1x120 Fläche nötig und nicht viele haben ne WaKü, deswegen den deutlichen mehrverbrauch kleinreden braucht keiner
 
Ceberus schrieb:
@Wolfgang wieso 0.2 percentile, früher habt ihr es doch immer auf 0.1 percentile gemacht? Oder irre ich mich.
0.2 ist schon seit einigen Jahren hier Standard, da 0.1 doch etwas zu anfällig war, 1 hingegen wieder zu verzeihend und wird nur im CPU Test benutzt
 
Esenel schrieb:
Welche wären das?
Bei HWLuxx wird er ia mit der Handbremse benutzt.
Ungeeignet für ein GPU Rig, ja.
Das geschwätz von euch verstehe ich hier in dem Zusammenhang auch nicht.
In FHD limitiert jede CPU, also generell nichts würdig.
Nur UHD kann die Dinger zuverlässig auslasten, aber man sieht ja schon in WQHD, die Abstände sind immer gleich, über alle Seiten, die ich gesehen habe.
3080 = 2080TI + 35%
Ist doch einfach, ganz ohne gezehter^^
 
  • Gefällt mir
Reaktionen: Project-X
@ Wolfgang: Welche Spannungen liegen unter Last an? Wenn die Karte schon nicht viel an Übertaktung frisst, fürchte ich, dass die 2010/1995MHz mit 1V nicht schafft. Angenommen, die geht unter Last auf Werkseinstellung auch so auf ca. 1,043-1,05V wie bei Turing. Bei meiner 2080S spart genau das 2°C und 10% TDP. Da könnte bei der Ampere dann noch etwas mehr Ersparnis.

Was ich außerdem noch gerne wissen würde, wo hat Nvidia eigentlich die Throttle-Temperatur gesetzt? Auch bei 90°C, wo man das Temperaturtarget hinsetzen kann? Turing macht ja 88°C dicht und wenn man die Lüfter mit AB künstlich kastriert, wird dem Lüfterkastrat nicht widersetzt, sondern die Karte taktet einfach soweit runter, damit die bei 88°C bleibt. Sie schaltet auch nicht ab.

Theoretisch sollte mein 550W-Netzteil eine 3080 auch fressen. Ich hatte bei meiner 2080 (defekt) und 2080S auch schon das volle Powertarget testweise benutzt und da hat sich das Netzteil keinen Strick bei den 300W-Regionen und mehr genommen. Aber vielleicht kann ich das in 12 Minuten auch knicken, weil ich mir das Video von Igor erstmal reinziehe.
 
Zurück
Oben