Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

NewVictor schrieb:
Ich wundere mich, warum im Test 4K nicht getestet wird.

UHD hat mehr als doppelt so viele Bildpunkte als WQHD. Das wirkt sich spürbar auf die Leistung aus. Von UHD auf "echtes" 4K sind es nur knapp 7% mehr Bildpunkte. Da lohnt sich keine zusätzliche Testreihe, weil der Unterschied einfach zu gering ist.
 
Supermax2004 schrieb:
Definitiv nicht. Außer du bist einer, bei dem die 10% grob spürbar sind, nicht schlecht. Bei mir sind eher so ab 40-50% spürbar. 30% sind auch halbwegs ok, wenns nicht zu teuer ist (3090....:D)

Ich verstehe, Du bist also auch von einer 3080 auf eine 3090 umgestiegen? =) Dann haben wir vielleicht eine andere Wahrnehmung.
 
t3chn0 schrieb:
Ich verstehe, Du bist also auch von einer 3080 auf eine 3090 umgestiegen? =) Dann haben wir vielleicht eine andere Wahrnehmung.
Das ist genau der Punkt: Wahrnehmung im Preis- und Performancebreich. Deshalb gibts ja die 3090, es funktioniert, bei manchen. Für sich genommen eine top Karte, im Vergleich ein Desaster. Eine 3095 mit 5% Mehrleistung und natürlich 48gb Vram für 5000 würde auch funktionieren, oder? Ich denke ja!
 
@Supermax2004

Und warum bist Du dann von einer 3080 auf eine 3090 umgestiegen?
 
Denke vor 2021 wird das realistisch nichts werden.

Mich würde mal interessieren an was es liegt? Samsung oder ein anderer Zulieferer der die Bauteile nicht liefern kann?
 
  • Gefällt mir
Reaktionen: Bright0001
NewVictor schrieb:
Regler bedienen ? Was für Regler ?

ingame-grafikeinstellungs-regler ;)
nur als beispiel, ich hab von 2002-2005 mit einer geforce 4 ti 4200 so manches spiel auf 1600x1200 (CRT monitor) gespielt, das ist rein von der pixelanzahl knapp unter full hd, während andere mit 1024x768 rumgekrebst sind. das war natürlich je nach spiel nicht besonders performant, aber es ging. und es würde niemand auch nur im ansatz auf die idee kommen, irgendetwas von damals als "full hd grafikkarte" zu bezeichnen^^

die auflösung von 4096x2160 ist im monitorbereich nicht besonders weit verbreitet, der "4K standard" ist nunmal das 16:9 format mit 3840x2160. geizhals listet 4 stück im vergleich zu 191 bei UHD. deshalb wird diese auflösung getestet. für deine grafikkarte sind die paar pixel unterschied mehr nur ein bisschen mehr rechenaufwand, die auflösung selbst ist also kein problem. wenn deine bevorzugten spiele in UHD also gut laufen, zieh ein paar % ab und du kennst die ergebnisse für das echte 4K. spielst du auf beiden monitoren, teil durch 2.
 
CB_User schrieb:
welche Karte würdet ihr bevorzugen, die NVIDIA Founders Edition 3080 oder die ASUS Geforce RTX 3080 TUF Gaming (ohne OC)
Die, die zur 699 UVP erhältlich ist ;)
(Also keine :lol:)
Ergänzung ()

SavageSkull schrieb:
Hat jemand Infos wann die FE wieder lieferbar sind?
Ich würde ja gerne Geld ausgeben, aber Nvidia will mich anscheinend nicht bedienen.
Nvidia wird dich über Händler, die 899 für die FE verlangen bald beliefern können:)
 
Vendetta schrieb:
Nvidia wird dich über Händler, die 899 für die FE verlangen bald beliefern können:)
899€ mit 20GB würde ich zugreifen... Für 10GB sind die 699€ auch meine Schmerzgrenze, denn ich sehe die Speichermenge schon als kritisch an.
 
Für 899 wirst du keine 20GB RTX3080 bekommen(zumindest nicht 2020), vielleicht für 999, da stellt sich dann langsam die Frage ob sich das lohnt für ein paar Games wo man den Texturregler von Ultra auf very high schieben könnte...
 
  • Gefällt mir
Reaktionen: PHuV und Domyyy
Vendetta schrieb:
da stellt sich dann langsam die Frage ob sich das lohnt für ein paar Games wo man den Texturregler von Ultra auf very high schieben könnte...

Das. Am Ende sind 10GB VRAM auch nichts anderes als Texturregler von Ultra auf High zu senken. Das wäre persönlich eher mein Weg, als mehrere Hundert Euro für 10 weitere GB VRAM zu zahlen.
 
  • Gefällt mir
Reaktionen: iron-man, Bright0001 und Domyyy
wie panisch die Leute auf ebay versuchen, ganz schnell noch einen dummen zu finden, dem sie ihre 20.. noch fast zum Neupreis andrehen können^^
 
  • Gefällt mir
Reaktionen: Cpt.Willard
t3chn0 schrieb:
@Supermax2004

Und warum bist Du dann von einer 3080 auf eine 3090 umgestiegen?

Muss man nichtmal. Man braucht sich nur fps und Frametimes in Benchmarks angucken. Sind die FPS und Frametimes 5-10% besser ist es dann einfach ein Fakt das eine 3090 definitiv nicht spürbar schneller als eine 3080 ist.

Messbare Ergebnisse sind halt deutlich aussagekräftiger (ein Fakt halt) als die eigene Wahrnehmung. Die btw auch hier und da mal so gut funktioniert weil man immer noch im Kopf hat: Die GPU war doppelt so teuer, die muss einfach viel geiler sein :)

Wenn der VRam ausgeht wird man sogar einen spürbaren Unterschied merken. Ansonsten: Nein. Von z. B. 60 auf 65 FPS ist das nicht spürbar mehr...
 
Gibts von NVIDIA eigentlich schon Infos zum Nachfolger von Ampere? Scheint ja wohl unter Hopper zu laufen, angeblich hat sich NVIDIA ja auch schon Fertigungskapazitäten bei TSMC für 5nm gesichert, wohl schon für nächstes Jahr. Müssen wir diesmal also nicht zwei Jahre warten sondern der Nachfolger von Ampere erscheint schon Ende nächstes Jahr?
 
also alle die über 8k labern, sollen sich doch mal nach alpha centauri bewegen. da gibt es bestimmt lebewesen die das "auge" anders definieren. und wer kauft sich solch einen fernseher, wenn es keinen content gibt. ard und zdf sind nicht mal bei full hd (1080p).
 
hahaqp schrieb:
Gibts von NVIDIA eigentlich schon Infos zum Nachfolger von Ampere? Scheint ja wohl unter Hopper zu laufen, angeblich hat sich NVIDIA ja auch schon Fertigungskapazitäten bei TSMC für 5nm gesichert, wohl schon für nächstes Jahr. Müssen wir diesmal also nicht zwei Jahre warten sondern der Nachfolger von Ampere erscheint schon Ende nächstes Jahr?

Das glaube ich kaum, 2021 kommt höchstwahrscheinlich, je nachdem wie amd letzendlich abliefert, ein Ampere ("Super") Refresh in TSMC 7nm, Hopper dann sicher erst 2022
 
Außer für 4K Ultra ist mehr VRam nur totes Kapital und bis man mehr braucht ist die Leistung der RTX3080
sowieso schon wieder zu schwach für 4K Ultra und wir sind bereits eine oder zwei Generationen weiter. :baby_alt:
 
  • Gefällt mir
Reaktionen: Tobi& und pitu
Vor vielen Jahren hat 2GB Ram für FULL HD gereicht. Mittlerweile braucht man bis zu 6 GB für FULL HD.
Ist doch quatsch, zu sagen, dass in der Vergangenheit nur die höhere Auflösung dazu geführt hat, dass man mehr Vram benötigte.
Genauso kann es dann doch auch so kommen, dass in Zukunft die Grafik an sich noch viel besser und Detailierter und die Texturen noch hochauflösender werden, dass auch in FULL HD/WQHD noch mehr VRam benötigt wird.
 
Zurück
Oben