Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

So ziemlich das was ich erwartet hatte.

Das allerdings die Leistungsaufnahme zur TI steigt ist schon bitter.
Bin mal gespannt was das High End Model so Leistet und was es alles für Kühlblöcke gibt.


Das Ergebnis der RAM Temperaturen war sowas von offensichtlich und erwartbar für JEDEN der sich einmal 5 Minuten praktisch mit sowas beschäftigt hat.
Das der RAM wenn überhaupt vom Kühldesign profitiert war doch klar.
 
Ceberus schrieb:
@Wolfgang wieso 0.2 percentile, früher habt ihr es doch immer auf 0.1 percentile gemacht? Oder irre ich mich.

Lg
Hatte Wolfgang mal erklärt, dass 0.1 deutlich schwieriger ist reproduzierbar zu benchen.
 
bad_sign schrieb:
Also Igors Video schockt mir noch mehr. Die Karte zieht eigentlich 375-450W, wird dann periodisch auf 75W gedrosselt um die "320W" zu halten.
Das sind Stromspitzen, die Netzteile/Mainboards sind auf so etwas ausgelegt, dafür sind die Kondensatoren da. Deshalb sollte man aber auch nach einer gewissen Zeit die Netzteile austauschen, je nach persönlicher Nutzungsart früher oder später etc, denn je älter sie werden desto eher droht Materialversagen.

Das ist mit der Grund warum man lieber ein Marken Netzteil mit 650W nehmen sollte, statt nem vermeintlich billigen Chinaböller mit 1000W, weil letzterer erstens nicht die 1000W liefern wird und zweitens sicher schlechter mit Stromspitzen umgehen wird.
 
  • Gefällt mir
Reaktionen: McFritte, Bigfoot29 und xexex
Nahrungsmittel schrieb:
Ich schrieb: Wenn man sich Mal die WQHD Ergebnisse anschaut ist der Vorsprung gegenüber der rtx 2080 TI ernüchternd.

Und wenn du dir 720p Ergebnisse mit der Karte ansieht, schrumpft der Vorsprung womöglich auf 5%.
Die geringeren Boosts der Full HD und WQHD Auflösungen sind nicht der Karte vorzuwerfen, sondern dem übertrieben gesagt sacklahmen 3900XT. Ein ordentlich konfigurierter, übertakteter 10900K wäre da schlicht 25% schneller gewesen, aber vor allem die AMD Sympathisanten wollten ja nicht hören.

Weils so schön ist mal ein paar Impressionen:

GUN2504 schrieb:
Der 3900XT ist doch ideal. In Games sehr gut, in Anwendungen Spitze!

Was nützten mir denn hier Intel Hochleistungsfrequenzkerne die nach 56 Sekunden bei Last massiv runterdrosseln?

- Faxe - schrieb:
Der gesamte Testaufbau ist näher an der Realität als ein Intel-Highend Setup. Und ComputerBase damit näher am Endverbraucher. Absolut NICHT für die Tonne.

Wolfgang schrieb:
Naja, in niedrigen Auflösungen sicherlich die CPU, andersherum ist das Interesse von Full HD beim Test einer RTX 3080 sicher gering.

Der Beitrag ist nicht gut gealtert @Wolfgang .^^
 
Der Stromverbrauch und die Lautstärke tangieren mich schon. Ich habe 'nur' ein BQ Dark Power Pro 11 550W. Das Testsystem von Digital Foundries Hardware Unboxed hat allerdings beim Benchen 525W verbraucht, sollte also hinhauen und der Kühler scheint ja auch in Ordnung zu sein.

Dennoch ist das Erste was ich machen werde, die Karte zu undervolten. Bin schon mal gespannt, was da gehen wird.
 
Zuletzt bearbeitet:
bad_sign schrieb:
Das geschwätz von euch verstehe ich hier in dem Zusammenhang auch nicht.
In FHD limitiert jede CPU, also generell nichts würdig.
Nur UHD kann die Dinger zuverlässig auslasten, aber man sieht ja schon in UHD, die Abstände sind immer gleich, über alle Seiten, die ich gesehen habe.
Du kannst das UHD Ergebnis aber nicht 1:1 auf niedrigere Auflösungen übertragen, darum sollte man auch in 1440p ein CPU Limit vermeiden, damit man eben nicht nur UHD als brauchbaren Vergleich hat.
 
  • Gefällt mir
Reaktionen: KlaraElfer, Maggolos, .Sentinel. und eine weitere Person
Player(1) schrieb:
Fuer mehr Vram sprechen alleine die kommenden Konsolen und die dazugehoerigen Games. Hoehere Texturstufen sind quasi Eyecandy, welcher for free ist.
Nach deiner "Logik" (ist eigentlich das falsche Wort) sind dann wohl 1080tis jetzt unbenutzbar. Und meine olle R9 390 erst. Die hat nicht einmal Leistung, spendiert mir aber noch Ansehnliches in mittelpraecthige zweistellige FPS mit hohen Einstellung in TIteln ala Doom Eternal...

Das Problem bei VRAM ist, wenn es daran mangelt, dann kriegt man den fetten Einbruch. Ergo erhoeht das die Langlebigkeit. Auch frage ich mich, wie Du so eine Aussage raushauen kannst, ohne auch nur ansatzweise mein Anwedungsprofil zu kennen. Vll zocke ich Skyrim mit droelf 16k texture mods?
BTW: Meinen witzig geminte Anspielung mit den zusaetlichen 1GB und "doppelt" hast Du wohl leider auch nicht verstanden. Aber Logik ist dein Ding? hmkay

Bitte haue nicht so komische oberflaechliche Antworten an mich raus, denn sowas wirkt ziemlich schnell ziemlich dreist. Und ich mag derlei Dreistigkeiten nicht. Vll versteht Du dann auch meine Wortwahl.
War nicht, nie persönlich gemeint.
War ja unterm Strich, eine Fachliche "Meinung" weil logisch... sorry.

Konsolen hatte ich schon mal als Thema.
Die 10GB kommen vielleicht gar nicht von ungefähr... Thema: 10GB schnellen Speicher. 8GB langsameren... wenn du die Specs noch weißt...
Allgemein plant ja Nvidia viel gegen "zu wenig" VRAM zu unternehmen...

An der Aussage wenn dir Leistung fehlt... nützt dir der mehr VRAM nix. Ist ja nix falsch.
Das die Karte mit dem 1GB weniger mehr FPS liefert auch ned...

Sei es drum...

Anwendungsprofil. Ja wie auch schon gesagt. Sehr speziell dann von dir. Respekt. Aber weit entfernt von der allgemeinen Nutzerbasis.

Wie gesagt war nicht persönlich, böse oder so...

MfG
 
  • Gefällt mir
Reaktionen: monitorhero und Player(1)
Komisch... die 3080 hat doppelt soviele Shadereinheiten (8704) wie die 2080Ti (4352), und trotzdem nur 30% besser? Da stimmt doch was nicht.

Vor nicht allzulanger Zeit konnte man die Leistungssteigerung noch grob schätzen, weil sie proportional mit der Anzahl Shadereinheiten stieg. Nvidia hat dabei schon mit 30% mehr Shadereinheiten bis zu 50% mehr Leistung rausgeholt o.ä. Und jetzt holen sie mit 100% mehr Shadereinheiten nur 30% mehr Leistung raus? Häh? Das wirkt total ineffizient.

Hat sich da fundamental was in der Hardware geändert??
 
Vendetta schrieb:
warum liegt dann die 2080 Super mit ihren 8GB durchweg bei 125% der 5700XT während die 1080Ti mit ihren 11GB durchweg bei rund 105% einer 5700XT liegt?
Ähnliche Grafikleistung bei anderem Speichermanagement das heute auch nicht mehr im Zentrum der Treiberentwicklung steht?
Stell dir lieber mal die Frage warum die VII im Vergleich zur Vega64 trotz fast gleicher Architektur so viel zulegt.
 
Was meint ihr, 650 Watt (hier als Beispiel Seasonic Prime 650W) mit Ryzen7 2700+ sollte das Netzteil reichen?! oder ist man hier mit 750 erst auf der sicheren Seite?
 
Vendetta schrieb:
Das sind Stromspitzen, die Netzteile/Mainboards sind auf so etwas ausgelegt, dafür sind die Kondensatoren da. Deshalb sollte man aber auch nach einer gewissen Zeit die Netzteile austauschen, je nach persönlicher Nutzungsart früher oder später etc, denn je älter sie werden desto eher droht Materialversagen.

Das ist mit der Grund warum man lieber ein Marken Netzteil mit 650W nehmen sollte, statt nem vermeintlich billigen Chinaböller mit 1000W, weil letzterer erstens nicht die 1000W liefern wird und zweitens sicher schlechter mit Stromspitzen umgehen wird.
"Stromspitzen" sind kurz, die 3080 ist doch sehr "konstant" bei diesen Stromspitzen.
Der Verbrauch ist ein riesen Fail von Nvidia.
270W bei 95% der Leistung, ist Nvidia das neue AMD?
 
Nicht böse oder als Hetze gemeint... es ist spannend zu sehen, dass nV hier dermaßen die Brechstange ansetzt, um die Leistung rauf und den Preis vergleichsweise runter zu bekommen. Wissen die was über die AMD-Grafikkarten, was wir nicht wissen? o.0

Regards, Bigfoot29
 
  • Gefällt mir
Reaktionen: GUN2504
Kenjiii schrieb:
Du wirfst auch noch mit mit Adjektiven um dich, ohne deren Bedeutung wirklich zu kennen, aber verhältst sich im gleichen Zug auch noch genauso. Dazu gehört schon wirklich ein hohes Level and Selbstironie.
Und was ist bitte ein Landungsklatscher?

Abgesehen davon, sind die "Auflösungen von heute" eben absolut nicht relevant, wenn es eben ausgerechnet um so eine Highend-Grafikkarte geht, die fast ausschließlich nur dazu dient, mind. in 1440p, aber eher in 4k zu spielen. Also sorry, aber deine Logik ist nicht ganz so bahnbrechend, wie du denkst.

Auflösungen von Heute sind nicht relevant, netter Witz. Ich denke du kaufst PC Hardware für die Zukunft, richtig?
High-End, Futureproof, 4K, mit 10GB Speicher. Man sieht: Marketing wirkt.

Und Landungsklatscher sind Leute welche überflüssig begeisterung zeigen wenn jemand ein mindestniveau an Leistung zeigt. Und genau das hat nVidia hier gebracht: die Preise gesenkt und 15% Leistungssteigerung mit neuer Architektur gebracht. Das ist kein Pascal-Hut-Ab Szenario.
 
  • Gefällt mir
Reaktionen: monitorhero
Was die meisten auch nicht beachten ist das die 3080 der Nachfolger der 2080 ist und nicht der Ti aber ich bin jetzt raus.

Auf Thomshardware “Igor„ wird sich erinnern gab es mal so einen schönen Bericht über den Athlon XP den die AMD jünger gefeiert haben ohne Ende leider wurde er vom Start weg sehr schlecht verkauft was AMD ganz schön nerven gekostet hat aber das ist eine andere Geschichte und für die meisten hier viel zu alt aber es wiederholt sich immer wieder freue mich auf Big Navi hoffentlich kauft ihr sie dann auch.
 
Taxxor schrieb:
Du kannst das UHD Ergebnis aber nicht 1:1 auf niedrigere Auflösungen übertragen, darum sollte man auch in 1440p ein CPU Limit vermeiden, damit man eben nicht nur UHD als brauchbaren Vergleich hat.
Wenn kein Speicher limitiert, dann passt das schon.
 
Also ich finde die Karte ist O.K. mehr aber auch nicht.
Die angepriesenen 50% von Nvidia gegenüber der 2080 TI sind nicht vorhanden.
Klar in der Relation Preis zu Performance gegenüber der vorgänger Generation ist die 30iger Serie ein nobrainer, da wird keiner mehr zur 20iger greifen es sei denn gebraucht.
Alles in allem bin ich persönlich enttäuscht aber im großen und ganzen ist die Karte für den Massenmarkt gut.
Um das nochmal klarzustellen ich gönn jedem der sich die Karte geholt hat aber es ist einfach nicht das was Nvidia beworben hat.
 
  • Gefällt mir
Reaktionen: monitorhero
Hauwexis schrieb:
Der Test ist mal wieder sehr gut. Die Preise der neuen Grafikkarten hingegen nicht. 699€. Dafür bekommt man schon einen Gaming Rechner für die meisten Spiele. Die Preise finde ich nach wie vor ungerechtfertigt.
Der Preis für einen 80k€ BMW/Audi/Daimler ist ungerechtfertigt, weil man schließlich für den gleichen Preis auch gleich 2 Pferde, ne Kutsche plus zugehöriger Scheune haben kann? Interessante Logik.


@Wolfgang
Vielen Dank für diesen unglaublichen Aufwand und den sehr guten Test. Nahezu alle offenen Fragen wurden beantwortet, hervorragende Arbeit!

Einen kann ich mir aber dann doch nicht verkneifen, diese Erkenntnis aus dem Test ist einfach zu genial:
Meistens liegen die Ergebnisse irgendwo in der Mitte zwischen beiden Extremen.

Nur Spaß :D
 
  • Gefällt mir
Reaktionen: McFritte und Scholle1309
Stromverbrauch ist hoch kein frage aber die Leistung stimmt. Das ist halt der Unterschied zwischen AMD und NV, vergleicht mal kurz die GTX1080 und die um fast zwei jahre später erschienene rx64.

Screenshot_2020-09-16 Nvidia GeForce RTX 3080 FE im Test Lautstärke, Temperatur, Leistungsaufn...png



Screenshot_2020-09-16 Nvidia GeForce RTX 3080 FE im Test Benchmarks in Full HD, WQHD und Ultra...png



Wie CB geschrieben hat ! RTX3080 hat ein extrem starkes "Performance Pro Watt" Verhältnis.

Auf der liste ganz oben, 100%
 
  • Gefällt mir
Reaktionen: tomasvittek und McFritte
Zurück
Oben