Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestGeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen
Hatten wir doch schon das Thema...
Ein Test mit einer CPU die nur eine Handvoll User überhaupt so besitzt. Ist einfach realitätsfern.
Kann man höchstens als Machbarkeitsstudie mal bringen.
Wie gesagt, dann sollte man es nicht GPU Test nennen denn die GPU testet man damit nicht, sondern ein System mit einer CPU die noch 4-5 schnellere Modelle über sich hätte, in Zusammenhang mit der GPU.
Also sind auch CPU Tests mit einer übertakteten 2080Ti realitätsfern? Die besitzen auch nur eine handvoll User.
Keine Sorge Vendetta. Wir wissen in vielen Bereichen nicht, was die neue Grafikkarte leistet, weil vorher die verfügbaren CPUs mal mehr (3900x) mal weniger (10900K) limitieren.
Deswegen kann man derzeit nicht sagen, was die Grafikkarte z.B. mit einer stärkeren CPU zu leisten imstande wäre.
Ein großes Problem und ein schönes Beispiel für den Informationsmangel, den man erzeugt, wenn man GPU Tests im CPU- Limit durchführt.
Jetzt meinen hier alle, dass die Grafikkarte nicht mehr unter 1440P und 1080P leisten könnte.
Die Spiele wo das "wichtig" sein könnte...
Wenn wir hier mit einem Pro Spieler schreiben sollten... Weiß ned?!
Die wurden nicht getestet.
Bin mir sicher, CSGO ect. würden auch einen 240Hz Monitor sehr gut bedienen können.
Also was meinst du genau?
Bereinigt sehe ich das allerdings nicht so leicht.
2080FE mit 240Watt gegen 3080 mit 320Watt, 60% Mehrleistung bei 30% Mehrverbrauch.
Vereinfacht bereinigt würde ich 30% Mehrleistung bei gleicher Leistungsaufnahme bekommen.
Was bei einen Preis (ich rede von meiner 2080) 550€ vs 699€ einfach lächerlich ist.
Ja die Karte ist schnell, aber für 3 Jahre zwischen den Karten ist das einfach ein Witz.
Amd wird jetzt mit mehr Vram kommen, den eine Preisschlacht wie früher wollen "lediglich" die Käufer aber garantiert nicht AMD und NV ! ... da kann man nur verlieren.
Das ist schon alles sehr gut durchdacht.
RTX2080 - 10GB Vram
RDNA2 (Big Navi ) - mindestens 12GB Vram und um ca. 5-10% langsamer.
...und zu guter letzt RTX3080 mit 12GB oder mehr.
Ich würde es auch nicht anders machen. Jede von den drei GPU´s findet so ihre Käufer.
Eine RTX3070 oder RTX3080 direkt mit 16Gb würde zum Monopol führen und das wolen wie bereits erwähnt, weder AMD noch NV.
Glaub nicht dass das sein Punkt ist, aber jetzt in eine Karte zu investieren die "nur" 10GB hat und man, wenn man so wie ich ist, 3 Jahre nutzt wie eine 1080ti nicht mehr zeitgemäß bis da hin...
Bin auf die 3090 test und die custom modelle gespannt
Ich denke eher, dass die Technik sich so entwickelt, dass bessere Komprimierung für Texturen verwendet wird und somit Grafikspeicher reduziert wird. Wie bereits gesagt, man will seine Spiele ja auch an Leute verkaufen die nicht die absolute Highend Hardware haben. Und das ist ein viel größerer Markt als die paar Enthusiasten, wie wir es sind.
Komisch... die 3080 hat doppelt soviele Shadereinheiten (8704) wie die 2080Ti (4352), und trotzdem nur 30% besser? Da stimmt doch was nicht.
Vor nicht allzulanger Zeit konnte man die Leistungssteigerung noch grob schätzen, weil sie proportional mit der Anzahl Shadereinheiten stieg. Nvidia hat dabei schon mit 30% mehr Shadereinheiten bis zu 50% mehr Leistung rausgeholt o.ä. Und jetzt holen sie mit 100% mehr Shadereinheiten nur 30% mehr Leistung raus? Häh? Das wirkt total ineffizient.
Hat sich da fundamental was in der Hardware geändert??
Um mir selber die Antwort zu liefern nach einiger Recherche:
Es gibt noch die INT32 ALUs (die fehlen in der Angabe der technischen Spezifikationen. Dort sind nur die FP32 ALUs aufgelistet). Und da hat die 3080 genausoviel wie 2080Ti, und zwar 4.352 Einheiten. Wahrscheinlich ist das die Anzahl, die man zuvor als Shader-Einheiten betrachtet hat. Und da hat sich nix geändert.
Die gigantische Erhöhung der FP32 ALUs scheint hingegen nicht den großen Leistungssprung gebracht zu haben. Naja, vielleicht helfen diese ja dem Raytracing...
So ergeben die Werte aber dann doch wieder Sinn. Man hat quasi immer noch dieselbe Anzahl Shader-Einheiten wie bei der 2080Ti, nur eben wieder ein bisschen effizienter gemacht (erinnert mich an den Sprung von der 960m zur 1050m, wo bei derselben Anzahl Shadereinheiten auch 30% mehr Leistung rausgeholt wurde).
Na, aber, wenn er ordentlich übertaktet und mit gescheitem RAM kombiniert wäre, würde hier selbst in UHD noch die CPU mehr reinschlagen als PCIE 4.0 und dann eben im CPU Limit um 25% schneller sein.
Die Wahl der Plattform ist somit zumindest für den Test der 3080 und 3090 (bei letzterer noch mehr) absolut falsch gewesen.
Keine Sorge Vendetta. Wir wissen in vielen Bereichen nicht, was die neue Grafikkarte leistet, weil vorher die verfügbaren CPUs mal mehr (3900x) mal weniger (10900K) limitieren.
Deswegen kann man derzeit nicht sagen, was die Grafikkarte z.B. mit einer stärkeren CPU zu liesten imstande wäre.
Ein großes Problem, wenn man GPU Tests im CPU Limit durchführt.
Man kann immer auf FHD umschalten und schauen ob die FPS hochgehen, wenn ja -> wenig/kein CPU Limit
Wenn nein -> CPU Limit
KlaraElfer schrieb:
die CPU mehr reinschlagen als PCIE 4.0 und dann eben im CPU Limit um 25% schneller sein.
Die Wahl der Plattform ist somit zumindest für den Test der 3080 und 3090 (bei letzterer noch mehr) absolut falsch gewesen.
Wie gesagt, dann sollte man es nicht GPU Test nennen denn die GPU testet man damit nicht, sondern ein System mit einer CPU die noch 4-5 schnellere Modelle über sich hätte, in Zusammenhang mit der GPU.
Also sind auch CPU Tests mit einer übertakteten 2080Ti realitätsfern? Die besitzen auch nur eine handvoll User.
Theoretisch sollte mein 550W-Netzteil eine 3080 auch fressen. Ich hatte bei meiner 2080 (defekt) und 2080S auch schon das volle Powertarget testweise benutzt und da hat sich das Netzteil keinen Strick bei den 300W-Regionen und mehr genommen. Aber vielleicht kann ich das in 12 Minuten auch knicken, weil ich mir das Video von Igor erstmal reinziehe.
Igor ist also eher für bisschen mehr als 550W. Da dürfen es dann schon 750W sein, um auf der sicheren Seite mit OC-Geraffel und so zu sein. 750W hat jedoch eine höhere Wahrscheinlichkeit, dass die Sicherung rausfliegt. Da wäre für mich dann so 650W der bessere Sweetspot, wobei ich glaube, dass meine CPU beim Spielen keine 150W frisst, aber da muss ich mal HW-Monitor mitlaufen lassen. Aber vielleicht reicht mit 550er noch.
Und Igors Furmark-Test, egal, wird doch seit der GTX570 schon wegkastriert, damit die GPU keinen Schaden davon nimmt.
Wahre Worte.
Ich sagte es ja.... die Preise für die Grafikkarten sind in keinster Weise gerechtfertigt.
Es bedarf dringenst eines dritten Players im Grafikkarten Markt. Hoffe da auf Intel nächstes Jahr. Damit es endlich mal wieder richtige Leistungssteigerungen gibt zu Normalen Preisen.
Wer sich jetzt wieder von Nvidia ausnehmen lässt, dem ist nicht mehr zu helfen.
Na und dann? Wieviel Abstand in Zahlen hat denn jetzt die 3080 zur 2080 in WQHD oder in FullHD bei den getesteten Spielen?
Kannst Du das aus dem Test hier herauslesen?
Du weisst schon, dass Auflösung und FPS unterschiedliche Belastungsszenarien auf einer GPU darstellen?
Doch, das hat mich von Anfang an irritiert, ich dachte daher auch, dass die 3080 wohl nicht an die 320W TDP rankommen wird im gaming aber offenbar schluckt sie da sogar bis zu 330W. Die Sache ist halt die, 75W kommt aus dem PCIE Slot, 2x 150W aus den 8 Pin, theoretisch kann die 3090 gar nicht viel mehr Power als 375W schlucken.
Andererseits sieht man, dass die 3080 wohl wegen 4% Mehrleistung unnötig 60W mehr schluckt, ist ja von Nvidia so eingestellt ab Werk... Die 3090 wird bei 350W wohl besser skalieren.
Wenn du die Leistung von CPUs testen willst, dann willst du, dass sie möglichst wenig durch die GPU limitiert werden, also nimmst du die schnellstmögliche GPU für den Test.
Daher stand bisher die 2080Ti dort und für den Zen3 Test wird man dann wohl die 3090 nutzen.
Wenn du die Leistung von GPUs testen willst, dann willst du, das sie möglichst wenig duch die CPU limitiert werden, also nimmst du die schnellstmögliche CPU für den Test.
Hier den 3900X zu nehmen ist in etwa so, als würde man im CPU Testsystem die 2080Ti gegen eine 2080 austauschen.
Wahnsinn!!! Geiler Test und was ist das bitte für ein Monster?! Und die 3090 kommt erst noch. Nvidia hat hier einen tollen Job gemacht, das sag ich als "AMD-Fan".
Die 16GB 3070Ti und 20GB 3080(Ti?) ist doch schon so gut wie bestätigt, was meinst du warum man die in der Pipeline hat?
Nvidia wird schon damit rechnen, dass das gleiche wie bei 2060 und 2070 passiert und AMD am Ende genau zwischen 3070 und 3070Ti bzw 3080 und 3080Ti landen wird.