D
drunk_chipmunk
Gast
Nahrungsmittel schrieb:Das ist eben nur eine normale zu erwartende Steigerung für eine neue Generation.
Aber nur beim Vergleich gleicher Preisklassen.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Nahrungsmittel schrieb:Das ist eben nur eine normale zu erwartende Steigerung für eine neue Generation.
demoness schrieb:Für 4K 60Hz Monitore passt die natürlich auch super, aber ganz ehrlich wer kauft sich so ein Setup um dann in 60Hz herum zu krüppeln.
Für 4K 144Hz brauchts dann halt wieder ne 3090.
Insofern seh ich den 4K usecase nicht
Was für die prozentualen Abstände irrelevant wäre da sich an der Rechenleistung an sich nichts ändert.KlaraElfer schrieb:Praktisch alle 8GB Modelle sind leistungstechnisch weit von 2080Ti und noch weiter von 3080 entfernt, logischerweise, wenn man das CPU Limit rausnimmt, werden sie in Relation langsamer.
Also ich habe wochen nach nem 32 4k 144hz monitor gesucht, es gab keinen... daher muss ich mich in 4k halt mit 60hz zufrieden geben und alles unter 32 zoll ist keine steigerung bei nem 24zoll monitor, viel zu mickrig alles......demoness schrieb:Die Aussage, dass die 3080er in erster Linie eine ultra HD Karte sei kann ich nur bedingt nachvollziehen.
Zumindest bei den Spielen in eurem Test Parkour sieht man doch, dass selbst mit diesem Leistungsplus weder durchschnittliche +150fps (geschweige denn bei 0,2%) die Regel sind. Insofern seh ich die 3080 als dringend benötigtes Upgrade um den passenden QHD 144Hz Monitor mit genügend Leistung zu befeuern.
Für 4K 60Hz Monitore passt die natürlich auch super, aber ganz ehrlich wer kauft sich so ein Setup um dann in 60Hz herum zu krüppeln.
Für 4K 144Hz brauchts dann halt wieder ne 3090.
Insofern seh ich den 4K usecase nicht
Kann ich auch aber darum geht es nicht : Die Abwärme muss man erstmal aus dem Gehäuse bekommen und in einigen Tests sieht man dass unter Vollast die CPU 10 Grad wärmer wird als eine CPU mit 2080TI !Cool Master schrieb:Und? Juckt mich nicht. Ich kann es mir leisten ein Hobby zu betreiben.
aldaric schrieb:Nö, eure Diskussion nervt nur schon seit letzter Woche. Und wird daher wohl eher von vielen einfach ignoriert. Wie man in anderen Tests sieht, limitiert ja auch der 10900k die GPU ordentlich.
Der Samsung 8nm Prozess ist halt am Ende des Tages nur ein verfeinerter 10nm Prozess, auf TSMC 7nm würde die 3080 wahrscheinlich gleich viel schlucken wie ne 2080Ti, vielleicht sogar weniger. Was noch hinzu kommt ist der GDDR6X Speicher der extrem stromhungrig zu sein scheint.zeedy schrieb:Ich finde das Fazit fällt zu positiv aus. Wäre da nicht der vergleichsweise günstige Preis, wäre es vermutlich anders ausgefallen.
Dass die neue Grafikkarte trotz neuer Architektur und Fertigung nur 10% effizienter ist als der Vorgänger, ist ein Armutszeugnis für Nvidia. Dass die extrem hohe Leistungsaufnahme nicht wirklich kritisiert wird, verstehe ich nicht. Bei einer neuen Generation erwarte ich zumindest 30% Mehrleistung bei gleicher Leistungsaufnahme. Hier gibt es dieses Leistungplus bei 18% höher Leistungsaufnahme. Übertaktet man die 2080TI, sieht es noch schlechter für die 3080 aus.
Die Technik ist echt enttäuschend. Einzig der Preis rettet die Karte noch.
Smartin schrieb:Wenns so ist, wie Du sagst, wird die Karte ohnehin kein Thema sein, denn warum brauchst Du dann so eine Karte?
Nur mal meine 2cts. warum AMD nicht an einer 2080 dran ist ...naicorion schrieb:Das weiss keiner. Bis heute sind sie nicht einmal an einer 2080 dran...
Avarios schrieb:Kann ich auch aber darum geht es nicht : Die Abwärme muss man erstmal aus dem Gehäuse bekommen und in einigen Tests sieht man dass unter Vollast die CPU 10 Grad wärmer wird als eine CPU mit 2080TI !
aldaric schrieb:Nö, eure Diskussion nervt nur schon seit letzter Woche. Und wird daher wohl eher von vielen einfach ignoriert. Wie man in anderen Tests sieht, limitiert ja auch der 10900k die GPU ordentlich.
Bei mir auch , dennoch 1x120 Fläche nötig und nicht viele haben ne WaKü, deswegen den deutlichen mehrverbrauch kleinreden braucht keinerCool Master schrieb:Bei mir kommt ein Wasserblock drauf... Juckt mich daher auch nicht.
0.2 ist schon seit einigen Jahren hier Standard, da 0.1 doch etwas zu anfällig war, 1 hingegen wieder zu verzeihend und wird nur im CPU Test benutztCeberus schrieb:@Wolfgang wieso 0.2 percentile, früher habt ihr es doch immer auf 0.1 percentile gemacht? Oder irre ich mich.
Das geschwätz von euch verstehe ich hier in dem Zusammenhang auch nicht.Esenel schrieb:Welche wären das?
Bei HWLuxx wird er ia mit der Handbremse benutzt.
Ungeeignet für ein GPU Rig, ja.