Test GeForce RTX 3080 12 GB im Test: Die Benchmarks zur neuen RTX 3080 fehlten hier noch

Bruder_Joe schrieb:
Das geht ja eigentlich, wenn man bedenkt das man sowieso an keine 3080FE zur UVP dran kommt..

Lieber wäre mir aber eine 4070 mit 16GB aber das wird nicht passieren die wird maximal 10 -12 haben. Sonst verkauft sich doch die 4080(ti) nicht ;)
 
  • Gefällt mir
Reaktionen: ErichH.
mospider schrieb:
Nicht wenn man in 4K spielt. DLSS ist da oft ein Segen und für mich eine der besten Neuerung der letzten Jahre, in diese Bereich.

Berserkervmax schrieb:
Wenn kein DXR / RT gefordert ist und kein 4K dann ja zu AMD

Wer GSync , DXR und hohe Auflösungen fährt dann nein zu AMD

Meine 6900 (UVP+200, zwei, drei wochen nach veröffentlichung) wiederspricht euch. Die macht in 4K ihren job super und ohne das sie in schwitzen kommt. Gut, ich "verzichte" auch auf RT, weil ich da bisher nicht den mehrwert sehe im vergleich zu den anforderungen. (okay, Metro hatte ich zu dem zeitpunkt schon durch und nur wegen RT spiele ich das nicht nochmal^^)
 
  • Gefällt mir
Reaktionen: MegaDriver
Bruder_Joe schrieb:
Die Settings für Konsole entsprechen aber eher normal, high ist dann schon auch nur am PC möglich und das sind dann schon teils erhebliche Unterschiede, siehst du wenn du dir die Tests der Portierungen anschaust, Beispiel HZD, es ist wie so oft, u get what u pay for.
Ja gebe ich dir recht für die letzte Konsolengeneration. Aber die hat ja schon paar Jahre auf dem Buckel. Oft findet auch keine Optimierung statt oder es gibt schlechte importe, da die Lead-Plattform die Konsole ist.

Mal sehen was in den nächsten 2 Jahren bei den neuen Konsolen passiert. Aktuell sehe ich noch keine Spiele, die das Potenzial der Konsolen nutzt. Aber ja das Ultimum ist nur am PC zu finden. Ob es mir allein 1000 - 2000€ nur für die Grafikkarte Wert ist muss jeder für sich selbst entscheiden. Glaube vielen mit Kindern etc. geht es ähnlich, da einfach nicht die Zeit da ist so viel dafür auszugeben. Meine Grafikkarte ist nun eine 3070 und auch dieser Preis schmerzte mir sehr.
 
Firstdim schrieb:
Sicher ein guter Wahl, aber der aktueller Preis von 999€ täuscht dich nur 😉
Was nützt dieser Diagramm ohne Preisunterschiede ??
Was, wenn zb die 3090 500€ kosten würde 🤷‍♂️
...

Wie du unten lesen kannst, habe ich meine Vega 56 gegen 6900XT getauscht ( nur weil preisgleich mit 6800XT) und das ist in Sache PL beste Upgrade für eine Vega.

Erst Mal, egal was man macht, es gibt heute keine Karten die 4K, 144 Hz+, RTX &&& gleichzeitig stemmen können und ich möchte keinesfalls auf 144 Hz+ zu gunsten der im Gefecht kaum sichtbaren RTX verzichten.....

Alles ok , bis auf 4K.
Wo siehst bitte die Unterschiede zwischen 6900XT UND RTX Serie, selbst bei 3090...

Bei all euren Berechnungen fällt mir auch die Einbeziehung des Erlös aus der alten Karte die ersetzt sein sollte, ein wichtiger Faktor, ......
Was schreibst du dir für einen Unsinn zusammen?
Es ist klar dass RDNA2 effizienter ist.
Egal welcher Preis für die GPU angesetzt wird.
Ich muss bei der 3080 Ti ordentlich UV damit ich überhaupt auf die 270 - 280W komme.
Erst so kan man die GPU bei normaler Lautstärke. Auch Customs drehen bei 300W+ stark auf. Das ist einfache Physik...

Und nein, man rechnet den Preis der vorhandenen GPU nicht ein. Das ist ein typischer Fall von Milchmädchenrechnung.

Eine RTX 3080 oder besser kann man für 4K mit DLSS only super nutzen.
Bei Control gibt es sogar Zwischenauflösungen. Einfach nur Top wenn man ausnahmslos 4K@60fps bei ordentlichem Bild haben möchte.
4K ist für die meisten wichtiger als 144fps.

Shadak schrieb:
Meine 6900 (UVP+200, zwei, drei wochen nach veröffentlichung) wiederspricht euch. Die macht in 4K ihren job super und ohne das sie in schwitzen kommt. ...

Schreibe bitte noch dazu, dass computerbase keine Ahnung vom Testen hat, weil schon genug Spiele eben nicht flüssig in 4K ohne DLSS oder FSR laufen. Da läuft dann ein Spiel mit 60fps und 50fps in den Low. Das ist nicht flüssiges 4K@60fps.
Und DLSS hat hier eindeutig die Nase vorn.
 
Zuletzt bearbeitet:
Sly123 schrieb:
Schreibe bitte noch dazu, dass computerbase keine Ahnung vom Testen hat, weil schon genug Spiele eben nicht flüssig in 4K ohne DLSS oder FSR laufen. Da läuft dann ein Spiel mit 50fps und 40fps in den Low. Das ist nicht flüssiges 4K@60fps.
Und DLSS hat hier eindeutig die Nase vorn.
wtf?
Mein Alltagseinsatz sagt 60FPS bei 4k laufen. (mein LG 27" kann nur 60Hz) Flüssig. Da brauch ich kein DLSS/FSR-Rotz (ganz ehrlich, wenn man nicht die leistung für 4k hat, dann sollte man auch nicht 4k nehmen zum zocken. DLSS/FSR ist da nur augenwischerei)
 
  • Gefällt mir
Reaktionen: MegaDriver
@Ardenda um Konsolengrafik und FPS auf den PC zu bekommen bedarf es halt aber auch keiner 1000-2000 Euro GPU. Ich versteh deine Aussage schon, klar kommt man billiger mit ner Konsole weg, aber mit nem PC der nur Konsolengrafik und FPS leisten soll ebend auch..
 
  • Gefällt mir
Reaktionen: Ardenda und Firstdim
Was mir ja sauer aufstößt, ist, dass diese run auf RAM völlig unwidersprochen hingenommen wird.
Das ist die gleiche (parallele) Entwicklung wie bei der CPU-Geschwindigkeit.

Hey, wir müssen keine schnelle kompakte Software mehr schreiben, weil die CPU das kompensiert.
Also haben wir rießige Scheißehaufen, die da als Software verkauft werden und die nur deswegen nicht Jahre zur Ausführung brauchen, weil die CPUs so dermassen zugelegt haben.

Jetzt stoßen wir mit den CPUs langsam an Grenzen. (Und das ist IMNSHO) gut so! Da muss wieder vernünftige Software geschrieben werden. Es hieß nicht umsanst Software Engineering. Mit den paar kB musste man sparsam umgehen. Da war Kreativität gefragt.
Demnächst kann man nicht mehr mal eben einen npm GB Haufen auf die SSD scheißen und hoffen dass die CPU das schon schnell genug machen wird!

Da sind Entwickler einfach faul und optmieren nix mehr. Gibt ja genug RAM.
Und wenn das dann erschöpft ist, dann gucken alle blöd und jammern.

Leider wird das noch eine geraume Weile dauern, bis wir auch hier Grenzen erreichen. Bis dahin gibt's niemanden mehr, der sich auf ordentliche Komprimierung, Scheduling etc. versteht.

... ich werd' alt. ... und sauertöpfisch.
 
  • Gefällt mir
Reaktionen: ErichH.
Shadak schrieb:
wtf?
Mein Alltagseinsatz sagt 60FPS bei 4k laufen. (mein LG 27" kann nur 60Hz) Flüssig. Da brauch ich kein DLSS/FSR-Rotz...

Na dann. Auf so einem Niveau brauchen wir auch nicht mehr weiterreden.
Das ist hier ein Technik-Forum und kein wtf-Forum.
Lese doch mal die GPU Tests bei cb durch.
Du selbst merkst die Framedrops wahrscheinlich nicht aber die sind je nach Einstellung da.
 
  • Gefällt mir
Reaktionen: Unnu
wie sie sehen sehen sie nichts.
Völlig unnötige Karte. Die 2GB mehr machen den Kohl auch nicht fett (selbst in 4k) und die 3% Mehrperformance sind vielleicht messbar aber niemals spürbar.
 
  • Gefällt mir
Reaktionen: Ice_Dundee und MegaDriver
Sly123 schrieb:
Na dann. Auf so einem Niveau brauchen wir auch nicht mehr weiterreden.
Da hast du recht, keine ahnung mit welchen einstellungen du die framedrops hast (oder redest du von elex II?), aber ich merke keine.
 
vander schrieb:
Ich nehme an, sie freuen sich keine lahme Karte zu haben?
Wer so was für viel Geld kauft, dem ist der Verbrauch egal.
Ergänzung ()


Hatte die 6900xt ein paar Wochen zum testen, ging zurück. Für das Geld erwarte ich was funktionierendes.
Wenn man nur AAA zockt ist Amd durchaus gut, aber es happert an zu vielen ecken.

6800xt uvp ist fast an der 3080 dran, hat zwar mehr vram und ja das war es schon. Sonst geht alles an nvidia für nur ein bisschenn mehr Geld. Amd hat sogar Marktanteile gelassen seit RDNA2. Sie müssen runter mit dem Preis wie früher dann wird es auch gekauft. Bei fast gleichem Preis greifen alle zu Nv. Die haben ihre Budget Stellung komplett aufgegeben 6500xt was ist denn das:lol:. 6800xt 500€ damit bekommt man anteile.
 
eax1990 schrieb:
Seh ich das jetzt richtig? Die Karte ist lauter als eine Founders, kühlt kein Stück besser (Backplate scheinbar schlechter, wahrscheinlich kein Kontakt?), hat 100 mehr RPM und kostet diesen Preis?
Ich sag das ungern, aber so von den Daten her sieht die MSI Karte echt wie ein minderwertiges Produkt aus.
Da gibts in letzter Zeit einige und das bei den aufgerufenen Preisen ist das schon alles unverschämt. Wen ich mir ansehe was Gigabyte hier verbrochen hat:

https://www.igorslab.de/gigabyte-ge...-wenn-aluminium-den-kuehlkreislauf-zerstoert/

Sobald die Hardwarehersteller wissen, dasss ihnen eh alles aus den Händen gerissen wird, werden die immer schlechter.

@Pchelp88
du kannst davon ausgehen, dass AMD alles verkauft was an GPUs abfällt und daher müssen sie nicht mit dem Preis runter. Es mag sein, dass sie etwas Marktanteil verloren haben, aber wenn der Gesamtmarkt wächst ist das eher nicht relevant. Sie können nicht mehr produzieren also warum zu einem günstigeren Preis verkaufen? Das macht 0 Sinn. Und ich würde ohne Zweifel jederzeit zu AMD wechseln. Zum Glück schränke ich mich da nicht selbst ein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Firstdim
mospider schrieb:
Ich spiele alle meine Spiele in 4K mit einer 3080, in hohen bis maximalen Einstellungen. Kein Problem bisher.
Ich versuche das auch. Bei Ark (zumindest auf maximalen Einstellungen) habe ich in 3440x1440 keine Chance, ich komme nichtmal in die Nähe von 100 FPS. Bin irgendwie froh wenn ich meine RTX 3080 tauschen kann.
 
  • Gefällt mir
Reaktionen: Firstdim
GroundZeroX schrieb:
Ich bleibe dabei. Die 3090 ist momentan das beste Gesamtpacket bei NVIDIA. Aber nur wenn man sie zum UVP bekommt.
Das sehe ich auch so.
Ein unschlagbar gutes Gesamtpaket aus Leistung und Effizienz und als Gegenspieler zur RX 6800 wäre die RTX 3070 mit von Anfang an 16 GiB VRAM gewesen. Dann würde die auch schon in meinem Rechner stecken. So bleibe ich bis auf weiteres bei meiner GTX 1070.
 
  • Gefällt mir
Reaktionen: Vitec
Die RTX 3070 wäre mit 16GB VRam natürlich besser gewesen
Trotzdem wäre es m.M.n besser gewesen zu Release 300-400€ (nach Verkauf der GTX 1070) in den Ring zu schmeissen und sich ne RTX 3070 zu leisten. In neueren Spielen weit über doppelte Performance...Raytracing...DLSS. Der Wiederverkaufswert ist natürlich auch weit höher...so das man den Aufpreis wieder einnehmen wird. Oder eben eine RX 6800...je nachdem es man bekommen hat.
 
  • Gefällt mir
Reaktionen: Firstdim
Shadak schrieb:
Da hast du recht, keine ahnung mit welchen einstellungen du die framedrops hast (oder redest du von elex II?), aber ich merke keine.
Aus eigener Erfahrung Drops bei Horizon ZD bei 4K.(bspw. Orte mit extrem vielen Lichtquellen.)
Laut Tests Cyberpunk, RDR2(low fps), Watch Dogs und noch andere. Mit DLSS dann kein Thema mehr.:daumen:
 
Uninteressant im Vergleich zur 3080ti.
Die Preise sind dank Mining zu nah beieinander, weil sie dort ähnlich performen.
Nur Speicherkrüppel sind noch günstig...
 
  • Gefällt mir
Reaktionen: GerryB
Jo, die Ti gibts im MS für 1499.

btw.
Wie Manche da auf ne 3090 schwören können erschließt sich mir net.
(frühe Käufer zum normalen Preis mal außen vor)
 
  • Gefällt mir
Reaktionen: Pro_Bro
Balrog schrieb:
Hab jetzt im Outlet bei Alternate eine 3080 10GB für 1050,- gekauft... hab ich jetzt was falsch gemacht, weil geschrieben wird der Aufpreis zur 12GB lohnt sich? Wären dann ja 250,- mehr
Schwer zu sagen ohne die Auflösung in der du spielst zu wissen. Für 4k ja , uwwhd ja. Wqhd und drunter nein
 
Sly123 schrieb:
Aus eigener Erfahrung Drops bei Horizon ZD bei 4K.(bspw. Orte mit extrem vielen Lichtquellen.)
Laut Tests Cyberpunk, RDR2(low fps), Watch Dogs und noch andere. Mit DLSS dann kein Thema mehr.:daumen:
Also Ich hab die 6900XT ja für Cyberpunk und RDR2 effeketiv gekauft. Beide laufen bei mir mit 60 fps@4k. HZD habe ich mir danach gekuft, lief auch flüssig
WatchDogs habe ich nicht.
Hast du irgendwelche komischen Einstellungen laufen? RT aktiv?
 
  • Gefällt mir
Reaktionen: Sly123
Zurück
Oben