RTX 3080 10GB - verkaufen oder warten?

Melu76 schrieb:
aktuell gibt es die 4080 für 1200,-
die 4090 für 1730,- und das ist schon ein großer unterschied von 45%.

also ist deine logik nicht wirklich nachvollziehbar, die 4090 kostet knapp 550,- mehr als die 4080
also legst du für die 4090 nochmal nen halben tausender drauf, und die 4090-early buyer haben das teil sogar für nen ganzen tausender mehr gekauft.

Ergänzung ()



weil es nicht nötig ist, und NV ein gutes speichermagament hat.

die 3080 ist auch nicht wirklich die karte die man für 4K empfehlen würde, auch wenn sie sicherlich noch sehr viele spiele in der auflösung rocken kann.

eine 4080 ist top für 4K, und auch eine 4070ti geht noch locker, ist aber kein "aha effekt" zur 3080 sag ich mal so, verbrauch mal aside, der sicherlich grandios niedrig ist (idle wäre dann nochmal was anderes, müsste man schauen)


also ich würde mir für 4K eine 4080 holen (oder das amd pendant 7900xtx ... ok, ich persönlich nicht wirklich, aber wäre noch eine alternative), und wenn das zu teuer ist, musst du deine ansprüche überdenken. 4K und "alles max, zukunftssicher und 100FPS" gibt es halt nicht zum null-tarif
Mir geht es halt bei der Anschaffung einer neuen Karte auch darum, inwiefern sich die Technik in den nächsten Jahren verbessern wird. Wenn ich mir den Unterschied zwischen einer 4080 und einer 4090 angucke, dann sieht man eben doch das die 4090 ja auf einer ganz anderen Liga mitspielt. Nachher zahlt man 1,2 für eine 4080 (die ich für die richtige Karte ausgeben würde) und nächstes Jahr erscheinen dann die Pro Versionen der Konsolen mit ungefähr der selben Leistung für den halben Preis. Bisher habe ich meine Kartenupgrades zumindest immer mit neuen Konsolenversionen getimed. Und dann kriegt man evtl. auch für 1,2 eine 5080 mit der Leistung einer 4090. Das aber eben erst in einem Jahr. Aber du sagst es, hohe Leistung heute hat halt eben seinen Preis. Und heutzutage ist in der Mid-Range Klasse nichts „weltbewegendes“ vorhanden, zumal die Karten in der Preisklasse völlig überteuert sind. Da muss ich wieder dran denken das Nvidia immerhin versucht hat die 4070ti als 4080 Variante zu verkaufen. Die einzig wirklich gute Option ist daher meiner Meinung nach, in Bezug auf wieviel Leistung man für sein Geld kriegt, die 4090. Die 4080 würde ich wirklich erst unter der 1000€ Marke in Erwägung ziehen.
 
Zuletzt bearbeitet:
schneper schrieb:
Ich verstehe halt wirklich nicht warum Nvidia so sehr mit dem VRAM geizt.. die 4070ti hätte mindestens 16GB und die 4080 mit 20GB an VRAM erscheinen müssen.

Weil es technisch nicht anders möglich ist? Mit 16GB wäre die 4070Ti technisch eine 4080 geworden und die 4080 mit 20GB (160 bzw. 320Bit Speicherinterface) wäre entweder langsamer als die jetzige 4070Ti oder fast so schnell und so teuer wie eine 4090 geworden. Die 4080 hätte wiederum nur 8 oder 32GB bekommen können ohne die Leistung in irgendeiner Art zu beeinflussen.

Wenn man versteht, wie die Funktionen der einzelnen Elemente im Die und mit der RAM-Anbindung verzahnt sind, dann erschließt es sich von selbst. Erhöht man die Speichermenge im nicht gleichen Teiler, erhöht sich die Busbreite, Shader-Alus, Tensor-Cores im prozentual gleichem Maß. Bei der 3080 hätte man damals schon 20GB verbauen können und hätte fast mit der 3090 aufgeschlossen, sowohl leistungstechnisch als auch preislich. Hätte man 16GB verbaut wäre man leistungstechnisch bei einer 3070(Ti) gelandet und mehr als 50% langsamer als eine 3090 und genauso schnell wie eine 2080Ti gewesen.
 
  • Gefällt mir
Reaktionen: schneper und Piecemaker
Dir sollte eigentl. klar sein, dass dein "Spiele-Problem" gar nicht an zu wenig VRAM deiner 3080er liegen kann es sei denn, man hat die Tatsache, dass beim Überlauf des VRAM erst auf den SystemRAM und danach dann einen dann evtl. noch vorhandenen Rest, auf die SSD ausgelagert wird, abgeschafft.
Davon ist mir jedoch nix bekannt.

Das Game ist eher buggy...
 
schneper schrieb:
Pro Versionen der Konsolen mit ungefähr der selben Leistung für den halben Preis
Das bezweifel ich sehr stark^^

eraser4400 schrieb:
Das Game ist eher buggy...
Also alle Games?

RE4,D4,Hogwards etc.

Gerade für UHD würde ich minimum 12GBvRam haben wollen.

Guck mal FC6 kannste mit ner 8GB Karte und UHD null spielen ausser du drehst de vRam fresser zurück was meistens ja Texturen sind,und die möchte man nicht auf low oder mid haben.

Und da sind noch nichtmal UE5 spiele dabei.

Die 3080 würde ich vk so lange wie es noch gutes Geld gibt und ne 6800/6900 kaufen gibts jeweils grad für 570 und 630Euro+Spiel.

Weil wenn sich das erstmal rumspricht,dann wird man die Karten nur noch weit billiger los.
 
Zuletzt bearbeitet:
Wenn man jetzt noch wüßte von was man spricht , RE4 ,D4, UE5,FC6 wie bei meiner Frau in der Uni Klinik .
Und nach dem Verkauf einer 3080 und den Kauf einer 6800/6900 muß man sich noch einen neuen Monitor kaufen für wenigstens 400 ,- € weil der vorhandene nur Gsync kann ,denn auch die reinen Gsync Monitore sind noch massig am Start weil damals auch schön teuer ,dann kostet eine "billige " Radeon plötzlich mehr als 1000,- € Umrüstung oder ?
 
Zuletzt bearbeitet:
Die TVs können beides...Free und G-Sync.
 
Welcher TV kann denn GSync? Wüsste nicht, dass ein Hersteller je die Hardware dafür verbaut hat, oder meinst Du GSync-compatible, sprich FreeSync für Nvidia?
 
  • Gefällt mir
Reaktionen: MDRS66
schneper schrieb:
Nachher zahlt man 1,2 für eine 4080 (die ich für die richtige Karte ausgeben würde) und nächstes Jahr erscheinen dann die Pro Versionen der Konsolen mit ungefähr der selben Leistung für den halben Preis.
Das wird nicht passieren.

Die aktuellen Konsolen können maximal 220 Watt ziehen, und das ist auch der Grund warum eine RTX 3080 schon schneller als eine Konsole ist. Man kann ein Game natürlich sehr optimieren, aber im Endeffekt hat man nur 220 Watt zur Verfügung.

Zur RTX 4080: Ich wüsste nicht, wie man die 320 Watt + 100 Watt CPU + 50 Watt restliches System = 470 Watt einfach mal halbiert und die neue Pro Konsole leistet dann bei nur 235 Watt das Gleiche. Nvidia & AMD wissen übrigens auch nicht wie das geht :)

Eine RTX 4080 macht in Hogwarts in 4k alles ultra max + 20% FOV + Raytracing ultra 58 FPS. Das wird keine PS5 Pro mit nur 250 Watt schaffen. Und mehr als beispielsweise 250 Watt geht nicht, weil sonst wird die Konsole brüllend laut.

Da sei mal unbesorgt. Eine PS6 in 4 Jahren wird das vielleicht schaffen, aber dann mit RT nur auf auf ausgewogen und kein +20% FOV, sowie in Fights doch wieder Drops auf 40 FPS. Und wird dabei auch schon "unangenehmer" hörbarer werden, als dein PC.

So hören sich halt bis zu 220 Watt in einem winzigen billig Gehäuse an:

Hier mal 4K God of War in 50-60FPS, auf original Settings (= Konsolen Settings) & FSR Ultra Quality mit ebenfalls ~220 Watt gesamtes System:
NVIDIA_Share_cEKvuqO14K.jpg

Und dieser PC ist im Gamebetrieb ganz sicher nicht hörbar :)

Ausgehend davon das eine Konsole 550€ kostet, ist dieser PC gerade mal ~250€ teurer, leistet aber in 4K das selbe wie 4k performance mode auf einer aktuellen Konsole. Wir sehen also, das ein PC sicherlich einen Bruchteil mehr kostet, aber beim Watt Verbrauch sind beide doch in etwa gleich.

Der nächste Konsolen Refresh kann eine RTX 4080 unmöglich schlagen.

lg
 
  • Gefällt mir
Reaktionen: schneper
n33 oder vielleicht doch n32 ist rdna3 und wird in der neuen Ps5 pro drin sein
Folglich ist die Formel entweder n33 auf Stereoiden mit 3,2ghz was etwa 17tf wären oder n32 auf Effizienz getrimmt mit 19-25tf
Rdna3 n31 hat derzeit so gut wie alle stromeinstpartechniken in den alu deaktiviert und agiert wie rdna2 folglich mit höheren verbrauch als es möglich wäre.
Darum der geringe Takt. neben dem Latenz problem was durch das packaging verursacht wird. lösen lässt sich das nur bei nen neuen node.
Amd plant mit rdna3+ nen Neudesign und wird q2/q3 2024 kommen
Vom Prinzip her gleich wie rdna3, 6 mcd mit einen gcd aber neuen packaging und gefixten stromsparfeatures damit der Takt auf min 3,2ghz kommt
Dazu die bessere Latenz zwischen den mcd was dann folgende tf ergeben bei gleichen Ausbau wovon ich ausgehe den n4 wird kaum mehr alu erlauben.
6144*2,6*3,2=51,1tf vs derzeit +36%.

Was bedeutet das für Konsolen?
Erstmal, wenn es der n33 wird, der schon die fixes haben wird. also mit min 3,2ghz und 2,6 Operationen pro alu dann sehen wir 17tf bei 130w
aktuell n23 ebenfalls 2048alu 120w für 10tf

ich nehme an das sony die chips in 5nm fertigen wird daher der Einwand mit n32 dann käme man mit fixes bei 25tf an mit 48cu 3072alu bei 180w
Das wäre aber fürn Konsole was zu viel diese würde bei 250w tbp sein, eher sehe ich den n33 in der Konsole.
Die arch kann mehr die Fertigung ist bei 6nm auf etwa 2,8ghz limitiert
Wäre dies das maxed was der n33 kann dann käme man auf 14,9tf


Also ja die kommende Konsole, wird mit etwa 200w tbp etwas um die 17tf +70% vs normale ps5 und denselben strombedarf haben

Das bedingt aber n5 node oder sony pfeift auf den verbrauch und setzt eher auf dickeren kühler mit dann 250w tbp
Beides wäre möglich das sony was plant ist sicher nur das was ist offen derzeit geht man von q3 2024 aus das was kommt. Es kann auch nen neuen refresh mit kleineren node sein 6nm statt 7nm
Die nächste Konsolen gen ist für 2027 geplant ps6 und soll wieder mit Laufwerk sein.
Bis dahin reden wir über rdna5 mit n2 Fertigung

Dann noch was zu den apu die werden richtig interessant 16cu rdna3 etwa 3,0ghz = knapp 8tf in ner igp
Derzeit in server Ableger geplant ich sehe da aber potenzial fürn desktop apu
Da ist noch nix klar da die cpu Planungen eher erst zen5 und bestehende apu Planungen laufen was derzeit mit rdna2 igp sind. bis zu 12cu bei 2,0ghz was etwa 4tf wären bedenkt das dies bis 120w läuft
 
  • Gefällt mir
Reaktionen: schneper
Wenn du dir nur sorgen um den VRAM machst, eigentlich aber mit der Leistung zufrieden bist und NVidia Features möchtest würde ich mir an deiner Stelle die 3090 holen, da hast du genug VRAM und die kostet auch "nur" so viel wie eine 4070ti.
 
  • Gefällt mir
Reaktionen: schneper
@schneper

Also ich schlage einfach mal eine 7900XTX für 999€ vor:
https://www.mindfactory.de/Highlights/MindStar

Die PowerColor Hellhound im Mindstar. So viel falsch kann man da nicht machen.
Für den Preis ist die Leistung super. Raster auf 4080+ Niveau, in RT ca. 3090/4070ti. Dazu 24GB.
Damit kann man schon was anfangen, gerade in 4K.

Für den Preis bekommst sonst gerade mal eine 4070ti. Bei der 4080 wäre man schon bei 1250€+....und dann auch nur 12GB oder 16GB Speicher.

Ein geniales Game gibts noch on Top dazu.
 
sethdiabolos schrieb:
Welcher TV kann denn GSync? Wüsste nicht, dass ein Hersteller je die Hardware dafür verbaut hat, oder meinst Du GSync-compatible, sprich FreeSync für Nvidia?

LG OLED hat GSync, ich meine das sind aber aktuell die einzigsten TVs die das können, wenigstens ist das mein Stand vom Wissen von vor knapp 2 Jahren, als ich mir den TV geholt habe und damit wirbt LG aktuell immer noch.
"LG arbeitet auch weiterhin mit dem Branchenführer NVIDIA zusammen und macht LG OLED TVs damit zu den einzigen mit G-SYNC kompatiblen Fernsehern", "Außerdem können Sie zwischen den Technologien VRR, NVIDIA G-SYNC und AMD FreeSync™ hin- und herschalten."
 
Eigenartigerweise stoßen viele die 3090 ab und holen sich eine 4070ti oder eine 4080 ,wer den passenden
Monitor schon hat ,kann auch auf Radeon wechseln .
Nicht jeder spielt Monster- Hardware- fressende Games auf 4k hat aber das teuerste am Start ,oder der Monitor bringt es nicht ,für FULL HD oder WQHD braucht man keine 3080/ti 3090/ti da ist eine 4070ti sehr gut aufgehoben.
Ergänzung ()

Ab welcher Zoll Größe geht dass da dann los bei den TV ?
 
schneper schrieb:
Die 3080 hat noch Restgarantie

Verkaufen, da die Karte noch Restgarantie hat.

Persönliche Meinung. Nvidia hat zu viele Probleme mit Karten die plötzlich sterben. Das Thema sehe ich schon erneut. Solche Hardware muss man einfach abstossen. Hardware darf nicht sterben aufgrund eines Spieles. Ob Demo - Beta oder nicht, ist egal.
 
Das ist übertrieben oder ?
Von welchen Kartensterben du jetzt sprichst weiß ich zwar nicht ,aber generell ist jetzt Vorsicht geboten ,auf den bekannten Plattformen ist eine Schwemme von ehemaligen Mining Karten nicht zu übersehen .
 
"Die Statistik bildet die Marktanteile von Nvidia und AMD am Absatz von Grafikkarten vom dritten Quartal 2010 bis zum vierten Quartal 2022 ab. AMD erzielte im vierten Quartal 2022 einen Marktanteil am Absatz von rund 9 Prozent, Nvidia kam auf einen Anteil von 85 Prozent. Die Daten stammen von Jon Peddie Research."
Logisch, dass man dann mehr defekten Nvidias begegnet, müßten eigentlich 8mal soviel sein wie AMDs, sind es aber nicht, Nvidia ist zuverlässiger, aber auch nur auf geringen Niveau, liegt aber auch am Nutzerverhalten.
RTX3080 behalten.
Die RTX3090 tut sich nicht viel zu einer RTX4070TI, ist aber dennoch ein schlechter Vergleich.
Ein zehn Jahre alter Porsche Turbo hat auch bessere Fahrleistungen als ein aktueller M5, dafür aber deutlich höheren Verbrauch und deutlich lauter. (mal so als mäßigen Vergleich)
Mein Kollege hat die RTX3090TI, ist in 4K in manchen Spielen sogar ein paar Prozent schneller nals meine RTX4070TI.
Allerdinmgs habe ich immer den Eindruck, der hat einen Staubsauger im Hintergrund an, so laut ist das Teil bei Vollast, da kommt von meiner 4070iger nur ein leises Lüfterbrummen, soweit man die Graka überhaupt hört.
Einen Unterschied zwischen RTX3080 zu 4070TI wird man in Benchmarks feststellen und ein paar Games die sich scheinbar im fortgeschrittenen Betastatus befinden, sonst zahlt man für ein paar Details und FPS mehr ne Menge Euronen, wems Wert ist solls machen, wirklichen Sinn macht es aus meiner Sicht nicht.
Dann fast schon auf die 50XX warten, oder in ein paar Monaten eine günstige gebrauchte 40XX vom gewerblichen Händler mit Garantie und Gewährleistung kaufen.
 
Apo schrieb:
LG OLED hat GSync, ich meine das sind aber aktuell die einzigsten TVs die das können, wenigstens ist das mein Stand vom Wissen von vor knapp 2 Jahren, als ich mir den TV geholt habe und damit wirbt LG aktuell immer noch.
"LG arbeitet auch weiterhin mit dem Branchenführer NVIDIA zusammen und macht LG OLED TVs damit zu den einzigen mit G-SYNC kompatiblen Fernsehern", "Außerdem können Sie zwischen den Technologien VRR, NVIDIA G-SYNC und AMD FreeSync™ hin- und herschalten."

Ist eben nur GSync compatible und somit nur FreeSync, was aber auch mit Nvidia nutzbar ist. Technisch ist GSync da nochmals besser.
 
Zurück
Oben