WQHD Karte für rund 500 Euro?

Ich würde unter 3070/3080 vs. 6700xt/6800xt nicht anfangen. Selbst die 3080 find ich hier und da gerade mal ausreichend für WQHD.

Bei 500€ Budget wirds dann natürlich knapp.

Die Frage die du dir stellen musst, kannst du noch paar Monate warten oder nicht?
Wenn nein --> Kompromiss kaufen
Wenn ja --> evtl. mehr fürs Geld bekommen birgt natürlich wieder Risiko, keiner kennt die Preise/Leistung/Verfügbarkeit
 
  • Gefällt mir
Reaktionen: Losti73 und qwerob
Melu76 schrieb:
Aber wie gesagt kann auch ein pluspunkt sein wenn die karte einfach durchballert und sich nimmt was sie braucht. Nur weiß halt keiner wieviel das genau ist. Die Karte selber weiß das auch nicht. ^^

vom prinzip her wäre das natürlich sehr gut (wenn man nicht irgendwo EXPLIZIT ein limit festlegt), damit man nicht bei jeder spitze nen knick nach unten kassiert,

jetzt müsste man nur noch den Verbrauch einigermaßen korrekt anzeigen ;)
Ergänzung ()

Goozilla schrieb:
Ich würde unter 3070/3080 vs. 6700xt/6800xt nicht anfangen. Selbst die 3080 find ich hier und da gerade mal ausreichend für WQHD.

das sind natürlich wahre worte.
zumal man sich ja auch weiterentwickelt, und irgendwann mal auf UWQHD umsteigt.
 
  • Gefällt mir
Reaktionen: qwerob
Schön, dass sich so viele an der Diskussion beteiligen. Vielen Dank dafür! 😊
Dass die 1070 an sich noch taugt ist völlig richtig. Da muss ich ja in den meisten meiner Spiele auch nicht alles runterdrehen, damit es flüssig läuft.
Gegen Ende des Jahres soll Dragonflight kommen. Da hätte ich dann spätestens gerne die neue Karte.

5 Tage warten ist in jedem Fall drin. Bin mal gespannt was die UVP für die 4070 wird. Hab da schon Bedenken, dass es mein Budget sprengt.
 
  • Gefällt mir
Reaktionen: Tornavida, Goozilla und Nickel
@Melu76

Kleinen Hate auf Radeons? Meine 6900xt Nitro Oc wird bei angeblichen 260W auch wärmer als meine 3080 12 Master bei z.B. 350W,schon komisch,nur die 3090 waren ähnlich warm, aber der Kühler ist auch schon massiver bei der Master. Keine Ahnung was man da zurechnen muss bei den AMD, da war ja was . Am besten hilft messen an der Steckdose und sovieeeel Unterschied wie manche meinen ist es tatsächlich nicht wenn mal die Karten optimiert sind und näher am Sweetspot laufen. ;). Anderes Thema. Bei Upscaling wie DLSS & bei RT stinkt die AMD ab, ist so, das sollte man wissen wenn man eine AMD kauft. Da ist oft genug eine 3070 ja sogar flotter. Ansonsten aber zufrieden ,die Kids haben auch AMD Karten (weil ich keine entsprechenden NV bekommen habe dazumal :D) und das Treibermenü sieht auch schicker aus als bei NV.

Bei gleichem/ähnlichen Preis bin ich bisher und bin immer noch auch eher bei NV, deshalb nutze ich selbst auch die 3080 hauptsächlich und die 6900xt steckt im Zweitrechner auf der Arbeit. Ich denke auch nicht daran eine Karte unbedingt 10 Jahre nutzen zu wollen, da schadet Vram natürlich nicht, besser haben als brauchen.

Die 6800 ist eine gute Karte wenn man sie um 500-550 bekäme (schon paar mal gesehen) und DLSS & RT nicht wichtig sind. Die wäre auch bei mir gelandet wenn ich dazumal eine bekommen hätte zu UVP.
 
Tornavida schrieb:
@Melu76
Kleinen Hate auf Radeons?

oder ist es so:
immer nur amd in den kaufberatungen hypen und dann rumheulen, wenn EINER mal was amd-kritisches sagt.

ich hab null hate auf radeons (ich selber bevorzuge nvidia-gpu weil die in meiner comfortzone liegen, genauso wie AMD prozessoren in meiner comfortzone liegen, k.a. - und ich ein gewohnheitstier bin), aber wie mir scheint müssen die leute auch mal wirklich adequat beraten werden.

wenn einer sagt ja, guck mal hier, mein verbrauch... dann besteht aufklärungsbedarf.
der ja idealerweise von AMD selber kommen sollte, indem ihre karten mal nachvollziehbar ausspucken was sie verbrauchen, nvidia kriegt es doch auch hin.

ansonsten ist es mir total wumpe wer sich was kauft, deswegen beteilige ich mich nur alle jubeljahre mal, ich habe weder AMD- noch nvidia aktien - -

aber ich habe da meine zweifel ob das bei allen Forumsmitgliedern so ist. ;)
oder sind einige user einfach auf einer mission.

was ich wirklich denke: ich denke jeder sollte sich das leistungsfähigste kaufen was in sein budget passt, bzw passend für sein (Monitor)-Setup, und gerade da nochmal an die Zukunft denken. und die persönlichen vorlieben bedenken.

klar, hört man sich da gerne mal meinungen an.
Ich glaube man kann mit AMD oder Nvidia Spaß haben.

Von daher einfach für die beste Leistung entscheiden und gut ist, Verbrauch kann jeder per UV dämpfen mit jeder Karte, und auf 50w kommt es sowieso nicht an.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Losti73 und qwerob
Melu76 schrieb:
der ja idealerweise von AMD selber kommen sollte, indem ihre karten mal nachvollziehbar ausspucken was sie verbrauchen, nvidia kriegt es doch auch hin.
Mal abgesehen davon, dass ich Nvidia als vieles bezeichnen würde, wovon "Herausgeber nachvollziehbarer Informationen" jetzt nicht wirklich oben auf der Liste steht (und das als CUDA-Fanboy), ist es durchaus so, dass RDNA 2 praktisch von allen Reviews für ihre Performance in Relation zum Verbrauch und Wärmeentwicklung gelobt wird - besonders im Vergleich zu der eigentlichen Konkurrenz, der 3070.
Natürlich kann man DLSS als Argument pro Nvidia aufführen, aber FSR 2(.0, .1, oder ohne Punkt) ist eben auch existent und vielleicht nicht direkt auf dem Niveau Nvidias Super Sampling Methode, aber doch brauchbar.

Im reinen Gaming-Performance Vergleich ist die 6700XT einfach das bessere Angebot, wenn die Schmerzgrenze bei 500€ liegt. Wenn man über das Gaming hinaus noch andere Sachen machen mag, sieht es natürlich anders aus. Blender profitiert gewaltig von OptiX, Nvidia Broadcast ist ein super Tool für alle Voice-Aufgaben, mit NVENC hat man einen super Encode für's Streaming, welcher auf separaten Cores setzt und somit die GPU nicht belastet.
Und CUDA ist eine tolles Framework für alle GPGPU-Aufgaben. :D
 
  • Gefällt mir
Reaktionen: qwerob
Tornavida schrieb:
@Melu76
Meine 6900xt Nitro Oc wird bei angeblichen 260W auch wärmer als meine 3080 12 Master bei z.B. 350W,schon komisch

ich knall mir gleich erstmal das aorus-xtreme bios drauf, das auch sehr gut passt (mit einer der gründe warum ich mir diesmal direkt eine gigabyte karte gekauft habe, mich das das gb bios schon bei der 3060 ti überzeugt)

und dann wird morgen erstmal anständig OC mit 450w betrieben, ich will auch mal das meine 3080 warm wird.
die bleibt mit luftkühler einfach mal frech bei +/- 65°C und schreit förmlich danach, das man da mal wirklich bissel saft draufgibt.
 
Melu76 schrieb:
ansonsten ist es mir total wumpe wer sich was kauft, deswegen beteilige ich mich nur alle jubeljahre mal, ich habe weder AMD- noch nvidia aktien - -
Ich finds erfrischend wenn Diskussionen kontrovers sind. So lange die rationalen Argumente überwiegen sollte sich ja auch keiner auf den Schlips getreten fühlen.
Find gut, dass du deine Perspektive hier erläuterst. Wieviel Strom man am Ende tatsächlich spart ist natürlich fraglich. Das war ja auch nur ein sekundäres Kriterium, von dem ich selber nicht wusste, ob es relevant ist.
Melu76 schrieb:
was ich wirklich denke: ich denke jeder sollte sich das leistungsfähigste kaufen was in sein budget passt, bzw passend für sein (Monitor)-Setup, und gerade da nochmal an die Zukunft denken. und die persönlichen vorlieben bedenken.
Zum Thema "beste Leistung die ins Budget passt" muss ich halt sagen, dass es einfach ein variables Budget ist. Ich will ungerne das Geld mit vollen Händen zum Fenster rauswerfen, bin allerdings bereit, wenn ich deutlich mehr Leistung für meinen Euro in einem bestimmten Bereich bekomme auch ein paar mehr Euros in die Hand zu nehmen, als ich vielleicht eigentlich vor hatte.
 
qwerob schrieb:
Find gut, dass du deine Perspektive hier erläuterst. Wieviel Strom man am Ende tatsächlich spart ist natürlich fraglich. Das war ja auch nur ein sekundäres Kriterium, von dem ich selber nicht wusste, ob es relevant ist.

ist natürlich immer gut, wenn man dieselbe leistung mit weniger bekommt (deswegen UV), oder auch mehr mit demselben verbrauch, oder noch mehr mit mehr verbrauch ( :daumen: )

aber machmal frage ich mich tatsächlich ob die leute AMD für so eine art perpetuum mobile halten, das energie aus sich selbst erschafft. so nach dem motto: die mega fetten benchmark results (in WQHD) (weil: die karten durch alle lastspitzen durchbrettern), mit 50w verbrauch. wie cool ist das denn.

mal so in relation. (bei 0,41c kw/h)

250w karte mit 21/h woche betrieben: 112,-
450w karte mit 21/h woche betrieben: 202,-

also bei 200 watt differenz wären das 90,- euro/jahr bei 3h/tag durchballern
(also wirkliche differenz, 2080 ti zur 3090 ti z.b.)
(die 3060 ti hat 200w stock)

das heißt also einerseits das man nicht bei jeden potatoe spiel mit 450w zocken sollte.
(also auch ne 3090 ruhig mal eine UV option mit 250w im AB drinhaben sollte)

es aber auch kein problem ist, wenn man MAL 450w zockt und dafür den heizlüfter ausmacht.


und wer eh jede nvidia-generation mitnimmt, also seine karte max. 3 jahre betreibt, verheizt also im schlimmsten fall 300 euro mehr, wenn man jetzt wirklich null bock auf UV hat -

juckt das wirklich jemanden der sich eine graka für 1500,- euro kauft + monitor für 1500,-, 64gb ram (weil mans kann) etc?

und wenn die differenzen 20w sind ("juhu, ich habe meine 200w karte auf 180w undervoltet, ich SPARE MASSIV strom!!!!111!") -- dann ist der erlös bei ca. 4 euro im jahr, also 40 euro in 10 Jahren ....


wenn man einen kaffee trinken geht, gibt man auch 5,- euro aus, dafür kannste aber auch 13h 450w gas geben.

also diese ganzen ersparnisse muss man in relation setzen, wer 2h ins kino geht, haut deutlich mehr kohle für entertainment raus.


FAZIT:

  • es ist defintiv nicht irrelevant und weniger ist mehr beim verbrauch
  • aber relativ betrachtet kann man sich auch mal aus enterainmentgründen die volle dröhnung geben
 
Zuletzt bearbeitet:
qwerob schrieb:
Würde sich der Aufpreis zu einer 6800 XT lohnen, oder gibt dafür nicht ausreichend Leistung obendrauf
Dafür gibt es Benchmarks. "Lohnen" für was? Musst du selbst wissen, ob sich das lohnt. Leere worthülse
 
qwerob schrieb:
Zum Thema "beste Leistung die ins Budget passt" muss ich halt sagen, dass es einfach ein variables Budget ist. Ich will ungerne das Geld mit vollen Händen zum Fenster rauswerfen, bin allerdings bereit, wenn ich deutlich mehr Leistung für meinen Euro in einem bestimmten Bereich bekomme auch ein paar mehr Euros in die Hand zu nehmen, als ich vielleicht eigentlich vor hatte.

wenn du für dich auschließen kannst das du irgendwann mal bock auf nen Ultra-wide monitor bekommst, reicht die 3060 ti / 6700 XT / 6750 XT / 3070 (ti) / 6800

ansonsten musste höher bestücken
3070 (ti) / 6800 / 6800XT / 3080

es ist eine flexibilitätsfrage

ansonsten, wennde nachher den UWQHD hast, musste wieder an den settings rumschrauben, und das wollen wir ja nicht. ;)

ab uwqhd würde ich die 4K benchmarks als referenz heranziehen.
weil da doch ein bissel mehr rechenleistung als mit potatoe settings gefragt ist
 
Zuletzt bearbeitet:
Es ist auch so, das AMD Radeon Karten hier GRUNDSÄTZLICH bevorteilt werden.

Dabei stimmt das garnicht, schaut man sich die Verkäufe an. Wo liegt da die AMD Radeon? Bei 20 % ?
Also die Welt Umsätze hat AMD Radeon sicher nicht.

Das im Moment die AMD Karten einen Vorteil haben, in Bezug auf Preis / Leistung ist ganz normal. Genau daher werden sie auch empfohlen. Empfehle ich selber. Weil die meisten Leute sagen, ich benötige soviele Bilder zu dem Preis. Fast immer wird da im Moment eine AMD Radeon Karte gewinnen.

Für Leute denen das egal ist, die kaufen eher Nvidia. Sind Nvidia gewohnt. Da zahlt man dann auch mehr.
 
Generell hängt die Frage AMD vs Nvidia von den überwiegend gespielten Spielen ab und natürlich der Tatsache welches Featureset den Käufer eher überzeugt. Ansonsten entscheidet der Preis.

Bei AMD muss wohl noch aufgepasst werden das die Monitor-Wahl angeht - sonst läuft der VRAM aufgrund eines von AMD nicht gefixten Bug seit knapp einem Jahr immer auf Maximal und taktet nicht in Idle runter. Das sollte man stets im Hinterkopf behalten. Wenn einem das egal ist - oder man im Desktopbetrieb mit 60 hz leben kann - ist die Entscheidung aber klar nach dem Preis zu richten.

Und ach ja - kein XFX bei AMD Karten - schlechte Garantiebedingungen. Lieber Sapphire, Power Color, Gigabyte oder Asus.

Und zur konkreten Empfehlung: Ich würde bei der aktuellen Preislage und wissend, dass der VRAM Bug da ist, dennoch aktuell eine RX 6800 (XT) hier anraten - hier hat man auch längerfristig was von. Ne 3070 wäre die Alternative, nur eben mit weniger VRAM (wobei ich das bei WHQD mit ner 3070 jetzt nicht als wenig empfinde).

Ein Warten auf die kommende NVidia Generation ist aktuell nicht anzuraten, ist es fraglich ob diese überhaupt dieses Jahr noch erscheint respektive käuflich zu erwerben ist. Nvidia hat die Lager dermaßen voll, dass mehr als einmal laut über eine Verschiebung auf 2023 nachgedacht wurde.
 
Ich würde warten bis die neue Generation an AMD und Nvidia Karten vorgestellt wird. Vllt bekommen ja die neuen AMD Karten ja jetzt auch nen TBP Monitoring um manche Glücklich zu machen.
Unwahrscheinlich das bis dahin die Karten teurer werden.

Wenn es unbedingt JETZT eine sein MUSS, dann würde ich zu AMD tendieren. Bei den Spielen die du laut Anfangspost spielst nutzen die NVidia Features nichts, weil nicht vorhanden.
WQHD sind die AMD Karten auch durchaus noch potent, wenns Richtung 4k geht, oder bald gehen soll haben die Nvidia mehr potential ab 3080 aufwärts.

Preis/Leistung ist AMD aber aktuell besser aufgestellt. RX 6800 gibt es teils für knapp 550€ im Angebot, damit bist du schon mehr als doppelt so schnell unterwegs wie mit der aktuellen 1070.
Die 6800 ist stock auch die Effizienteste Grafikkarte der aktuellen Generation laut CB und anderen tests
 
Grantelb4rt schrieb:
Ich würde warten bis die neue Generation an AMD und Nvidia Karten vorgestellt wird. Vllt bekommen ja die neuen AMD Karten ja jetzt auch nen TBP Monitoring um manche Glücklich zu machen.
Unwahrscheinlich das bis dahin die Karten teurer werden.
Die wird von 2023 nicht erscheinen/käuflich zu erwerben sein - zumindest seitens Nvidia. Nvidia hat so viele GPUs an Lager, dass sie erstmal die Lager für neue Produkte leer bekommen müssen. Da die Nachfrage wegen des Mining-Crashes stark gesunken ist und der Markt mit 2nd Hand Karten überflutet ist, wird das, trotz massivem Preisverfalls, eine Weile dauern. Ich schätze das vor Q2 2023 keine neuen NV Karten in sinnigen Preisbereichen käuflich zu erwerben sind. Wies bei AMD sein wird - keine Ahnung. Man kann und sollte im aktuellen Preisgefüge zur Current Gen greifen.
 
Bono35 schrieb:
Bei AMD muss wohl noch aufgepasst werden das die Monitor-Wahl angeht - sonst läuft der VRAM aufgrund eines von AMD nicht gefixten Bug seit knapp einem Jahr immer auf Maximal und taktet nicht in Idle runter.

Hab ich noch nie davon gehört :)
Wie finde ich raus welcher Bildschirm dann passt?
 
Pinguin1 schrieb:
Hab ich noch nie davon gehört :)
Das betrifft ATi/AMD Karten eigtl. schon ewig, aber nur wenn mehr als ein Bildschirm angeschlossen ist.
Es gab aber wohl in kürzlicher Vergangenheit, wie ich mich erinnere auf Guru3D als mal gelesen zu haben,
ein paar Treiber die diesbezüglich einen BUG hatten, waren irgendwelche optionalen Treiber.
 
AMD hat keine optionalen Treiber.

Dieser Bug tritt seit Oktober 2021 wieder auf. Vorher war dieser mit RDNA 1 Karten gelöst. Auch Multimonitor ging ohne Hochtakten des VRAMs.

ATI gibts seit vielen Jahren nicht mehr. Den Namen braucht man nicht mehr zu erwähnen.
 
Nein - man missinterpretiert das "optional" lediglich falsch. Das sind normale Release Treiber ohne die teure WHQL Zertifizierung. Das sind schlicht reguläre Treiber.
 
Zurück
Oben