Neue Grafikkarte für Wqhd?

Ja, du legst wohl viel Wert auf Xilence.
Extra nochmals ergänzt, mit noch dreimal Xilence.
 
Ich sags mal so, es gibt von namhaften Herstellern NTs, die nicht viel besser sind, aber mehr kosten.
Ich weiß, durch Tests, auch von hier, daß bestimmte Xilence Modelle echt gut abschneiden, und keine China Böller (mehr) sind.
Wenn es daher etwas enger im Geldbeutel ist, und es keine HighEnd HW ist, auch von der abverlangten Leistung her nicht, finde ich die halt ne vernünftige, preislich attraktive Alternative.
Und mal was anders als das was sonst hier empfohlen wird, und im bisherigen Ratgeber ist das A+ III auch drin gewesen. Und bevor sich jemand ein MARS gaming NT antut, soll er lieber zu Xilence greifen.
 
Ich weiß, dass es recht anständige Netzteile von Xilence gibt.
Aber man muss hier nicht gleich übertreiben jetzt.
Ich nutze übrigens Privat keine BeQuiet Netzteile.
Auch keine von Xilence.
 
PTS schrieb:
Eine 3440x1440 Auflösung wie bei dem 34" Monitor, da wirste nicht glücklich mit so einer mittelklasse-grafikkarte.
Aha, komisch... Mit meiner RTX 2070 komme ich dafür erstaunlich gut zurecht...

Tirreg420 schrieb:
Welche Spiele genau? Overwatch, Conan Exiles, Cod, LoL, Minecraft
Für diese Spiele sind Grafikkarten wie die 6700 XT auch für UWQHD absolut in Ordnung.

Tirreg420 schrieb:
Das wäre übrigens UWQHD mit 21:9. WQHD hat 16:9 und 2560x1440.
Von WQHD sind es rechnerisch grob 30 % mehr Pixel auf UWQHD. Dementsprechend hat die Grafikkarte mehr zu tun. Aber wie oben schon erwähnt, spiele ich mit einer RTX 2070 (vergleichbar mit einer RTX 3060 bzw. RX 6600) auf UWQHD mit den von dir gewünschten Einstellungen und fps. Das passt schon ganz gut.
Bei aktuellen AAA-Spielen kann das aber auch ganz anders aussehen (siehe den Technik-Test zu Forspoken hier auf CB).
 
  • Gefällt mir
Reaktionen: SuperTuesday und wuselsurfer
wrglsgrft schrieb:
Aha, komisch... Mit meiner RTX 2070 komme ich dafür erstaunlich gut zurecht...

Na wenn dir lowfps reichen in neueren games, hf

mir hat nicht mal eine 3080 so wirklich gereicht, hab ja kein bock die grafik settings immer runter schrauben zu müssen.

mit ner rtx 2070 in cyberpunk beispielsweise kommste nicht weit in der auflösung, sieht auch nicht anders aus bei neueren games aber jeder wie er mag =)

Vor allem wenn man dann noch nen 144hz oder mehr Monitor hat, dann will man ja nicht weniger fps als die hz-zahl haben, sonst brauch man so einen monitor ja gar nicht ne?
 
PTS schrieb:
Und um genau die geht es hier aber nicht:
Tirreg420 schrieb:
Möchtest du mit der Grafikkarte spielen?
  • Welche Spiele genau? Overwatch, Conan Exiles, Cod, LoL, Minecraft


PTS schrieb:
Vor allem wenn man dann noch nen 144hz oder mehr Monitor hat, dann will man ja nicht weniger fps als die hz-zahl haben, sonst brauch man so einen monitor ja gar nicht ne?
Was für ein Käse... Von einem 144 Hz-Monitor profitiert man auch, wenn man nur mit 75 Hz spielt. Tearing wird dadurch massiv vermindert. Und von der höheren Bildrate profitiert man genau so bei weniger fps.
 
wrglsgrft schrieb:
Was für ein Käse... Von einem 144 Hz-Monitor profitiert man auch, wenn man nur mit 75 Hz spielt. Tearing wird dadurch massiv vermindert. Und von der höheren Bildrate profitiert man genau so bei weniger fps.

selten so einen Quatsch gelesen, du brauchst 144fps damit die 144hz angesprochen werden, sonst wiederholen die bilder sich.

Wenn ich bei mir mit 60fps spiele und 144hz habe, merke ich nen extremen unterschied zu 144fps, es ist einfach nicht flüssig dann, es fühlt sich dann genauso wie auf meinem 2. monitor mit 60hz an, da gibt es null unterschied aber kannst gerne bei deiner meinung bleiben, allerdings ist die schlicht weg falsch in der praxis.
 
PTS schrieb:
selten so einen Quatsch gelesen, du brauchst 144fps damit die 144hz angesprochen werden, sonst wiederholen die bilder sich.
Trotzdem hast du deutlich weniger Tearing, weil der Monitor öfter aktualisiert und dadurch eine flüssigere Darstellung.

PTS schrieb:
Wenn ich bei mir mit 60fps spiele und 144hz habe, merke ich nen extremen unterschied zu 144fps, es ist einfach nicht flüssig dann, es fühlt sich dann genauso wie auf meinem 2. monitor mit 60hz
Dann machst du was falsch.

PTS schrieb:
allerdings ist die schlicht weg falsch in der praxis.
Nope.

Soll ich dir die Kresse reichen?
 
wrglsgrft schrieb:
Trotzdem hast du deutlich weniger Tearing, weil der Monitor öfter aktualisiert und dadurch eine flüssigere Darstellung.
Schon oft gelesen und noch nie festgestellt :confused_alt:

Wenn min/max zu jeder Zeit 60FPS haben würde ich bei einem Blindtest wohl versagen.
Egal ob mit 60/100/165Hz...ich kann da beim zocken keinen Unterschied feststellen. Auf dem Desktop ist das eine ganz andere Sache.
 
Zuletzt bearbeitet:
Es kommt auch auf das Spiel an. Hatte die letzten Tage Deathloop, Darktide und Cyberpunk gespielt. Habe mit Radeon Chill die FPS auf 85-142 FPS eingestellt. Chill passt die FPS an, je nachdem ob viel oder wenig Bewegung stattfindet (mehr Bewegung= mehr fps) Bei Darktide und Cyberpunk überhaupt kein Problem.

Bei Deathloop musste ich die untere Grenze von Chill auf 100 fps anheben, weil ich sonst eine starke Irritation auf den Augen gespürt habe, die das Spielen nach kurzer Zeit unmöglich gemacht hat.

Woran das nun genau lag weiß ich nicht. Mit dem alten PC hatte ich selten mehr als 50fps und nie Probleme.
 
DaHell63 schrieb:
Wenn min/max zu jeder Zeit 60FPS haben würde ich bei einem Blindtest wohl versagen.
Egal ob mit 60/100/165Hz...ich kann da beim zocken keinen Unterschied feststellen. Auf dem Desktop ist das eine ganz andere Sache.
Ich hatte das zuletzt bei Icarus festgestellt. Läuft bei mir nur mit ca. 60 fps. Ich bin in der Zeit umgezogen und wegen umstöpseln lief mein Monitor die ersten Tage nur mit 60 statt 144 Hz. Aufgefallen ist es mir dann, weil ich in Icarus auf einmal massives Tearing hatte. Wieder auf 144 Hz gestellt und das Tearing war Geschichte.

Als ich noch meine 2 27"er hatte konnte man das auch super sichtbar machen. Den einen auf 60 Hz runter regeln, Bild spiegeln und was spielen. Den Unterschied hat immer sofort jeder gesehen.
 
Tearing hatte ich nie, hab auch Freesync aktiviert. Es war vom Gefühl eher so, als ob man auf einen stark flimmernden Bildschirm schaut ohne das man ein Flimmern sieht.

Kann es auch mit der Texturfülle zu tun haben? Deathloop hat ja weniger Texturen als Darktide oder Cyberpunk.
 
wrglsgrft schrieb:
Trotzdem hast du deutlich weniger Tearing, weil der Monitor öfter aktualisiert und dadurch eine flüssigere Darstellung.

Was soll denn der Monitor da aktualisieren wenn es dann 2x die gleichen Bilder beinhaltet, dadurch entsteht für das Auge eben die Ruckler, hast du nur 100fps beispielsweise bei einem 144hz monitor, fehlen einfach 44 Bilder und von den 100 erscheinenden Bilder doppelten sich dann einige Bilder, da kannste dann lieber auf 100hz runter stellen und es wirkt besser als auf 144hz. Deine These ist kompletter Käse.

Anders rum würde ich es ja noch verstehen, z.b. man hat nen 60hz monitor und spielt mit 300fps, dann ist wenigstens der input lag besser.
 
Wenn man Freesync oder Gsync nutzt sollte das ja nicht auftreten, da der Monitor die Hz variabel an die fps anpasst.
 
  • Gefällt mir
Reaktionen: SuperTuesday
@PTS
Du hast scheinbar einige grundsätzliche Dinge noch nicht verstanden. Angefangen damit, dass die Bildausgabe der Grafikkarte etwas absolut unregelmäßiges ist, über die Tatsache wie Tearing entsteht bis zu dem Zusammenhang, wie Bildausgabe der Grafikkarte und des Monitors korrelieren.

Ich stelle hier auch keine These auf, sondern gebe eine Tatsache wieder. Bloß weil du das nicht verstehst, ist das deswegen nicht automatisch falsch.

Ich werd das jetzt nicht mehr weiter ausführen. Fakt ist, dass man von einer höheren Bildrate des Monitors auch bei niedrigeren fps ohne jegliche Synchronisation profitiert.
Aus diesem Grund und aufgrund der Tatsache, dass @Tirreg420 ohnehin eher ältere Spiele spielt kann er also bedenkenlos zu einer Mittelklasse-Grafikkarte und einem Monitor mit hoher Bildwiederholfrequenz greifen.
 
kurzes Update: habe mir die 6700 xt gestern geholt und bin super zufrieden.
 
Ging mir auch gerade durch den Kopf.
Meine RX 6700XT nimmt maximal 185W, in Spikes 190W.
Dazu noch der Prozessor mit 65W und das bißchen Lametta drumherum.
Das sind die 288W vom HEC auf der 12V Schiene schon arg am Schwitzen.
 
Nickel schrieb:
Die Karte ist gut.
Du wirst aber ein anständiges Netzteil brauchen.
Da kannst du dich diesbezüglich in der Netzteil Kaufberatung melden.
Gibt es einen Test zu der Radeon RX 6700 XT Fighter? Ich habe die auch bestellt (noch nicht da). Wie ist die Lautstärke?

Danke

Gruß Marker
 
Zurück
Oben