R9 290 Ersetzen

-Ps-Y-cO- schrieb:
is schwierig... besitze sie ja nichtmehr... =/
Ich weiss dass es mit dieser GPU Tricky war.
YouTube kann helfen, Reddit MegaThreads können helfen
BIOS Mod`s können helfen. ...
Ich weiss nicht in wieweit man die C-States ändern kann etc.
Aber is schon ungewöhnlich...
Kannst du sie im Wattmann OC´en ? oder mit was machst du es?

Nein, im Wattmann wurden die Werte lustigerweise nie übernommen, darum mache ich das immer mit MSI-Afterburner. Naja ein guter Freund von mir hat auch eine R9 290 Tri-X und er kann locker auf -50mV und ZUSÄTZLICH die CoreClock auf 1040 und die MemClock von 1300 auf 1330 anheben. Dies geht bei mir eben garnicht...
 
Craftingphil schrieb:
Okay, das Tearing spüre ich in LoL recht stark. Aber macht es dann einen großen Unterschied ob man 144Herz plus eine Technologie oder nur 144 Herz nimmt?

Mit 144 Hz ist das Tearing schon deutlich erträglicher (Risse bleiben weniger als die Hälfte der Zeit an derselben Stelle).

Mit G-Sync/Freesync gibt es gar kein Tearing. Wie Vsync, nur ohne die Nebenwirkungen.
 
Stand heute... kauf dir lieber eine AMD Vega 64 mit FreeSync Monitor Option
4x mehr Monitore im Angebot macht den Kohl dann doch Fett.

Die GTX 1080 oder 1080Ti ist bestimmt nicht schlecht. Aber einen Neuen Monitor kann man sich dafür halt nicht so einfach mal kaufen.
Außerdem gibt es bei nVidia immer noch NICHT die wichtigen 32:9 Curved Monitore.
 
Zuletzt bearbeitet:
Ne 1080 stampft ne R9 290 schon ziemlich ein.
Hatte ja von ner R9 290 von Sapphire auf ne 1080 von Palit und Zotac aufgerüstet.
Dürfte schwer Richtung doppelte Leistung gehen.

Während ner Reklamation musste ich dann mal ne Woche meine 290 für mein Standardspiel einbauen.
Ging dann von konstanten 90 FPS (max FPS) bei 60-70% Auslastung, bergab auf ständige 100% Auslastung bei Framedrops auf oft knapp unter 60 Bilder.^^
War heilfroh als die 1080 dann wieder da war. Auch für meine anderen Spiele :)

Wie locker das Geld für sowas sitzt, muss natürlich jeder für sich selbst entscheiden.^^

Grüßchen
 
AYAlf schrieb:
Außerdem gibt es bei nVidia immer noch NICHT die wichtigen 32:9 Curved Monitore.
Diese missratene 1080p Ultrawide Monitore als wichtig zu bezeichnen hat mir den Morgen versüsst. :D

Bei der Grafikkarte könnte es sich lohnen bei AMD zu bleiben. Aktuell gibt es zwei "günstige" RX64 Modelle. Ob die was taugen müsste man kurz in Reviews nachlesen.

1 Gigabyte Radeon RX Vega 64 Gaming OC 8G, 8GB HBM2, 3x HDMI, 3x DP (GV-RXVEGA64GAMING OC-8GD)
1 Sapphire Nitro+ Radeon RX Vega 64, 8GB HBM2, 2x HDMI, 2x DP, full retail (11275-03-40G)

Die Nitro+ scheint, wie gewohnt was zu taugen:
https://www.hardwareluxx.de/index.p...radeon-rx-vega-64-nitro-im-test.html?start=19
 
Zuletzt bearbeitet:
@ODST Ich behaupte einfach mal ganz stumpf, 32:9 wird sich über kurz oder lang durchsetzen.
Ich hatte bisher immer Recht, was die Formate anging.

5:4 keiner will dieses Format mehr und die Leute wollten damals nicht davon Abschied nehmen.
4:3 keiner will dieses Format mehr und die Leute wollten damals nicht davon Abschied nehmen.
16:10 keiner will dieses Format mehr und die Leute wollten damals nicht davon Abschied nehmen
16:9 hat noch eine Fanbase, die aber durch
21:9 bald kleiner wird.
32:9 das einzig vernünftige Format wird sich hoffentlich auch irgendwann durchsetzen.
Und wenn nicht bei nVidia, dann wechsel ich halt zurück zu AMD, die haben jetzt schon begriffen wie gut das Format ist.
 
Die 1080 ist laut Benchmarks doppelt so schnell in den meisten Spielen wie meine 290X. Nur so am Rande...

32:9 setzt sich nur durch wenn das Format für TVs verwendet wird und ich seh die dünnen Sehschlitze in keinem Wohnzimmer. :D
 
Die alten Formate vermisse ich nur deswegen nicht, weil die Bildhöhe trotzdem immer größer geworden ist (21" CRT, 22" 16:10, 27" 16:9).

So ein Sehschlitz kommt mir schon deswegen nicht ins Haus, weil er bei angemessener Höhe so breit wäre, dass ich kein vernünftiges Stereodreieck für die Lautsprecher mehr hätte.
 
@AYAlf
Du magst Recht haben, was die 16:10 Auflösungen angeht. Jedoch liegt es eher an dem praktischen 16:9 Format, welches schon seit Jahren im TV Business zu Gange ist. Versuche von Philips mit 21:9 einzusteigen scheiterten kläglich. 32:9 gibt es nicht ein mal.

Ich frag mich ernsthaft, wie man einen 1080p Monitor in doppelter Breite mit nur 81 PPI derart glorifizieren kann. Aber gut jedem das seine.

@TE
Für welche Grafikkarte hat man sich nun entschieden?
 
@ODST

Weil 81 DPI für die Meisten ausreicht bei einem Monitor.
Ich nutze bei meinem Hauptmonitor sogar nur 79 DPI.
Ich habe auch ein Handy mit nur 312ppi, mein vorheriges hatte 577ppi.
Der Unterschied ist sichtbar... aber es ist egal. Wenn man nicht ständig den Vergleich daneben hat. Es fällt einem bei der Nutzung dieser Gegenstände nicht auf.
Für WhatsApp, Telefonieren und SMS ist das völlig Wurscht!

Mein Bildschirm ist primär zum Zocken da, da sind mir FPS/Hz + AdaptiveSync sehr viel wichtiger. Das bewegte Bild muss perfekt dargestellt werden. Da schaue ich bestimmt nicht auf die PPI.
Zur Immersion trägt dies nämlich nur bedingt bei, imho.

Man kauft Monitore dem Anwendungsbereich passend und keine Allrounder.

Und ja ich habe auch einen hochauflösenden Monitor, damit würde ich aber niemals zocken wollen oder gar einen Film schauen. Meine Filme, die ich schaue sind immer noch in FHD oder Ultra Wide UXGA.

Wenn sich der Standard in 5 bis 10 Jahren zu 4k hinbewegt, dann werde ich aufrüsten. Jetzt gibt es die Hardware einfach nicht her.

Die paar 4k Anwender sind wirklich verschwindend gering, gegenüber der Masse. Also komplett vernachlässigbar.

Der Samsung 49" 32:9 1080p ist übrigens einer meist geklickten Monitore, das Interesse ist also da!
https://geizhals.de/?o=10
 
Zurück
Oben