[Kurzreview] Samsung C34F791, UWQHD,100hz, Freesync

Status
Für weitere Antworten geschlossen.
Bestelle dir den Samsung und teste ihn ausgiebig. Lass dir hier nichts madig reden.
 
Stimmt, sobald ich direkt danach suche erhalte ich einige Videos und User Reports. Tritt das nicht bei jedem Modell auf? Serienstreuung? Treiber?

Einer bei Reddit schrieb das hier:
Please try to install the latest AMD driver 17.1.1 WITHOUT the ReLive software which is know to cause flickering

Kann mir kaum vorstellen das Samsung so was durchgehen lässt. Ist dies etwa ein Grund wieso die Verfügbarkeit so schlecht ist, weil sie wissen das es Probleme gibt?

klöbner@ naja, hier ist man schon gut aufgehoben, aber natürlich sollte man seine eigenen Erfahrungen machen. Bin noch unschlüssig ob ich mir den Stress antun sollte. :)
 
Zuletzt bearbeitet:
klöbner schrieb:
Bestelle dir den Samsung und teste ihn ausgiebig. Lass dir hier nichts madig reden.

Hattest du den Samsung überhaupt schon? Ich glaube nicht ;).

@Tronx

Du musst einfach auf das Registrierungsdatum achten. Die die wirklich Ahnung haben sind meist schon lange dabei. Die Frischlinge sind leider meistens die weniger versierten, um es milde auszudrücken.
 
Zuletzt bearbeitet von einem Moderator:
asus1889 schrieb:
Hattest du den Samsung überhaupt schon? Ich glaube nicht ;).


@Tronx

Du musst einfach auf das Registrierungsdatum achten. Die die wirklich Ahnung haben sind meist schon lange dabei. Die Frischlinge sind leider meistens die weniger versierten, um es milde auszudrücken.

Soll ich n Foto von ihm machen?

Muss man erst tausend Post verfassen um Ahnung zu haben? Ich hab das Gerät hier stehen und kann also aus eigener Erfahrung berichten. Ich bin zufrieden mit meiner Kaufentscheidung. Man kann sich immer in Foren informieren und sich Tipps holen aber letztendlich entscheiden kann man aber nur selbst.
Wenn einer ihn haben will dann kauft ihn euch und testet ihn doch einfach selber.
 
Zuletzt bearbeitet:
asus1889 schrieb:
Lol. Der PG348Q ist der größte Trash den es gibt. Kannst dir diesen Thread bezüglich des X34A bzw. des PG348Qs durchlesen. Beide Monitore sind definitv nichts für ambitionierte Spieler von Shootern. Viel zu langsam. Die haben bis zu 15 ms Reaktionszeit und ein Inputlag von ca. 10 ms. Das Panel und PSU sind nur für 60 Hz ausgelegt.

Heißt man hat @ 100Hz per OC Spulenfiepen + Scanlines. Von den riesigen Lichthöfen bzw. Glow in uringelb in allen 4 Ecken möchte ich erst gar nicht reden. Hatte beide Monitore (X34 und PG348Q). Beides E-Schrott, instant entsorgt.

ach echt jetzt :heul: mega :heul: die 100Hz weil die Platine OC ist und gar nicht für 100Hz gedacht ist? :freak:
Nun Ich Zocke echt gerne Shooter und zur Zeit Planetside2 << wäre Planetside 2 so ein Spiel wo man "die Schrott-21:9" ala X34A UNd PG348Q merken würde? Ich zocke mit den hier >>> Dell U2412M wieviel hat der denn an Inputlag?
www.prad.de schrieb:
Reaktionsverhalten

Den U2412M haben wir in nativer Auflösung bei 60 Hz am DVI-Anschluss vermessen. Der Monitor wurde für die Messung auf die Werkseinstellung zurückgesetzt.

Bildaufbauzeit und Beschleunigungsverhalten

Die Bildaufbauzeit ermitteln wir für den Schwarz-Weiß-Wechsel und den besten Grau-zu-Grau-Wechsel. Zusätzlich nennen wir den Durchschnittswert für unsere 15 Messpunkte.
Das Datenblatt nennt für den DELL U2412M eine Reaktionszeit von 8 Millisekunden (GtG). Bei unseren Messungen ermitteln wir den schnellsten Grauwechsel mit 11,2 Millisekunden. Die über alles gemittelte Bildaufbauzeit (hin und zurück) für unsere 15 Messpunkte ist mit 13,1 Millisekunden nicht viel länger. Die Unterschiede zwischen hellen und dunklen Messpunkten fallen gering aus.

-----------------------------------------

Latenzzeit

Die Latenz ermitteln wir als Summe der Signalverzögerungszeit und der halben mittleren Bildwechselzeit. Die für Gamer wichtige Signalverzögerung messen wir beim U2412M mit äußerst kurzen 0,9 Millisekunden. Bis zur Soll-Helligkeit vergehen durchschnittlich weitere 6,5 Millisekunden, die mittlere Gesamtlatenz fällt mit insgesamt 7,4 Millisekunden sehr kurz aus.



Quelle:http://www.prad.de/new/monitore/test/2011/test-dell-u2412m-teil13.html#Latenzzeit
<<< habe keine Ahnung welcher Wert jetzt genau für Inputlag ist? Ob es die 13,1 Millisekunden ist oder 7,4 Millisekunden? Ist mein Monitor auch ein Schrottteil zum Shooter zocken?


asus1889 schrieb:
Warte lieber auf den neuen HP Omen 35 Zoll Monitor für 1299 Euro der im April rauskommt. Alternativ kannst du auch den AOC 35 Zoll für 899 Euro testen. Die haben beide wenigstens native 100 Hz und ein VA Panel. Heißt in erster Linie kein Spulenfiepen, kein IPS Glow, schnellere Reaktionszeiten und kaum BLB.

Ob der AOC von der Verabeitung und Materialanmutung etwas taugt muss sich erst noch herausstellen.

Asus haut nicht zum Spaß atm 200 Euro Cashback raus. Die wollen den alten Plunder los werden. Wenn deutlich bessere G-Sync Monitore auf dem Markt sind, können sie die 1150 Euro und auch die 950 Euro (mit Cashback) eh nicht mehr aufrecht halten.

Okay also sollte man immer abwarten ob die Mz immer native ist das heißt alles was nicht native ist OC
Dann warte ich bis April ..bin froh nicht den Asus mit der Cashback Aktion gekauft zu haben ^^ hat in den Finger gejuckt ufff

Schonmal Danke
Ergänzung ()

hmm was mir einfällt den Omen X35 besser vorbestellen? Wegen der Rückläufer-Gefahr ^^ um ein Nagels neues Produkt zu bekommne? das nicht schon ausgepackt isr/war?
Und ich habe halt das Risiko das der nicht auf 720p ein gutes Interpolation hat .....man man man wo man alles drauf achten muss :D ....habe schon Jahrelang keine Monitore gekauft ^^ Interpolation << ist sehr wichtig das alles auch in niedriger Auflösung !!! also nicht die native Auflösung alles Feherfrei darstellen kann ufff :freaky: ist das so Richtig?
Ergänzung ()

:D Sorry das ich so viel frage ^^ wollte mein Wissen Testen was ich von Euch gelernt habe..........


HP Omen X35 schrieb:
hier:
Diagonale: 35"/​88.9cm • Auflösung: 3440x1440, 21:9 • Helligkeit: 300cd/​m² • Kontrast: 2.500:1 (statisch), 10.000.000:1 (dynamisch) • Reaktionszeit: 4ms • Blickwinkel: 178°/​178° • Panel: VA (AMVA+) • Bildwiederholfrequenz: 100Hz • Anschlüsse: 1x HDMI 1.4, 1x DisplayPort 1.2 • Weitere Anschlüsse: 2x USB 3.0 • Ergonomie: höhenverstellbar (120mm) • VESA: 100x100 (belegt) • Leistungsaufnahme: 120W (maximal), keine Angabe (typisch), 0.5W (Standby) • Farbraum: 100% sRGB • Besonderheiten: LED-Backlight, NVIDIA G-Sync (30-100Hz), flicker-free, gebogen (1800R/​1.8m), Slim Bezel • Herstellergarantie: ein Jahr Quelle:https://www.computerbase.de/preisvergleich/eu/hp-omen-x-35-x3w57aa-a1568219.html

so nun ja nur Herstellergarantie: ein Jahr uff aber was ich hier so gelesen haben ist ??? der Kontrast von : 2.500:1 << lässt darauf schließen das es kein AOU Panel ist das diese einen Kontrastwert von 2000:1 haben << Stimmt das?
 
Zuletzt bearbeitet von einem Moderator:
AUO ist der einzigste Hersteller der 35" 21:9 panels herstellt.
 
Uff Stimmt wo du es sagst Danke meine ich hier gelesen zu haben...alles so Crazy mit 21:9 :freak:
 
klöbner schrieb:
Ich hab das Gerät hier stehen und kann also aus eigener Erfahrung berichten. Ich bin zufrieden mit meiner Kaufentscheidung.

Bist du nicht einer derer die den Monitor mit einer Nvidiagrafikkarte nutzen :rolleyes: ?
 
Wäre die Frage welche Games er spielt und in welchem FPS Bereich.

Alle meine Spiele hatten Flickering um die 50FPS rum:

Tomb Raider Reboot
Raise of the Tomb Raider
CIV VI
CIV Beyond Earth
Dragon Age Inquisition
Battlefront (aber nur minimal da ich fast immer über 60FPS war)
 
Grundsätzlich kann ich mich Dai6oro anschliessen.

Witcher 3: Ab 54 fps kein flickern.

War Thunder: s. o.

GTA 5: Schwer zu sagen ab wann es flickert da die Fps hier stark schwanken, aber ab ca. 50 fps auch hier kein flickern.

Dying Light: Gar kein flickern.

Wow: Das bekannte flickern bei weniger als ca. 50 fps. Allerdings habe ich hier immer wieder ein kurzes sporadisches flickern, egal wieviel fps ich habe. Angeblich soll es das auch mit G-Sync geben. Kann ich aber nicht testen.

Später mehr. Die Arbeit ruft.
 
Mir ist das schon zu wenig für das Geld.

FS+G-Sync sind mMn gerade in niedrigen fps Gefilden am nützlichsten.
In einem Spiel wie TW3 steht für mich ganz klar eye candy vor fps, da wird dann eben auch DSR oder VSR genutzt.

Wobei VSR ja immer noch nicht geht mit 21:9. :rolleyes:

Aber man kann auch nicht jedes Spiel so anpassen wie man will.
Plötzlich erscheint Spiel XY und man landet dauerhaft im kritischen Bereich und kann ihn nur umgehen wenn man soweit runterdreht das es schon wieder schlecht aussieht.

Steht natürlich jedem frei es zu handhaben wie er mag, meines wäre das aber nicht.
 
Zuletzt bearbeitet:
In Reddit gibt es eine Liste mit den Spielen die Probleme verursachen. Für mich sieht es eher nach Treiber Problem aus und nicht Hardwareseitig, was meint ihr?

Wie ist eigentlich das Ghosting, sehr stark oder geht es?

klöbner@ irgendwie zu erkennen wann dein Monitor gebaut wurde?
 
akuji13 schrieb:
FS+G-Sync sind mMn gerade in niedrigen fps Gefilden am nützlichsten.
In einem Spiel wie TW3 steht für mich ganz klar eye candy vor fps, da wird dann eben auch DSR oder VSR genutzt.

Seltsame Logik. Was will man denn mit "eye candy" wenn das Spiel nicht flüssig läuft? Und nein, 30 FPS sind auch mit G-Sync unakzeptabel. Man sollte generell die Finger von Sachen lassen, die man sich nicht leisten kann oder will.
 
30 vielleicht, 45-50 fps empfinde ich je nach Spiel mit FS als wunderbar flüssig.

Zum dem Thema "nicht leisten können":
Da bist du ja ein richtiger Scherzkeks.
Aktuell gibt es keine AMD Karten die ausreichend Leistung bieten. ;)

Keiner hier weiß wann Vega erscheint, keiner wieviel Leistung Vega bringt.
Das Ziel von FS ist es auch nicht alle 6 Monate aufzurüsten, sondern niedrige fps Bereiche spielbar zu halten.

Es ist eine seltsame Logik die Auflösung des Monitors hoch zu halten und zeitgleich Details runterregeln zu müssen.

@Tronx
Warum flackern dann andere Monitor nicht in dem Bereich?

Kann natürlich trotzdem ein Treiber Problem sein, ich halte es allerdings für unwahrscheinlich.
Bliebe auch die Frage ob und vor allem wann das dann beseitigt werden würde.
 
Zuletzt bearbeitet:
Doch. Vega liegt auf der Höhe der GTX 1080. Vielleicht ein paar FPS darüber. Aber nur bezüglich einer Stock GTX 1080 ;).

Jedoch wird Vega seit Bekanntwerden der GTX 1080 Ti heute um 4 Uhr mit 12 Mrd. Transistoren und einer saumäßig guten Leistung gepaart mit 11 GB VRAM kaum noch eine Schnitte haben. Zumindestens wenn AMD nicht weit unter den 699 Euro (Marktpreis wohl eher 600 - 650 Euro für eine custom 1080 Ti) für eine GTX 1080 Ti bleibt. Vega müsste schon 350 - 400 Euro kosten um einigermaßen attraktiv zu sein.

AMD ist einfach zu lahmarschig und hat auf die falsche Technologie gesetzt. Es war schon lange bekannt das HBM2 nur in sehr geringen Stückzahlen produziert werden kann. Man hätte aus dem Debakel der Fury lernen und auf konventionellen GDDR5 VRAM setzen müssen, um nicht erst ein Jahr nach Nvidia mit einer gleichwertigen Karte um die Ecke zu kommen.

Da AMD bzw. Samsung/Asus auch bei Free-Sync gefailt hat, ist für mich, denke ich mal, bei AMD eh der Ofen aus.

Ich ärgere mich schon, dass ich damals von der GTX 1080 auf eine gebrauchte neuwertige Fury Nitro OC, nur wegen des Samsung Monitors, gewechselt bin. Ok. Bei der GTX 1080 hätte ich jetzt wohl nicht 30 - 40 Euro Verlust gemacht. Sondern eher 200 - 300 Euro. Aber trotzdem muss man wieder nach einem Käufer für die Fury suchen. Schon alleine das geht mir auf den Senkel. Und alles nur weil die beiden Hersteller mit Free-Sync gefailt haben.
 
Zuletzt bearbeitet von einem Moderator:
Selbst wenn das so kommt ändert es nichts an der Tatsache das man Vega stand heute nicht kaufen kann.
 
Wirst du auch nicht vor Ende Mai - Ende Juni als custom Version.

Bis dahin hat Nvidia den Markt schon längst mit GTX 1080 Ti customs geflutet. Auch die 350 - 400 Euro Preisregion wird durch die GTX 1080 (gebrauchte sehe ich dann bei um die 280 - 300 Euro; GTX 980 Ti Preisverfall lässt grüßen) bis dahin geflutet worden sein. Dann will Vega eh kaum noch jemand kaufen.

Zumindestens wenn AMD nicht massiv an der Preisschraube dreht. Das wird sich AMD ohne enormen Verlust vermutlich nicht leisten können. Sie Fury X. Die bewegen sich immer noch auf einem Preisniveau, welches der Leistung und sehr geringen Übertaktbarkeit nicht im Ansatz gerecht wird. HBM ist leider in den Preisregionen fail.

Wenn AMD dann auch noch bei Vega echte custom Designs verbietet, wie es bei der Fury Serie der Fall war, dann sehe ich noch mehr schwarz als schwarz. Dann kommt ein schwarzes Loch und saugt Vega auf :D.

Es wurde ja bei der Fury immer die gleiche Schrott-Platine verwendet. Resultat: Es gibt Spulenfiepen ohne Ende. Die Asus Fury Strix hatte eine leicht abgewandelte Platine, fiepte jedoch trotzdem wie ..... .

Jetzt warten wir auf den Omen X35. Und ich kann jetzt schon sagen, dass auch dort Lotto angesagt sein wird. Erstens Einschlüsse und zweitens Inhomogenität, Clouding und BLB.
 
Zuletzt bearbeitet von einem Moderator:
Status
Für weitere Antworten geschlossen.
Zurück
Oben