News Asus MG279Q: IPS-Monitor mit 144 Hz jetzt offiziell mit FreeSync

berkeley schrieb:
Was Nvidia Nutzer wirklich wollen oder nicht, interessiert Nvidia einen feuchten Dr... .
Das einzig relevante ist, ob Nvidia durch "Features" mehr Cash generieren kann. Dann wird es auch als "Feature" verkauft. Gut, hat jetzt mit dem 3,5Gb "Feature" nicht 100%ig funktioniert, dennoch akzeptieren es viele als "Feature", insofern...
Nennt sich Kapitalismus... Der Dümmere gibt nach. Also der Kunde.

Jetzt geht das Bashing schon wieder los. Hab ich ja ganz vergessen, AMD sind die Heiligen, die alles nur aus reiner Nächstenliebe tun. Die sind ja quasi gar kein Unternehmen, sondern ein e.V., gleich hinter der Caritas.

Nennt sich Kapitalismus, wie du schon sagtest. Und AMD würde es genauso machen wenn sie könnten.
 
@noxon: Das mit der 40fps Grenze ist schon "dumm", das stimmt. Der Rest muss sich noch rausstellen, Freesync war in den deutschen Tests nicht schlechter als Gsync, zumal die Performance eindeutig besser war.

@Lix: Wüsste nicht, wieso AMD von dem Kapitalismus-Gedanken ausgeschlossen werden soll?
Nebenbei, was man kann und was man letztendlich tut sind zwei unterschiedliche Paar Schuhe.
 
Zuletzt bearbeitet:
JMP $FCE2 schrieb:
Manche Quaker schalten die Texturdetails auf Minimum, aber was hat man von den krümeligen 800x600 ? Das Pixelgebrösel lenkt doch höchstens ab :freak:
weniger pixel bringen was:

nehmen wir an man spielt mit einem viertel der nativen auflösung (nativ 2560x1440) = 1280x720
Dort wo also nativ 4 Pixel berechnet werden, wird dann nur ein Pixel berechnet. Effekt: man kann sich kleine Zielungenauigkeiten erlauben.
Je feiner ein Spielermodell und dessen Schadensmodell gerendert wird, desto genauer/schneller muss die Maus sein.
Mir nur 2 Spiele bekannt in denen jeder berechnete Pixel auf wirklich einen treffer auslösen kann: Q4 & D, wahrscheinlich auch jedes andere Game, das auf derselben Engine sitzt.

Selbst mit starken Grafikkarten spielen Profis deswegen trotzdem weiterhin 640x480@144Hz (auf CRTs). Hochgerechnet wäre dafür ein Display 2560x1920 im 4:3 Format notwendig - Quaker haben hierdas Glück der besseren Engine und können 16:9/16:10/21:9 voll nutzen.

1:1 Upsampling wäre da ein Ausweg anstatt der displayinternen Interpolation.
 
Alwiz schrieb:
Das mit der Mindestwiederholfrequenz von 40 HZ bei dem Monitor liegt nicht an AMD, sondern ist von dem verwendeten Panel und dessen Spezifikationen abhängig.

http://support.amd.com/en-us/search/faq/222
"What is the supported range of refresh rates with AMD FreeSync™ technology and DisplayPort Adaptive-Sync?

​AMD Radeon™​ graphics cards will support a wide variety of dynamic refresh ranges with AMD FreeSync™ technology. Using DisplayPort Adaptive-Sync, the graphics card can detect and set an appropriate maximum and minimum refresh rate based on the capabilities reported by the display. Potential ranges include 36-240Hz, 21-144Hz, 17-120Hz and 9-60Hz."


Ich glaube es ist eine Treibersache. Bei GSync unterstützen alle Panels 30Hz, und bei AMD keiner? Unglaubhaft.
 
Sharky99 schrieb:
Bei GSync unterstützen alle Panels 30Hz
Sowohl Gsync als auch Freesync scheinen bei 37Hz eine Grenze zu haben. Freesync geht dabei den weg über Off oder Vsync, Gsync fängt hier bereits mit der Frameverdopplung an. Das zumindest geht aus den Tests von PCPer hervor.
 
SavageSkull schrieb:
Mich würde ja eher mal was in der Richtung VA Panel interessieren.
Pappschuber schrieb:
Ich hätte lieber mal Ankündigungen von neuen Monitoren mit VA-Panel.
Juhu, dann sind wir schon drei. Klingt jedoch nicht nach einer kritischen Menge, um für Hersteller von Massenware lukrativ zu sein... :heul:
 
Smagjus schrieb:
Das zumindest geht aus den Tests von PCPer hervor.

Das gilt aber nur für die beiden getesteten Monitore. Eine Aussage für alle GSync oder Freesync Monitore ist lässt sich daraus nicht ableiten.
 
Berserkervmax schrieb:
..und das ganze jetzt noch in 21/9 !

Melchior schrieb:
Hi,

cool - IPS, 144Hz und FreeSync. Leider keine 21:9 und nur 27er Zoller.

lynx007 schrieb:
Und die 2160 Zeilen nicht vergessen.... verstehe echt nicht was so lange dauert ein 21:9 + 2160p raus zu bringen...

21:9 mit mehr als den öden 1080p sind wohl die einzige Monitorvariante, die noch nicht mit zumindest einer der Sync-Technologien erhältlich sind... :mad:

@lynx: Machbar ist das sicherlich, aber welche Graka befeuert denn 5040x2160 (oder 5120x2160 analog zum Dell UP2715K) = knappe 11 Megapixel? Versteh mich nicht falsch, ich finds auch lächerlich wenn Leute nicht ohne alle Regler auf Anschlag spielen "können", ich nutz selber ne 260X auf 1600x1200...aber 4K/UHD dürfte genug Leistung fressen, und die Höhe in 21:9 sind ja nochmal ein Drittel mehr Pixel...
 
kisser schrieb:
Das gilt aber nur für die beiden getesteten Monitore. Eine Aussage für alle GSync oder Freesync Monitore ist lässt sich daraus nicht ableiten.
Das was du dort siehst ist das grundsätzliche Prinzip hinter den Technologien.

Die Panels an sich haben aus technischen Gründen immer eine minimale Refreshrate die eingehalten werden muss und Freesync kann diese von der hardwareseite aus halt nicht verdoppeln oder verdreifachen wie GSync das tut, weil es halt ohne zusätzliche Hardware im Monitor auskommt.
GSync hingegen steht das GSync Modul zur Verfügung und kann daher bei niedrigen Frameraten zusätzliche Refrehsignale einfügen, wenn die Framerate zu niedrig ist. Das hat nichts mit den hier getesten Monitoren zu tun, sondern ist für die komplette Technologie gültig.

Die einzige Möglichkei für AMD eine ähnliche Lösung anzubieten wäre höchstens das über den Treiber zu regeln. Dieser müsste dann je nach Framerate mehr oder weniger Bilder an den Monitor schicken als tatsächlich gerendert wurden.
Dazu müsste aber jeder Monitor speziell dem Treiber bekannt sein und eventuell kann es noch andere Probleme geben, die nicht unbedingt im Treiber geregelt werden können. Schnelle und sprunghafte Wechsel der Framerate zum Beispiel erfordern anscheinend auch spezielle Behandlungen der Refrehrate des Displays um ruckelfrei abzulaufen. Man wird sehn, ob AMD dort in Zukunft noch was tut. Bisher ist das alles nur eine Vermutung.
 
@noxon
Du hast ihn missverstanden. Es geht um die untere Grenze der Bildwiederholdrate, was bei beiden Technologien im Test auf 37Hz hinauslief. Er meinte einfach, dass man das nicht auf alle Monitore generalisieren kann.
 
zum glück bin ich mit meinen 4k asus trotzdem zufrieden zumindest auch ohne free sync wird aber später noch gekauft :)
 
Smagjus schrieb:
Sowohl Gsync als auch Freesync scheinen bei 37Hz eine Grenze zu haben. Freesync geht dabei den weg über Off oder Vsync, Gsync fängt hier bereits mit der Frameverdopplung an. Das zumindest geht aus den Tests von PCPer hervor.

Hast was falsch gelesen. Die Grenze bei NVidia ist 30 Hz für alle Monitore, bei 29 Hz wird das bild mit 58Hz dargestellt, also Frames doppelt angezeigt. Je nach Panel kann es aber schon darüber hinaus passieren, bei LG z.b. schon bei 37 fps. Bei AMD hast unter 40 Hz immer Tearing. Es ist also eine Ecke schlechter. Nur brauchbar wenn man dafür nicht extra bezahlt.
 
Zuletzt bearbeitet:
Hito schrieb:
weniger pixel bringen was:

nehmen wir an man spielt mit einem viertel der nativen auflösung (nativ 2560x1440) = 1280x720
Dort wo also nativ 4 Pixel berechnet werden, wird dann nur ein Pixel berechnet. Effekt: man kann sich kleine Zielungenauigkeiten erlauben.
Je feiner ein Spielermodell und dessen Schadensmodell gerendert wird, desto genauer/schneller muss die Maus sein.

CS verwendet "Bauklotzmännchen" als Hitbox: http://www.sk-gaming.com/content/52437-CSGO_Hitboxes_explained

Bei QL ist die Hitbox sogar nur ein einheitlicher Zylinder für jedes Playermodel. Treffer werden per Vektorrechnung bestimmt, die Pixelauflösung des gerenderten Bildes hat damit gar nichts zu tun.
 
JackTheRippchen schrieb:
Juhu, dann sind wir schon drei. Klingt jedoch nicht nach einer kritischen Menge, um für Hersteller von Massenware lukrativ zu sein... :heul:


Ich wäre auch dabei. Wir könnten jetzt das "VA-Liebhaber Quartett" gründen und Lobbyistentum betreiben. ;)
 
Zurück
Oben