News Erste FreeSync-Monitore sind lieferbar

akuji13 schrieb:
Qualität des anisotropen Filters bei ATi geändert - ComputerBase

Bericht: Versteckspiele bei ATis Texturfilter - ComputerBase

Mein Klassiker ist allerdings das hier:
https://www.youtube.com/watch?v=BYzPQ78GzfA

Z. B. bei 0:59 wo man (gemeinsam mit Crytek) aus der 32-bit Fassung von Far Cry den Deckenventilator entfernt hat oder in anderen Szenen Lampen um die eigenen 64-bit CPU´s zu puschen.

Und später felsenfest behauptete das würde auf 32-bit so schlecht laufen das man es dafür nicht freigeben könnte....seltsam das die von moddern bereitgestellte Fassung dann überall problemlos lief.

Habe das Video noch in besserer Quali zu Hause.
Also wenn das "Leichen im Keller" sind, dann ist die GTX970 Geschichte wohl ein Atomkrieg? Findest du es nicht etwas lächerlich Bildqualität bei AF als "Leiche im Keller" zu bezeichnen? Zudem aus dem Jahr 2004 wo AMD mit dem Unternehmen gar nichts zu tun hatte.

Fakt ist, dass AMD freie Standards bevorzugt und eigentlich überhaupt keine geschlossene Software bereitstellt wie das Nvidia macht. Die Firmenphilosophien sind einfach grundverschieden - daher werden von Nvidia-Fanboys dann solche Aussagen wie "gescheitert" benutzt wenn eine neue API frei verfügbar wird für alle oder wenn AdaptiveSync Lizenzfrei für Monitor-Hersteller verfügbar gemacht wird weil man kooperiert mit diesen.

Mich wundert immer wieder diese freuen über "Mein GPU-Hersteller hat gerade einen Rekordgewinn hingelegt, den ich bezahlt habe, obwohl es das auch kostenlos gibt - Friss die Umsatzzahlen und Aktienkurse!". Ich weiss auch nicht ob das noch klassische Fanboys sind, die ja durchaus noch verschieden Techniken ins Feld führen die GPU-Hersteller nutzen. Doch den Beweis zu erbringen, dass meine GPU die tollste ist indem man auf gestiegene Aktienkurse und Gewinne hinweist, wie das zuletzt so gerne gemacht wird, ist IMHO sinnlos. Ich komm mir langsam immer mehr vor wie in einem Finanzforum wo die Technik gar keine Rolle mehr spielt und einem "überlegenen Marketing" Applaus gespendet wird, weil es Scheisse in Gold verwandelt. Dass die Scheisse mittlerweile mir gehört und das Gold Nvidia, scheint einige dabei sogar zu freuen. Befremdlich.
 
akuji13 schrieb:
Und AMD als armes kleines Opfer das nur um das Wohl der Zocker besorgt ist darzustellen ist naiv. ;)
Das ist ebenso wie NV ein knallhart agierendes Unternehmen dem wir völlig egal sind.
NV wird wohl kaum die Mehrheit haben und sowas verhindern können, was AMD natürlich weiß.
NV war mit seiner Lösung vorher am Markt. ;)

Dann erkläre uns doch mal wie man sonst einen Standrad entwickeln soll den alle nutzen können ohne sich auf einen Graka Hersteller festzulegen?...
Nvidia is mit gsync am Markt und hat niemanden gefragt oder zu Abstimmung gebeten, sondern eine Technik bevorzugt mit der sie Lizenzgebühren einsacken können und gleichzeitig die Konkurrenz ausschließen.

Du sagt selber das wir diesen Firmen egal sind ( deine Worte ) und jetzt sag mir mal welche dieser beiden Lösungen für dich als Endkunde die bessere ist. Eine in der alle Beleidigten partizipieren können oder eine die nur auf ein Unternehmen ausgelegt sind.

Offene Standrads sind für Endkunden immer die bessere Wahl.

Edit:
akuji13 schrieb:
Ist die Frage ob das Preisgefüge nicht sowieso zu niedrig war.

Wenn ich mir den TV oder Grafikkartenmarkt anschaue (wo es nur noch 2 relevante Hersteller gibt) hat der Wunsch der Kunden nach immer weiter sinkenden Preisen keine guten Auswirkungen gehabt.

Vielleicht reichten die Margen einfach nicht mehr aus.

Das Monitorhersteller solche Gegenheiten nutzen um ihre Produkte selber teurer zu machen muss man immer noch denen ankreiden, nicht NV.

Im TV Geschäft gibt es nur zwei relevante Hersteller? bitte was...:freak:
Der Rest ist reine Spekulation deinerseits und hat nix mit irgendwelchen Fakten zu tun, das is alles hätte, hätte Fahrradkette. Du versuchst einfach nur dein Weltbild mit Argumenten zu stützen, objektiv sieht anders aus.
 
Zuletzt bearbeitet:
akuji13 schrieb:
Qualität des anisotropen Filters bei ATi geändert - ComputerBase

Bericht: Versteckspiele bei ATis Texturfilter - ComputerBase

Mein Klassiker ist allerdings das hier:
https://www.youtube.com/watch?v=BYzPQ78GzfA

Z. B. bei 0:59 wo man (gemeinsam mit Crytek) aus der 32-bit Fassung von Far Cry den Deckenventilator entfernt hat oder in anderen Szenen Lampen um die eigenen 64-bit CPU´s zu puschen.

Da halte ich doch mal dagegen: nVidia: Neue (und alte) Filtertricks

Auszug aus einem Chip-Test (den Originalbeitrag bei Chip gibt es wohl nicht mehr):
"Bei den Tests der neuen GeForce 6800 Ultra Extreme Edition ist CHIP Online auf Ungereimtheiten gestoßen: Der neue Nvidia-Treiber in der Version 61.11 lieferte - zusammen mit der GeForce 6800 Ultra Extreme Edition - beim DirectX-9-Knaller "Far Cry" ein doppelt so hohes Ergebnis im Vergleich zu einer GeForce 6800 Ultra mit der Treiber-Revision 60.72:

Statt wie bisher etwa 23 Bilder pro Sekunde (1.600 x 1.200 Pixel, 32 Bit, 4xAA und 8xAF) erreichte unsere GeForce 6800 Ultra Extreme Edition plötzlich 40,3 Bilder pro Sekunde. Damit würden die GeForce 6800 Ultra Extreme Edition und die Radeon X800 XT, die bei dieser Auflösung auf etwa 41 Bilder pro Sekunde kommt, in etwa gleichauf liegen.

Benennt man jedoch die Datei "FarCry.EXE" beispielsweise in "FartCry.EXE" um, verschlechtert sich das Ergebnis des Benchmarks in den Auflösungen von 1.024 x 768, 1.280 x 1.024 und 1.600 x 1.200 Pixel um jeweils 10 Bilder pro Sekunde (!).

Benchmark "Far Cry": Statement von Nvidia
Auf eine Anfrage, wie diese extremen Verbesserungen der Benchmark-Resultate zustande kämen, sagte Nvidia-Sprecher Jens Neuschäfer gegenüber CHIP Online, dass "man bei Far Cry einerseits einen vorhandenen Treiberbug (z-culling) beseitigt, zum anderen die weiter auf das Spiel und dessen Benchmark optimiert hat".

Dem Nvidia-Sprecher zufolge sei dies ein normaler Prozess bei der Einführung einer neuen Grafikchip-Generation wie der GeForce-6-Reihe und werde auch in Zukunft weiter praktiziert. (db)

Bildergalerie: Benchmarks der 3D-Boliden

CHIP Online meint:
Keine Frage, Nvidia ist angesichts der hohen Leistung von ATIs Radeon X800 XT (Platinum Edition) in Panik geraten. Anders ist wohl nicht zu erklären, dass man kurz vor dem Launch der Radeon X800 XT mit einer höher getakteten GeForce 6800 Ultra (Extreme Edition) gegen schießt.

Dieser Schnellschuss könnte nach hinten losgehen: Der Grund dafür liegt nicht beim Extreme-Edition-Modell - vielmehr ist der "optimierte" 61.11-Treiber mit Vorsicht zu genießen. Benennt man die Benchmark-Datei um, sackt das Ergebnis wieder deutlich hinter einer Radeon X800 XT zurück.

Damit scheint sich die unsägliche - und für alle Seiten schädliche - Diskussion "Treiber-Betrug versus Benchmark-Optimierungen" neu zu entfachen..."

http://www.gulli.com/news/15674-nvidia-gtx-590-stirbt-bei-oc-durch-treiberfehler-2011-03-26

http://www.heise.de/newsticker/meldung/Nvidia-Grafikchips-mit-Lebensdauerproblemen-Update-185737.html

http://www.theinquirer.net/inquirer/news/1048824/nvidia-cheats-3dmark-177-drivers

http://www.geek.com/games/futuremark-confirms-nvidia-is-cheating-in-benchmark-553361/

Und einiges hiervon kann man auch noch anreihen: http://www.heise.de/newsticker/meldung/Kommentar-Nvidias-schmutzige-Kartentricks-2529523.html

Und ich glaube die Liste könnte auch noch viel weiter geführt werden.
 
Zuletzt bearbeitet:
Übersehe ich etwas, oder fehlt der IMO interessanteste Monitor in der Auflistung. Der Asus MG279Q hat 27", IPS, 120 Hz und eine Auflösung von 2.560 × 1.440 Pixel.
 
Auch aus dem Link nochmals deutlich bestätigt:
Laut Robert Hallock gebe es seitens AMD keine Richtlinien für FreeSync-Displays: Solange ein Monitor die Anforderungen für DisplayPort 1.2a+ einhalte, würde dieser mit einer variablen Bildrate arbeiten. Minimale und maximale Frequenz würden dabei über die Extended Display Identification Data (EDID) des Displays bestimmt.
 
Daedal schrieb:
Unsinn - warum sollte ein zusätzlicher DVI oder HDMI Anschluß die Leistung des Monitors verschlechtern?
Was spricht dagegen auch eine Videokamera oder ein anderes zusätzliches Abspielgerät anzuschließen ausser einer GPU? Und die Auflösung funktioniert auch mit Dual-DVI. Monitore sind Multi-Funktions-Geräte und das Argument "nur für Gamer" lediglich dadurch zu begründen, dass man Funktionen ohne Grund weg lässt, hört sich für mich nach Bauernfängerei an. Das hört man im Media Markt vielleicht.

Und im Media Markt hörst du vermutlich auch, dass du den Monitor mit HDMI und DVI auf 2560x1440 BEI 144 HZ betreiben kannst. Wer sich einen 2560x1440 Monitor mit 144 HZ kauft, was genau möchte die Person?

1. 2560x1440
2. 144 HZ

Und WELCHER Anschluss kann beides zusammen? Asus hat nicht aus gutem Grund DVI/HDMI weggelassen, wer auf eine der 2 Sachen verzichtet braucht sich so einen teuren Monitor nicht zu kaufen.

Und wenn ich mich recht erinnere gab es doch zig Beiträge zu den Korea Displays, dass mit mehr Anschlüssen auch der Input Lag steigt. Wozu also die Platine unnötig fordern mit HDMI/DVI wenn das ein Gerät ist, dass man eh nur über DP anschließen sollte, weil man sonst nicht alle Features nutzen kann. 500-700€ für ein Gerät was man sich kauft weil Freesync + 1440p@144hz und dann DVI/HDMI?

1. FreeSync: Nur Nutzbar über DP 1.2a
2. 2560x1440 @ 144hz: Nur über DP

Das sind nunmal die einzigen 2 Gründe mehr Geld in die Hand zu nehmen, als für vergleichbare TN Monitore mit 1080p@120/144hz oder 1440p@60hz. Wer jetzt noch meint, dass es doch super toll ist, dass der auch noch nen HDMI/DVI Anschluss braucht, der betreibt Bauerfängerei, wer 600€ für nen Gamer TFT ausgibt wird wohl auch das Geld für nen 40" TV haben und der kostet 200€ weniger, das wär für mich der einzige Nachvollziehbare Grund (Noch als TV benutzen)


edit: Korrigiert mich bitte wenn ich falsch liege, aber beim ROG hieß es doch damals, dass 1440p@144hz nur über DP möglich sind?
 
Zuletzt bearbeitet:
gunmarine schrieb:
1. 2560x1440
2. 144 HZ

Und WELCHER Anschluss kann beides zusammen? Asus hat nicht aus gutem Grund DVI/HDMI weggelassen, wer auf eine der 2 Sachen verzichtet braucht sich so einen teuren Monitor nicht zu kaufen.
Interessante Theorie. Aber DVI/HDMI wird sonst praktisch nie weggelassen, nur bei G-Sync-Monitoren machen sie es.

Der bislang einzige G-Sync Monitor mit DVI/HDMI erfordert ein umständlich erscheinendes Umschalten zwischen G-Sync- und "Classic"-Modus. Im G-Sync-Modus funktioniert nur der DisplayPort, im Classic-Modus nur DVI/HDMI.

Der tatsächliche Grund für das fehlende DVI/HDMI wird vielmehr sein, dass das G-Sync-Modul immer noch nur DisplayPort kann.
 
Der Grund warum GSync keine anderen Anschlüße kann, ist dass Nvidia Platz in der Datenleitung brauchte die der DP 1.2a bietet aber der DP 1.2 nicht. Dafür mussten die Bandbreiten für mögliche andere Anschlüße geopfert werden sowie weitere Steuermöglichkeiten des Bildes wie BenQ es deutlich formuliert hat bei der Beschreibung ihrer Hybrid-Engine:
http://gaming.benq.com/gaming-monitor/xl2420g
NVIDIA’s latest G-SYNC revolution requires monitor manufacturers to replace their scalar with a G-SYNC, trading in the freedom to scale settings like input frame, color hue, intensity and contrast for pure speed and smoothness of the game. With the best efforts of our R&D champions, we’ve found a way to keep your options open with the world’s first hybrid engine design. So you are in control of matching your choice of gameplay.
Zudem würde ich sagen, dass AdaptiveSync bei 60 Hz das bietet warum Leute heute 144 Hz kaufen bei synchronem Wiederholraten - ein ruhiges und flüssiges Bild ohne Tearing...deutlich günstiger und das geht auch mit Dual-DVI@60 Hz. Mehr GHZ waren auch zu P4 Zeiten nicht mehr Spaß. Ein AdaptiveSync Monitor ist am besten ausgelastet zwischen 40 und 60 FPS für ein flüssiges Bild.
 
Zuletzt bearbeitet:
Nilson schrieb:
Also Computerbase:

Besorgt euch einen (und hohlt den G-Sync ausm Keller ;)) und stellt sie nebeneinander. Mal gucken ob FreeSync mit dem "proprietäre G-Sync Müll" mithalten kann oder gar besser ist.
Preislich liegen sie recht ähnlich. Der ACER G-Sync hat auch bei 499 € angefangen.

Also zwei mal ACER her, dann kann man wohl am besten vergleichen.

Die Treiber unterstützen Free-sync noch nicht... -.-
 
BeezleBug schrieb:
...obwohl du ja anscheinend fundierte Tests zu schätzen weisst :)
Das sind die ersten Kisten die verfügbar sind, keiner hat so ein Ding Zuhause stehen, also mal locker durchatmen.
Eigentlich schätzt doch jeder fundierte Tests & ich halte das für völlig normal.^^
Sooo, die Hardware ist jetzt endlich mal am Start & jetzt fehlt halt nur noch ein entsprechender GPU-Treiber ... :lol:
 
BeezleBug schrieb:
Im TV Geschäft gibt es nur zwei relevante Hersteller? bitte was...:freak:.

Der Inhalt der Klammer bezieht sich auf die Grafikkarten Hersteller. ;)

Wenn meine Ausführungen nicht objektiv sind, kannst du ja mal beweisen (!) warum wir nur noch AMD und NV haben. ;)
 
Zurück
Oben