News Erste FreeSync-Monitore sind lieferbar

Aha und AMD hatte die Mehrheit bzw soviel Einfluss auf die anderen Mitglieder der VESA das sie als Adaptive Sync durchgeboxt haben? :rolleyes: Armes nvidia konnte es nicht verhindern... Ja :rolleyes:
Lustigerweise wurde nvidia ja schon seit Jahren empfohlen mit der Begründung sie würden ja was für die Spieler tun.. :rolleyes:

Und natürlich ist AMD ein gewinnorientiertes Unternehmen, aber wenn es den Weg einschlägt und sein Feature als Industriestandard per VESA durchboxen will, so profitieren wir Kunden davon am meisten. Und das interessiert mich als Kunde, das ich mich nicht auf einen Hersteller festlegen muss, nur weil dieser seinen Willen (an mein Geld zu kommen) durchsetzen will.

Das nvidias Lösung zuerst da war, ist ja schön und gut. Böse Zungen behaupten das AMD seinen Vorschlag bei der Vesa eingereicht hat und nvidia, als Mitglied dadurch auch Einblick, die Entscheidung nicht abgewartet hat, sondern es als proprietäre Lösung mit DRM Modul raugebracht haben.
Das nvidia es plötzlich nämlich bei Notebooks ohne G-Sync Modul kann ist doch schon überraschend, oder?
 
Was Böse Zungen behalten ist mir gleich, ich halte mich an das was ich über dem Tisch hängen habe.

Was andere anderen empfehlen ist mir auch schnurz, da ich zeitgleich NV + AMD Karten nutze und beide Firmen kritisch sehe aufgrund von aktueller oder vergangener Verfehlungen.

Matze051185 schrieb:
völliger blödsin

adaptive sync gab es schon viel früher im mobilen markt und das hat auch nicht amd erfunden

Bitte den Wortlaut beachten:
NV war mit seiner Lösung vorher am Markt, sprich kaufbare Produkte.

Das bedeutet nicht das man das Prinzip/die Technik erfunden hat.
 
Zuletzt bearbeitet:
akuji13 schrieb:
Bitte den Wortlaut beachten:
NV war mit seiner Lösung vorher am Markt, sprich kaufbare Produkte.

aber eben nur wenn es um desktop monitore geht

in notebooks kann mann diese technik schon lange kaufen und dort funktiorniert die auch mit nvidia
 
Da das Thema "Erste FreeSync-Monitore sind lieferbar " lautet sollte der Zusammenhang klar sein. ;)

Das wichtigste bleibt dennoch:

Wo bleibt mein LG? :D
 
Zuletzt bearbeitet:
Marco01_809 schrieb:
@Lübke82:
Hast du dazu mal ne Quelle?

vincez schrieb:
Die gesuchte Quelle ist gamenab.net. Zur Zeit auf "privat" geschaltet und nicht einsehbar.
Auf Deutsch: [Update] GSync als grosser Bluff entlarvt - Nvidia nutzt AdaptiveSync der VESA für GSync
PCPer hat nun das funktionieren von Gsync ohne ein GSync Modul bestätigt. Ausführliche Tests und Erläuterungen:
http://www.pcper.com/reviews/Graphic...d-Alpha-Driver
Ebenso hat Nvidia mit den Testergebnissen konfrontiert bestätigt, dass Gsync auf Notebooks kein Gsync-Modul benötigen wird.
Und dazu dann gleich das aktuelle GSync Thema:
NVIDIAs Vorzeigemodell ASUS ROG PG278Q mit G-Sync schwächelt - viele frühe Defekte (Update)

akuji13 schrieb:
Warum sollte G-Sync verschwinden?
Weil es unnötige Kosten verursacht bei den Herstellern von Monitoren, ohne irgendeinen Nutzen zu haben. Im Gegenteil BenQ baut zwei Scaler ein um überhaupt rudimentäre Monitor-Standard-Funktionen zu erfüllen die das GSync Modul nicht unterstützt. Und die Qualitätsprobleme des Moduls sind scheinbar deutlich höher als der Industriestandard.

akuji13 schrieb:
Bitte den Wortlaut beachten:
NV war mit seiner Lösung vorher am Markt, sprich kaufbare Produkte.

Das bedeutet nicht das man das Prinzip/die Technik erfunden hat.
Das stimmt - nur schneller heisst nicht auch besser. Hier hat Nvidia tief in die Scheisse gelangt - schon wieder. Da scheint einiges derzeit aufzufliegen wo geschlampt wurde.
 
Daedal schrieb:
Weil es unnötige Kosten verursacht bei den Herstellern von Monitoren, ohne irgendeinen Nutzen zu haben.

Die man sich vom Kunden bezahlen lässt.

Wenn man so argumentiert müsste 3DVision schon lange weg sein...ist es aber nicht.
 
Die bezahlt nicht nur der Kunde der einen GSync-Monitor kauft, sondern oftmals derjenige der das Konkurrenz-Produkt kauft. Wenn Ein Preisniveau für eine Funktion mal etabliert ist, dann interessiert sich der Händler (Und auch der Monitorhersteller) nicht so schnell dafür einen Preisvorteil beim Einkauf weiter zu geben. Schau dir mal grundsätzlich Preise in Deutschland an im Vergleich zu anderen Ländern. Hier hat der Hersteller einer GPU keinen Einfluss darauf was die Monitor-Hersteller verlangen. Doch Nvidias Aktion hat auf jeden Fall das Preisniveau für Monitore gehoben - unnötig wenn man gewartet hätte bis alle Hersteller mit den aktualisierten eDP Panels an den Markt kommen.

3DVision kostet ja keinen Aufpreis auf einem Drittgerät das eigentlich gar nicht benötigt wird.

Übrigens kommt es nicht von ungefähr, dass es keinerlei Neuankündigungen gibt mit GSync. Samsung und LG sind die einzigen Panel-Hersteller. Sie beliefern alle die anderen Monitor- und TV-Hersteller mittlerweile. Keiner von beiden wird jemals ein GSync-Produkt releasen, darauf würde ich Wetten eingehen. ;) Ich denke auch kein anderer wird dies tun - auch nicht BenQ, die mit ihrer Hybrid-Engine teilweise die Schwäche der GSync-Module reduziert haben.
Ergänzung ()

akuji13 schrieb:
Die man sich vom Kunden bezahlen lässt.
Geldeintreiber für Nvidias Fake-Lizenz-Modell? Wer macht das ohne Nutzen für sich selbst und beschädigt seinen Ruf womöglich noch damit? Man muss ja mal nur schauen was der GTX970-Skandal für einen Imageschaden für Mindfactory verursacht hat. Hier ist ASUS schon voll im Fadenkreuz mit seinem ROG.
 
Zuletzt bearbeitet:
Daedal schrieb:
Doch Nvidias Aktion hat auf jeden Fall das Preisniveau für Monitore gehoben - unnötig wenn man gewartet hätte bis alle Hersteller mit den aktualisierten eDP Panels an den Markt kommen.

Ist die Frage ob das Preisgefüge nicht sowieso zu niedrig war.

Wenn ich mir den TV oder Grafikkartenmarkt anschaue (wo es nur noch 2 relevante Hersteller gibt) hat der Wunsch der Kunden nach immer weiter sinkenden Preisen keine guten Auswirkungen gehabt.

Vielleicht reichten die Margen einfach nicht mehr aus.

Das Monitorhersteller solche Gegenheiten nutzen um ihre Produkte selber teurer zu machen muss man immer noch denen ankreiden, nicht NV.
 
Aus der PCPer Quelle von Daedal:
First up was to load the GPU down a bit more and see what happens at lower frame rates. This laptop was equipped with a 1080p display, making that a bit difficult but not impossible. As we turned the various dials within our benchmarks and games, we were quickly reminded why that extra PCB inside every G-Sync panel is more than just a marketing module
​Das war genau das, was ich in Erinnerung hatte.
 
Ohne die korrekten EDID Daten des Panels kann man auch keine optimalen Ergebnisse erwarten. Der "gehackte" Treiber hat ein Standard-EDID File eines GSync Monitors imitiert und im Treiber hinterlegt. Dort wurde auch das GSync-Prüf-Flag deaktiviert/aktiviert.
Ergänzung ()

akuji13 schrieb:
Ist die Frage ob das Preisgefüge nicht sowieso zu niedrig war.
Das entscheidet der Markt und nicht Nvidia - solche Ausreden sind dann der letzte Strohhalm? Und was bringt das dem Kunden?
Es gibt doch hochwertige Monitore mit entsprechendem Käuferkreis - muss der Billig-Massen-Ramsch nun zu Businesspreisen zur Gewinnmaximierung der Unternehmen unter die Leute?
Ergänzung ()

akuji13 schrieb:
Das Monitorhersteller solche Gegenheiten nutzen um ihre Produkte selber teurer zu machen muss man immer noch denen ankreiden, nicht NV.
Sicherlich, doch auch nicht AMD nach dem Motto "Ich dachte Freesync kostet keinen Aufpreis - ätschi bätschi" wie das so mache der grünen Fraktion hier verbreiten möchten.
 
Zuletzt bearbeitet:
Daedal schrieb:
Das entscheidet der Markt und nicht Nvidia - solche Ausreden sind dann der letzte Strohhalm? Und was bringt das dem Kunden?

Und wie der "Markt" entschieden hat bei den GPU´s. :rolleyes:

Das bringt es dem Kunden: keine Wahl mehr zu haben...es bleibt nur die Entscheidung zwischen Tod & Teufel.

Daedal schrieb:
Sicherlich, doch auch nicht AMD nach dem Motto "Ich dachte Freesync kostet keinen Aufpreis - ätschi bätschi" wie das so mache der grünen Fraktion hier verbreiten möchten.

Und mache der roten Fraktion machen es anders herum. ;)

Ich habe auch nie verstanden wieso man für extra features nicht extra bezahlen soll. :confused_alt:

Als gleichzeitiger Nutzer von AMD & NV kann ich derartige Auswüchse sowieso nicht verstehen, beide Firmen wollen mir nichts Gutes sondern nur mein Geld.
 
Zuletzt bearbeitet:
Ich war auf den 29" Zoll LG 29UM67-P!

Ultra-Wide ist einfach klasse für Rollenspiele und Simulationen wie Star Citizen.

Dazu hat er 75 Hz und ein klasse P/L Verhältnis!

Fehlt nur noch die R9 390X
 
akuji13 schrieb:
Und AMD als armes kleines Opfer das nur um das Wohl der Zocker besorgt ist darzustellen ist naiv. ;)
Das ist ebenso wie NV ein knallhart agierendes Unternehmen dem wir völlig egal sind.

AMD macht grundsätzlich einen sympathischeren Eindruck als Nvidia.
Lese hier öfters ähnliche Kommentare wo behauptet wird "AMD hat bestimmt auch Leichen im Keller!", aber konkrete Fälle hat bisher keiner aufgezeigt.

BTT:
Hab hier 3 Monitore von LG stehen (Sig) der Acer würde sich vom Design perfekt in die Gruppe einfügen, dann könnte ich den mittleren Monitor wieder los werden. Das einzige Problem ist, dass der Acer laut Cyberport 450mm hoch ist, meine LGs sind etwa 446mm hoch, aber zum Glück bin ich PCGH-Abonnent und die Magazine sind etwa 4mm dick. Ihr wisst worauf das hinausläuft. :p
Hatte damals 2 TNs von BenQ (GL2450HM) und kann mich nicht daran erinnern dass diese schlecht waren. Das Argument mit den Blickwinkeln halte ich für ziemlich lala, da ich eh direkt vor dem Monitor sitze.
Und die Farben vom IPS? Naja, ich hatte eine Diskussion mit einem Freund und er plädierte vehement auf IPS wegen der "echten" Farben. Er meinte TNs sind nur eine gute Wahl bei Spielen aber für Bildbearbeitung absolut untauglich.
Da mag er ja recht haben, aber leider spiele ich nur mit dem PC...
Echte Farben jucken mich nicht solange rot rot ist und blau blau, das einzig wichtige Kriterium ist noch, dass meine Monitore für Eyefinity die gleichen Farben anzeigen, denn wenn die unterschiedliche Farbstiche haben, dann fällt das schon regelmäßig auf.
 
Als Hersteller darf man natürlich mehr Geld verlangen für Extra-Features.
Das hätten sicherlich auch die Monitor-Hersteller gemacht mit AdaptiveSync wenn niemals GSync raus gekommen wäre. 30,- € Aufpreis für ein solches Feature und der Markt reguliert selber ob identische Monitore ohne es dann billiger sind.

Nur wenn ein GPU-Hersteller dann ein Modul für 150,- $ dafür will und dann auch noch Lizenzgebühren, dann bleibt der höhere Gewinn bei Nvidia und nicht bei dem Hersteller, so wie bei dem Freesync-Monitor der nun 50,- € zwar billiger zu haben ist als der eingeschränkte GSync-Monitor, doch immer noch 100,- € teurer als er es gewesen wäre ohne. Der Kunde hat nix davon, der Hersteller hat nix vom GSync-Monitor und die Freesync-Margen sind höher als sie es gewesen wären. Also warum sollte man noch GSync-Module einkaufen und Lizenz dafür zahlen um damit weniger Marge zu haben und mehr Arbeit bei Herstellung und Support der Monitore?
 
Zuletzt bearbeitet:
Was mich mal interessieren würde: Was für Panels sind denn verbaut?

Der ROG punktet ja mit einem 8 Bit TN, was für mich letztendlich auch einer der Gründe war 700€ da rein zu stecken. Dann ist die nächste Frage natürlich, wie sieht es mit dem Input Lag aus...Asus hats meiner Meinung nach richtig gemacht und einfach nur auf DP gesetzt, wofür braucht man DVI/HDMI bei 2560x1440 mit freesync das DP vorraussetzt? das sind alles überflüssige funktionen, die die Leistung des Monitors verschlechtern können (jedoch nicht zwangsläufig müssen)
 
gunmarine schrieb:
as sind alles überflüssige funktionen, die die Leistung des Monitors verschlechtern können (jedoch nicht zwangsläufig müssen)
Unsinn - warum sollte ein zusätzlicher DVI oder HDMI Anschluß die Leistung des Monitors verschlechtern?
Was spricht dagegen auch eine Videokamera oder ein anderes zusätzliches Abspielgerät anzuschließen ausser einer GPU? Und die Auflösung funktioniert auch mit Dual-DVI. Monitore sind Multi-Funktions-Geräte und das Argument "nur für Gamer" lediglich dadurch zu begründen, dass man Funktionen ohne Grund weg lässt, hört sich für mich nach Bauernfängerei an. Das hört man im Media Markt vielleicht.
 
BiA Master schrieb:
AMD macht grundsätzlich einen sympathischeren Eindruck als Nvidia.
Lese hier öfters ähnliche Kommentare wo behauptet wird "AMD hat bestimmt auch Leichen im Keller!", aber konkrete Fälle hat bisher keiner aufgezeigt.

Qualität des anisotropen Filters bei ATi geändert - ComputerBase

Bericht: Versteckspiele bei ATis Texturfilter - ComputerBase

Mein Klassiker ist allerdings das hier:
https://www.youtube.com/watch?v=BYzPQ78GzfA

Z. B. bei 0:59 wo man (gemeinsam mit Crytek) aus der 32-bit Fassung von Far Cry den Deckenventilator entfernt hat oder in anderen Szenen Lampen um die eigenen 64-bit CPU´s zu puschen.

Und später felsenfest behauptete das würde auf 32-bit so schlecht laufen das man es dafür nicht freigeben könnte....seltsam das die von moddern bereitgestellte Fassung dann überall problemlos lief.

Habe das Video noch in besserer Quali zu Hause.

Großunternehmen und Sympathie sind 2 Dinge die mMn nie zusammenpassen.

Daedal schrieb:
Also warum sollte man noch GSync-Module einkaufen und Lizenz dafür zahlen um damit weniger Marge zu haben und mehr Arbeit bei Herstellung und Support der Monitore?

Scheinbar muss es sich ja lohnen wenn es noch Modelle gibt und selbst jetzt noch G-Sync Modelle erscheinen.
 
Zuletzt bearbeitet:
Tag,


BiA Master schrieb:
AMD macht grundsätzlich einen sympathischeren Eindruck als Nvidia.
Lese hier öfters ähnliche Kommentare wo behauptet wird "AMD hat bestimmt auch Leichen im Keller!", aber konkrete Fälle hat bisher keiner aufgezeigt.
Da hast Du Recht. AMD ist hier vorbildlicher. Schade nur, dass Nvidia seit längerem die attraktiveren Produkte für mich persönlich bietet. Mehr Leistung mit geringerer Wärmeabgabe z.B.

akuji13 schrieb:
Großunternehmen und Sympathie sind 2 Dinge die mMn nie zusammenpassen.
Deine Beispiele sind alle schon einige Zeit her. Die Marke ATi wurde vor fünf Jahren aufgegeben. FarCry ist meines Wissens aus dem Jahre 2007 (edit: 2004, hatte es gerade mit Crysis verwechselt).
Klar ist auch AMD nur ein profitorientiertes Unternehmen, aber das Image gefällt mir trotzdem besser.

Zum Thema wurde bereits alles gesagt. Es heißt abwarten was die Tests zeigen.
Der Inhalt der News ist allerdings etwas wiedersprüchlich. In der Tabelle werden dem Acer XG270HU 23 W Leistungsaufnahme im Betrieb bescheinigt. Im Text dazu liest sich: "Die typische Leistungsaufnahme im Betrieb beträgt 42 Watt."


Gruß
KiofQu
 
Zuletzt bearbeitet: (inhaltiliche Fehler korrigiert)
Zurück
Oben