News UHD-Monitore mit 144 Hz: Neues G-Sync-Modul treibt Preise in die Höhe

2000 Euro? für einen Monitor? Die haben wohl den Verstand verloren?
 
cryoman schrieb:
2000 Euro? für einen Monitor? Die haben wohl den Verstand verloren?
Ne, noch schlimmer. 2000 Euro für einen Monitor mit hörbarem Lüfter.
 
Palmdale schrieb:
Selbstverständlich habe ich den Beitrag gelesen, sonst würde ich nicht antworten. Denn "Markige Worte" ließen irgendwie darauf schließen, dass Du etwas anderes von Nvidia erwarten würdest.

Ich bitte um Erläuterung. Nvidia bringt eine Karte, welche auf die Ti nochmals gefühlt 20-30% drauf packt, welche selbst bereits im CB Benchmark 29% gemittelt vor der Vega64 Strix liegt. Was also hat das mit Fanboy Gequatsche zu tun, wenn man schlicht erwähnt, dass vor wohl 2H 2019 nichts von AMD über die Vega64 hinaus geht, wenn nach Deinen Worten bereits die 1080Ti nicht für 4K reicht?! Was also machen die 4k Freesync Besitzer?
Ich persönlich erwarte von Nvidiakarten fast garnichts. Durch meine Freesyncmonitore erwarte ich eigentlich nur eine Unterstützung von Freesync. Aber das ist leider Wunschdenken.

Hier geht es immer noch um den Bildschirm. Weder Nvidia noch AMD können zuverlässig 4K 144Hz anzeigen ohne massiv die Detail zu ändern. Nvidia hat so gerade die 4K 60Hz möglich gemacht. AMD ist da noch deutlich hinter, dennoch können beide Hersteller noch nichts liefern.
Ziel nicht erreicht, ist Ziel nicht erreicht! Ob man 50% der Strecke erreicht hat oder 80%.

Und es tut mir leid, anscheinend habe ich mich für das falsche Ursprungszitat entschieden. Denn im Ursprungsbeitrag kam quasi kein FanboyVergleich von Nvidia/AMD vor. Der aktuell zitierte Beitrag war auch nicht auf das eigentlich Zitat gemünzt sondern auf manche Threadbeträge.

Es ging mir vorallem darum, dass es bei einem 4K 144hz Monitor vollkommen Wurst ist, welche Synctechnologie benutzt wird. FanboyVergleiche zwischen AMD&Nvidia sind in dem Thread vollkommen deplaziert.
 
Whiskey Lake schrieb:
Wozu Rechenleistung?
Bei Adaptive Sync muß kein verschlüsseltes Signal entschlüsselt werden!


So Teuer ist ein Scaler sicher nicht.

Das sagt wer? Wer sagt dass ein Scaler (danke für da Wort mir ist es einfach nicht eingefallen ...) der all das kann nicht auch sehr teuer ist? Er muss ja Freesync mit 30-144hz, @UHD, @HDR 4:4:4 beherschen. Es gibt schlicht keine Zahlen dazu. Ich wäre Dankbar wenn PCGH da mal mehr recherchieren könnte bei den Herstellern. Bis jetzt liest sich das wieder wie NV Bashing analog zu div. NDA Themen.
 
AYAlf schrieb:
G-Sync Monitore kosten im Schnitt 150,- € mehr also die Konkurrenz und haben einen starren Standard, wobei bei FreeSync der Hersteller die Werte variieren kann.

Da muss man sich jetzt fragen was besser ist. Ein "starrer" Standard mit Vorgaben für die Hersteller damit sie nicht den wirklich allerletzten Rotz in den Monitor bauen um möglichst billig produzieren und möglichst teuer verkaufen zu können (was sie ja eh machen), oder ob man sagt "Macht was ihr wollt solange Adaptive Sync geht", und man dann so Schätzchen zu kaufen bekommt wo entweder gar keine FreeSync Range im Produktdatenblatt drin steht, sondern nur dass es geht, oder sowas wie ne Sync-Rate von 48 bis 60 Hertz. Ein 12 Hertz Funktionsfenster zu treffen ist nicht sehr leicht.

AYAlf schrieb:
Wer bei Grafikkarten zu nVidia greift, hat entweder sehr viel Geld oder ist "hart im nehmen". Logisch ist ein nVidia kauf schon lange nicht mehr, das ist mittlerweile nur noch eine Religion.

Es ist nicht logisch Karten zu kaufen die das Beste Preis / Leistungs / PerfProWatt Verhältnis haben?
Dann handeln 70 bis 80 Prozent der Käufer dedizierter Grafikkarten also unlogisch oder religiös motiviert?
Vielleicht sollte nVidia sich dann als Kirche eintragen lassen. Als Kirche kann man super Steuern sparen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SavageSkull
Dafür muß man nur verstehen, wie G-Sync funktioniert, bzw. was der eigentlicheUnterschied zu Adaptive Sync ist!
 
Danke für den Hinweis im Bericht, dass die Ergebnisse diese ganzen Aufwands zumindest auf dem Panel sichtbar sind. So besteht Hoffnung, dass wir in Zukunft alles auch günstiger, effizienter und schlanker hinbekommen.

Als es das Thema HD in Deutschland noch nicht gab, stand ich mal mit Freunden bei Harrods in London vor einem Full-HD TV für 10.000 GBP. Das Bild war sensationell und ich konnte es nicht erwarten, das irgendwann auch im eigenen Wohnzimmer zu erleben. Daran muss ich bei Innovationen immer denken. So hält die Vorfreude länger an..
 
projectneo schrieb:
Das sagt wer? Wer sagt dass ein Scaler (danke für da Wort mir ist es einfach nicht eingefallen ...) der all das kann nicht auch sehr teuer ist? Er muss ja Freesync mit 30-144hz, @UHD, @HDR 4:4:4 beherschen. Es gibt schlicht keine Zahlen dazu. Ich wäre Dankbar wenn PCGH da mal mehr recherchieren könnte bei den Herstellern. Bis jetzt liest sich das wieder wie NV Bashing analog zu div. NDA Themen.

Und genau hierin liegt das Problem. AMD hat bis heute ihren "Standard" nicht weiter spezifiziert, während Nvidia alles auf Maximal setzt (HDR 1000 etc.).

Deswegen steht es zu Befürchten, dass der gleiche Quark wie bei einem Großteil der Freesync 1 Monitore entsteht. Nur weil die Lizenz gratis ist, wirds halt aus Marketing Gründen drauf geschrieben. Der Kunde zuhause wundert sich dann über den fehlenden Effekt bei Spannen von zB 12hz.

Ganz davon ab kann man es wohl absolut ausschließen, dass Nvidia in absehbarer Zeit adaptive sync unterstützt und in gleichem Atemzug G-sync aussetzt. Sicherlich kann man anderer Meinung sein und sich das wünschen, doch die Wirtschaft ist kein Ponyhof und betriebswirtschaftlich wäre das einfach dumm.
 
dass Nvidia in absehbarer Zeit adaptive sync unterstützt und in gleichem Atemzug G-sync aussetzt.
Hat das jemand so behauptet?

Natürlich würden sie G-Sync nicht sobald man Adaptive Sync unterstützt einstellen, zumindest nicht sofort.
 
Das eine ergäbe zumindest ohne das andere wenig Sinn, und ich zielte jetzt nicht auf einige Monate Übergangszeit ab.

Wenn sich perspektivisch AMD in Richtung Unbedeutend entwickelt (bezogen auf die Relevanz im Gaming Markt) wäre es wie erwähnt schlicht absurd anzunehmen, dass G-sync fällt. Und wenn G-sync nicht fällt, gibt's kein adaptive sync, was wiederum freesync hinten runter fallen lässt.

Ich zumindest würde mich durchaus bei AMD melden, sie mögen mal aus der Hüfte kommen, wenn man sich schon als Kämpfer für die Gamer Szene anbiedert (join the Revolution...) und dann nicht liefert
 
Whiskey Lake schrieb:
Natürlich würden sie G-Sync nicht sobald man Adaptive Sync unterstützt einstellen, zumindest nicht sofort.
Im Grunde genommen tun sie das ja schon längst bei den Laptops. Da verwenden sie kein GSync Modul sondern nutzen den VESA-Standard, nennen das Ganze aber weiterhin GSync.
Das Feature nennen sie also immer GSync, vollkommen unabhängig davon, wie es technisch implementiert wird.
 
SavageSkull schrieb:
AMD tut auch ALLES aus Geldgier. AMD ist kein Robin Hood.

Ich verstehe nicht was den Unterschied macht, Darth Vader war am Ende irgendwie auch doch ganz dufte, bevor er starb, ob nun die Firmen eine Marktbeherschende Stellung oder Menschenfreude zum richtigen Handeln bewegt ist fuer mich 2. rangig die Frage ist was man tut.

Es gibt ja forschung die der Meinung ist das wir alles nur Egoisten sind, das ist ne philosophische Frage. Fakt ist sie handeln zum Schaden aller Nutzer besonders ihrer Kunden.

Sie koennten ja ihre Spielchen machen und wenn GSync so super toll ist wird es sich ja auch durchsetzen wenn es so viel besser ist und halbwegs bezahlbar ist. Das sie aber die im Treiber vorhandene Adaptive Sync Unterstuetzung fuer Notebook panels bei normalen Monitoren per Software aus schalten. Zeigt das sie den Kunden ZWINGEN wollen Gsync hardware zu kaufen.

Das ist böses Handeln, ob nun Amd gut handelt weil sie Menschen lieben oder sie dazu gezwungen werden ist doch völlig irrelevant.

Und so kann ich das nicht ganz bestaetigen, AMD hat als erstes nachdem sie ATI aufgekauft haben, Spezificationen und Code frei gegeben um unter Linux einen offenen Treiber an zu bieten. Voellig Uneigennuetzig wird der Move auch nicht sein, aber der Nutzen kann andersrum auch nicht extrem hoch sein, sonst waeren die Verkaufszahlen im Vergleich zu Nvidia ja nicht so schlecht. Es bringt ihnen nicht wirklich viel, kann man sagen verkalkuliert, aber sie koennten jederzeit die Entwicklung daran einstellen und nichts weiteres mehr veroeffentlichen, sie tun das aber seit zig jahren und stellen hin und wieder sogar zusaetzliche Leute ein.


SavageSkull schrieb:
Damit allein kann leider niemand etwas anfangen, weder der GPU Anbieter, noch der Grafikkarten Hersteller, noch der Monitorhersteller und schon gar nicht der Endkunde.
Darauf hin hat AMD den proprieäteren Standard "FreeSync" definiert.

Das sieht aber z.B. Philips anders
https://www.philips.de/c-p/436M6VBPAB_00/momentum-4k-hdr-display-mit-ambiglow/technische-daten

Freesync soweit ich das verstehe besteht aus 3 Teilen:
1. ein Markenname
2. die implementierung auf Grafikkartenseite
3. man kann es sich kostenlos als Name lizensieren, so das ein Monitor der Apaptive Sync knan in die Specs noch Adaptive Sync/AMD Freesync dazu schreiben kann.

Es mag sein das Amd mit Freesync 2 oder so irgend nem neueren Displayport Standart vor greift, da ne Firma schneller agieren kann wie ein Gremium das Standarts definiert, aber das widerspricht nicht dem prinzip von offenen Standards. Es war auch bei Opengl immer ueblich das die Hersteller eigene Erweiterungen erst Herstellerspezifisch umsetzten, das entscheidende war dann das sie es so gemacht haben das es wieder in den Standart wandern konnte.

Damit magst du rein technisch vielleicht recht haben, proprietaer ist kein anderes Wort fuer Herstellerspezifisch, es definiert auch das etwas durch massnahmen vom "kopieren" geschuetzt ist, entweder durch Recht oder durch technische Massnahmen, sprich keinen Sourcecode zugriff keine spezifikationen etc.

Amd laedt aber zum kopieren ein, nur der Markenname ihrer Implementation muss man sich lizensieren lassen, da muss man den Begriff proprietaer schon sehr weit aus legen um das als "proprietaer" zu nennen.

Wie koente es AMD NOCH besser machen nach deiner idee? immer erst vormachen wie es gehen sollte dann erst 1-5 Jahre warten bis Vesa das raus bringt, und dann die Monitore nach dem Standart bauen?

So entstehen in der Realen Welt nie Standarts die werden sich nicht am Reisbrett ausgedacht, erst gibt es implementationen (die dann noch nicht Vesa Adaptivesync heissen koennen weils den Standart noch nicht gibt) und dann wenn es da ist und schon verkauft wird und natuerlich schon unter nem anderen Namen verkauft wird, wird es sofern die Hersteller das wollen Standardisiert.

Ist Libreoffice oder Openoffice proprietaer oder hatte nen proprietaeren Standart weil sie ODF schon benutzt haben bevor er OSI Standart wurde?

Versteh die Logik echt nicht.
 
Marcus Hax0rway schrieb:
Ne, noch schlimmer. 2000 Euro für einen Monitor mit hörbarem Lüfter.
+Pixelfehler und Staub^^
 
blackiwid schrieb:

Philips macht es sich hier so einfach wie es geht und so unschön für den Kunden wie es geht. Was soll uns dieses Beispiel zeigen?

- Philips sagt, dass der Monitor Adaptive Sync kann. Sie sagen nicht in welcher Range.
Weder auf dieser Seite, noch im Datenblatt zum Downloaden, noch in Händlershops
- Philips sagt, dass das Display DisplayHDR1000 zertifiziert wird. Sie sagen nicht ob es dann mit Freesync2 funktioniert
- Generell haben sie mit FreeSync(tm) von AMD nichts am Hut. Anscheinend dürfen sie den Namen nicht benutzen

EDIT:
Einzig auf PCGH kann man folgendes zu Sync nachlesen:
Philips nennt eine Adaptive-Sync-Unterstützung. Das heißt, der 436M6VBPAB unterstützt Freesync, wurde aber nicht von AMD zertifiziert. Die Freesync-Spanne des Ultra-HD-Monitors liegt bei 48 bis 60 Hertz, was leider alles andere als hoch ist.

Muss man aber auch erstmal finden, bzw. suchen. Viele Techseiten sind mittlerweile total unkritisch geworden und feiern allein die Tatsache dass Adaptive Sync unterstützt wird, aber eben nicht wie.

Inwiefern hilft dieses Beispiel nun dem Kunden weiter? Wie soll er bewerten ob das Display für ihn (synctechnisch) im Frage kommt. Arbeitet es beispielsweise mit der XBox One zusammen?

Ich denke das ist das Hauptproblem von Adaptive Sync, und ich glaube das ist auch was SavageSkull sagen wollte. Einen Standard der nichts definiert außer seine Kernfunktion, und wo sonst jeder machen kann was er will, braucht niemand.
 
Zuletzt bearbeitet:
Die berühmte 12 FPS Range für Freesync. Das ist ne Peinlichkeit an sich. Sofern man dieses Fenster nicht trifft, springt jedes mal Freesync an und aus, was man ganz deutlich im Bild merkt. Hoch nervig und weit schlimmer als ohne Sync dann. Da kann man dann wirklich auf Sync verzichten. Ob zudem hier im konkreten Beispiel das ganze mir dem HDR funzt, halte ich für zweifelhaft. Man darf sich also höchstwahrscheinlich zwischen Freesync und HDR entscheiden, sofern man ersteres trotz der schmalen Range will. Für den Endkunden undurchsichtig und in der Praxis von wenig nutzen.
 
War halt mit der erste Link den ich zu adaptive sync gefunden habe, musste dafür nicht 10 Seiten durch klickern wenn ich weiter suche finde ich sicher auch bei samsung oder lg oder irgendwo ähnliches.

Fuer xbox one bringts nicht well hab grad die fps von ark im kopf :D da hat man nur 30fps mit den konsolen :D aber ist das nicht bei vielen anderes auch extrem scheisse aussehenden games wie Fortnite das selbe?

War ehrlich gesagt geschockt wie beschissen die Konsolen sind, 30fps bei ark bei extrem schlechter grafik, mag ein ausreisser sein, aber dachte koennte die teuren Grafikkartenpreise mit konsolenkauf umgehen. Aber Modchips gibts da noch kaum also kann man sie eh fastt nicht kaufen, aber selbst wenn einen das nicht stoeren wuerde, zaubert mein beschissener fx6300 mit ner HD7950 noch bessere grafik als die konsolen.

Die Xbox one konnte in ark nicht mal auf Niedrig oder was das war was ich in dem Video sah die 30fps halten.
 
D708 schrieb:
Weder Nvidia noch AMD können zuverlässig 4K 144Hz anzeigen ohne massiv die Detail zu ändern. Nvidia hat so gerade die 4K 60Hz möglich gemacht. AMD ist da noch deutlich hinter, dennoch können beide Hersteller noch nichts liefern.
Ziel nicht erreicht, ist Ziel nicht erreicht! Ob man 50% der Strecke erreicht hat oder 80%.


Wer hat denn wann und wo das Ziel ausgerufen 06/2018 muss alles in guten Details 144fps/4k laufen?

Haben AMD und Nvidia ihre selbstgesteckten Ziele wirklich nicht erreicht, oder nur die erträumen Ziele von einigen Spielern nicht?
 
Alphanerd schrieb:
Wer hat denn wann und wo das Ziel ausgerufen 06/2018 muss alles in guten Details 144fps/4k laufen?

Haben AMD und Nvidia ihre selbstgesteckten Ziele wirklich nicht erreicht, oder nur die erträumen Ziele von einigen Spielern nicht?
Niemand hat das Ziel direkt ausgerufen, aber es gibt Meilensteine, die erreicht werden müssten. Die werden durch dieTypischen Bildwiederholungsraten der Monitoren, Bzw der Schnittstellen, vorgegeben. Das sind nun mal 30/60/144Hz. In manchen Fällen gibt es noch 75/100/120Hz.
Nun hat Nvidia eine 4K 60Hz Graka auf dem Markt. Das nächste Ziel sollte Wqhd 144Hz sein. 4K 144Hz kommt im Anschluss. und da ist weder Nvidia noch AMD.
 
Hast ja Recht und es kommt auch alles. Nur halt.nicht so schnell, wie gewünscht. Wäre der Bedarf größer, würde er auch (schneller) gedeckt werden denke ich.
 
Von mir aus können sie ja Ihre proprietären Module verkaufen und die Monitore somit offiziell für einen gewissen Qualitätsstandard zertifizieren. Freesync sollte als offener Standard jedoch auch von Geforce Karten unterstützt werden.
 
Zurück
Oben