News GeForce 436.30: Für COD, Borderlands 3, Gears 5 und mit G-Sync für LG OLEDs

ich hab mir den neuen treibern in rainbow six siege plötzlich 100% gpu auslastung und frame drops ... vorher 60-80% ohne drops
 
Zu 100% direkt an den TV.
 
aivazi schrieb:
Dann zeig mal diese "fundierten" Test ...
Alles was ich bisher gelesen habe hat auf ein Gleichstand mit wenigen Millisekunden unterschiedlichen hingewiesen, vorausgesetzt das LFC funktioniert richtig.
Sobald das der Fall ist gibt es keine Unterschiede.

Also bitte einen fundierten Testder nicht Freesync 1 sondern Freesync 2 mit G Sync vergleicht ;)

TFT Central. Guck dir die Reviews an steht immer wieder drin das G-Sync besser ist. Das Thema wurde hier aber schon oft genug diskutiert. Billig ist halt nicht immer besser.
Ergänzung ()

AnkH schrieb:
Hat eigentlich jemand schon mal die "neue" Funktion "Latency" im nVIDIA Treiber getestet? Irgendwie kam das in den letzten Treiberversionen neu hinzu und man findet nicht sonderlich viel Infos diesbezüglich. Bringt das was? Nur Marketing-Blabla?

Das bringt nicht mehr viel weil es bei DX12 sowieso implementiert ist. So viele DX11 Games kommen ja nicht mehr.
Dai6oro schrieb:
Du würdest bei nem Doppelblindtest auch nix merken. Versprochen.

Völlig egal. Der Unterschied ist faktisch vorhanden. Die NV Lösung ist somit besser und hat damit auch die Daseins Berechtigung. Im Endeffekt ist es auch egal da es sowieso keine Alternativen im High End Segment gibt.
 
Freut mich persönlich (und meinen C9) sehr, hadere aber mit mir selbst jetzt noch auf eine HDMI 2.0 GPU zu setzen. Zumindest wird es jetzt doch keine 5700 XT, ursprünglich hatte ich gewettet das AMD als erstes mit VRR Unterstützung um die Ecke kommt.

Dai6oro schrieb:
Ich merke absolut 0 Unterschied zwischen Freesync und Gsync. Aber immer schön dem Marketing glauben.
Jawoll! So höret, so höret! Dai6oro merkt keinen Unterschied! Das Wort ist gesprochen, es gibt nichts mehr zu sehen!
 
Ich hatte zumindest die Gelegenhit beide Syncs live zu erleben. du auch? Weder ich noch meine Kumpels haben nen Unterschied bemerkt. Aber immer feste dran glauben ist immer gut.
 
  • Gefällt mir
Reaktionen: Celinna
till69 schrieb:
Muss der LG TV direkt an die GPU oder gehts auch mit AVR dazwischen?

Da es keinen AV mit 2.1 gibt kannst du dir die Frage selber beantworten. Die jetzige Implementierung in HDMI 2.0 ist nur mal faktisch kein Standard und somit auch Modellabhängig.
Ergänzung ()

Dai6oro schrieb:
Ich hatte zumindest die Gelegenhit beide Syncs live zu erleben. du auch? Weder ich noch meine Kumpels haben nen Unterschied bemerkt. Aber immer feste dran glauben ist immer gut.

An was denn für Geräten? Ich möchte gern wissen wo du FreeSync getestet hat? Mit ist z.B kein HDR Monitor (der das Siegel verdienen würde) mit Freesync bekannt.

Für einen Test müsstest du das gleiche Modell mit Freesync und G-sync Support haben. Wird schon schwer. Des Weiteren kommt es auch auf die Software an und welche Hardware du einsetzt. AMD hat ja keine Karte im oberen Leistungsbereich.

Du siehst mir sind harte Messwerte lieber als das testen unter unbekannten Faktoren. Da hier genug Leute rumrennen, die behaupten, man merke zwischen 60Hz und 120Hz keinen Unterschied sind Subjekte Tests für mich wertlos.

Aber du kannst gern deine G-sync ist scheiße und sinnlose Mentalität weiter vertreten.
 
Zuletzt bearbeitet:
Habe nicht gesagt, dass Gsync scheiße ist. Habe schließlich eine Gsync Monitor. Aber Gsync kann nix besser als Freesnyc. Musste jetzt wohl damit leben. Und dein HDR auf Gaming Monitoren sowie deren Bildqualität im Allgemeinen kannst eh vergessen (Im Vergleich zu aktuellen OLED TVs). Das erste mal im Leben dass mein TV ein wesentlich besseres Bild hat als mein PC Monitor. Und das wird sich so schnell nicht ändern.

Ah jetzt versteh ich langsam. Da verteidigt jemand sein 2000€ Monitor :daumen:
 
  • Gefällt mir
Reaktionen: MeisterOek
[Tom Clancy's The Division II]: The game may crash when played in DirectX 12 mode.
[200406322]

Das kriegen die auch nimma gebacken...
Stürzt bei mir immer noch munter ab...

DX11 rock solid.
 
Ein gute Sache. HDMI 2.1 kommt mit den nächsten Grafikkarten von AMD/NV 2020. Dann wirds interessant.
 
RichieMc85 schrieb:
Ich weiß gar nicht wie oft man noch erwähnen muss, dass das G-sync Modul noch weiteren Aufgaben übernimmt als die schnöde Adaptiv Sync Variante.

Das G-Sync Modul ist halt ein sehr hochwertiges aber auch überteuertes Scaler Modul, wie es jeder Monitor/Fernseher hat. Bei Freesync wird halt meist zu günstigeren Scalern gegriffen.
Es gibt (z.B. auf dem Notebookmarkt) einige Hochwertige Module. Nur sparen da die Hersteller lieber.
Stört aber glaube ich eh die wenigsten ab einem gewissen Punkt.
 
Atent123 schrieb:
Das G-Sync Modul ist halt ein sehr hochwertiges aber auch überteuertes Scaler Modul, wie es jeder Monitor/Fernseher hat. Bei Freesync wird halt meist zu günstigeren Scalern gegriffen.
Es gibt (z.B. auf dem Notebookmarkt) einige Hochwertige Module. Nur sparen da die Hersteller lieber.
Stört aber glaube ich eh die wenigsten ab einem gewissen Punkt.

Das würde ich ja auch nicht bestreiten. Mir geht es halt nur im diese permanenten Falschaussagen. Das G-Sync Modul wäre abzocke und die AMD Version wäre besser. Das ist halt nicht so. Ob der Aufpreis gerechtfertigt ist oder man den Unterschied merkt steht ja nicht zur Debatte.

G-Sync ist halt die Luxus Variante die auch nur von einer Firma mit entsprechender Marktmacht kommen konnte. AMD hat weder das Geld noch den Marktanteil für solche Techniken. Da ist halt klar das man wieder in guter alter Underdog Mentalität und wenig Aufwand das günstige lizenzfrei Produkt bringt.

Ich präferiere trotzdem G-Snyc, liegt aber auch daran das es fast keine hochwertigen Freesync Bildschirme gibt. Die ganze interessanten HDR Local Dimming Geräte findet man nicht im AMD Lager.
Ergänzung ()

Rollensatz schrieb:
Ein gute Sache. HDMI 2.1 kommt mit den nächsten Grafikkarten von AMD/NV 2020. Dann wirds interessant.

Warte ab bis jetzt ist dazu nix bekannt. HDMI 2.0 hat auch ewig gebraucht.
Ergänzung ()

Dai6oro schrieb:
Habe nicht gesagt, dass Gsync scheiße ist. Habe schließlich eine Gsync Monitor. Aber Gsync kann nix besser als Freesnyc. Musste jetzt wohl damit leben. Und dein HDR auf Gaming Monitoren sowie deren Bildqualität im Allgemeinen kannst eh vergessen (Im Vergleich zu aktuellen OLED TVs). Das erste mal im Leben dass mein TV ein wesentlich besseres Bild hat als mein PC Monitor. Und das wird sich so schnell nicht ändern.

Ah jetzt versteh ich langsam. Da verteidigt jemand sein 2000€ Monitor :daumen:

G-Sync kann es eben doch besser aber das scheinst du wohl nicht zu verstehen oder akzeptieren. Stimmt der TV kann alles besser :confused_alt: Mein Oled kann leider nur 60Hz in 4K was mir leider in Shootern nix bringt. Da du ja scheinbar diese Limitierung umgangen hast erklär mit bitte wie.

Sicherlich sind die IPS Local Dimming Geräte in Relation zum Oled scheiße. Aber erstens kann ich den Oled nicht für statische Inhalte nutzen und zweitens hat dieser kein DP. Meine 2080Ti kein HDMI 2.1. Du siehst es gibt leider keine adäquate Lösung.
 
Zuletzt bearbeitet:
Dai6oro schrieb:
Wie jetzt so ganz ohne super duper Gsync Modul? Wie das? Ist das überhaupt möglich?

Ist halt nur Compatible. Gnädigerweise kriegt das ein Ehrenabzeichen, aka Fleißbienchen, seitens nVidia. :D

RichieMc85 schrieb:
das G-sync Modul noch weiteren Aufgaben übernimmt als die schnöde Adaptiv Sync Variante.

G-Sync Monitore haben alle einen niedrigeren Input Lag als die Pedants mit Freesync.

nVidia wird ja nicht müde, herauszustellen, wie aufwendig doch ihr Zertifizierungsprozess ist. Und wie hochwertig die Panele, die ihr "begehrtes" G-Sync Logo kriegen. Ich frag mich, wie dann so ein Schlierenmonster wie der neue ASUS VA mit G-Sync Ultimate dann ins Bild passt... ;)
 
RichieMc85 schrieb:
Das würde ich ja auch nicht bestreiten. Mir geht es halt nur im diese permanenten Falschaussagen. Das G-Sync Modul wäre abzocke und die AMD Version wäre besser. Das ist halt nicht so. Ob der Aufpreis gerechtfertigt ist oder man den Unterschied merkt steht ja nicht zur Debatte.

Das stimmt natürlich, nur wird NVIDIA bevor sie ihr System geöffnet haben, ihr Monopol wohl ziemlich ausgenutzt haben (saftige Modulpreise, die auch weit über High End TV Modulen liegen).
Das hätte aber jedes Unternehmen so gemacht.
 
Was immer wieder beim ewigen Freesync vs Gsync vergessen wird ist dass gsync variable overdrive kann, was meines erachtens das killer feature überhaupt für gsync ist. Deswegen wurde es bei mir auch nen gsync und kein freesync monitor (wohlgemerkt gsync gen1 ohne lauten lüfter!)
 
Funktioniert nur auf Turing.

Weiß man ob vorherige Gens (Graka) auch unterstützung nachgereicht bekommen?
 
RichieMc85 schrieb:
TFT Central. Guck dir die Reviews an steht immer wieder drin das G-Sync besser ist. Das Thema wurde hier aber schon oft genug diskutiert. Billig ist halt nicht immer besser.

Sehr sportlich diese Aussage, auf diesem Artikel basiert: https://www.tftcentral.co.uk/articles/variable_refresh.htm

Da werden faktisch nur Aussagen ohne Belege
getätigt... und entsprechend kommt dann dein Statement aus der Pro und Contra zustande die du dann selber zuende interpretiert hast ?
Im Artikel gibt es schließlich nicht einmal ein zusammenfassendenes Fazit...

Wirkt für mich relativ halbgar, wenn man diese genannten Unterschiede, die nicht einmal mit Zahlen oder Fakten belegen kann, und sogar noch schreibt , dass NVIDIA besser ist weil keine Latenz Aufgrund des fehlenden Scaler vorliegt...

Eine Zeichnung, warum diese Logik zutrifft wäre wünschenswert, schließlich sind das Original die
Statements mit denen NVIDIA geworben hat.

Einfach nur Marketing ohne Erklärung..
 
Kann jeder an der cod pc Beta teilnehmen?
 
MaverickM schrieb:
Ist halt nur Compatible. Gnädigerweise kriegt das ein Ehrenabzeichen, aka Fleißbienchen, seitens nVidia. :D



nVidia wird ja nicht müde, herauszustellen, wie aufwendig doch ihr Zertifizierungsprozess ist. Und wie hochwertig die Panele, die ihr "begehrtes" G-Sync Logo kriegen. Ich frag mich, wie dann so ein Schlierenmonster wie der neue ASUS VA mit G-Sync Ultimate dann ins Bild passt... ;)

Naja schlieren Monster ist wohl etwas übertrieben. Ist halt ein VA Panel. Dafür hat man halt deutlich weniger Halos und generell vernünftigen Kontrast. Das macht beim Einsatz von Local Dimming schon sinn. IPS mit Local Dimming ist auch nicht so toll. Trotzdem stehen die Ultimate Monitore ohne Konkurrenz da. Von Seiten AMD ist mir jedenfalls kein High End Monitor bekannt?
Ergänzung ()

aivazi schrieb:
Sehr sportlich diese Aussage, auf diesem Artikel basiert: https://www.tftcentral.co.uk/articles/variable_refresh.htm

Da werden faktisch nur Aussagen ohne Belege
getätigt... und entsprechend kommt dann dein Statement aus der Pro und Contra zustande die du dann selber zuende interpretiert hast ?
Im Artikel gibt es schließlich nicht einmal ein zusammenfassendenes Fazit...

Wirkt für mich relativ halbgar, wenn man diese genannten Unterschiede, die nicht einmal mit Zahlen oder Fakten belegen kann, und sogar noch schreibt , dass NVIDIA besser ist weil keine Latenz Aufgrund des fehlenden Scaler vorliegt...

Eine Zeichnung, warum diese Logik zutrifft wäre wünschenswert, schließlich sind das Original die
Statements mit denen NVIDIA geworben hat.

Einfach nur Marketing ohne Erklärung..

Hier für dich:

We measured a total display lag of only 3.3ms. We estimate that pretty much all of that will be a result of the pixel response times and so can infer that there is basically zero processing lag at all. This isn't an exact science but provides a good indication of what the signal processing lag is. We have seen similar behaviour from some other G-sync screens such as the Dell Alienware AW3418DW and Asus ROG Swift PG279Q for instance which had basically no signal processing lag and would be directly comparable in this area.
The G model was quite a lot faster than the F model which had shown an estimated 9.70ms of signal processing lag. While the G-sync module might be holding the screen back in some places, it does at least allow for a super-low lag.

Glaube zu dem Thema ist dann alles gesagt. Aber du kannst gern ein paar Bildschirme testen und mit das Gegenteil beweisen ;)

Marketing ist es den Leute zu verkaufen Ihre minderwertige Billiglösung wäre genau so gut wie die der Konkurrenz. Wie bei fast allen AMD Sachen. Gute Technologie kostet nun einmal Geld. Wer halt nicht so viel ausgeben will ist okay. Aber dafür anderen Sachen schlecht Reden ist wohl witzlos.
 
Zuletzt bearbeitet:
Zurück
Oben