News Zehn FreeSync-Monitore machen den Anfang

Das heiße aber auch (nahezu) doppelten Entwicklungsaufwand, wenn Nvidia gleichzeitig G-Sync und eine neue, auf Adaptive Sync basierende Lösung (weiter-)entwickeln würde. Die Frage ist, ob denen das wert ist, bzw. ob die Kunden es akzeptieren, entsprechend mehr für die Grafikkarten zu bezahlen.

Wie schon geschrieben, könnte ich mir aber ganz gut vorstellen, dass Nvidias G-Sync-Scaler zukünftig auch Adaptive Sync unterstützen. Damit wären dann Gaming-Monitore möglich, die G-Sync und Freesync (und potenielle andere, auf Adaptive Sync setzende Features) können.
Da Adapitive Sync ein (für VESA-Mitglieder) freier Standard ist und technisch nicht sehr aufwändig, wäre das grundsätzlich ja kein Problem. Die Frage ist nur, ob Nvidia das als Vorteilhaft ansehen würde und/oder ob die Monitorhersteller das durchsetzen können.

Der Preisvorteil und der freie Status von (exklusivem) Adaptive Sync wäre damit für diese "Universalmonitore" aber natürlich auch futsch.
 
Herdware schrieb:
Der Preisvorteil und der freie Status von (exklusivem) Adaptive Sync wäre damit für diese "Universalmonitore" aber natürlich auch futsch.

Eben. Darum denke ich ja auch dass der beste Weg ist, von der Grafikkarte her Adaptive Sync und G-Sync zu unterstützen. Dann kann man der eigenen Kundschaft wieder einen Zusatznutzen anbieten. Man kann sich irgendeinen Monitor kaufen und hat immer eine Sync-Möglichkeit. Entweder G-Sync oder Adaptive Sync. G-Sync Pro würde durch den eh beim Monitorkauf fälligen Aufpreis die Entwicklung des treiberseitig Notwendigen dann auch teilweise kompensieren.

All das natürlich nur unter der Prämisse, dass es einen erkennbaren Mehrwert von G-Sync zur Adaptive Sync Lösung gibt. Bin schon auf die Tests gespannt.
 
Tralx schrieb:
Mit free ist eher die freie Bildwiederholrate gemeint ^^ Für Nvidia gibts ja G-Sync
Natürlich ist es frei. Es wurde zum Displayport-Standard hinzugefügt, und man kann ihn umsetzen ohne Lizenzkosten.
 
ich glaube die entscheidung welcher technischen lösung die zukunft gehört, wird nicht duch amd oder nvidia entscheiden, sondern durch monitorhersteller und preise (also indirekt duch kunden).
bisher wurden für beide techniken monitore angekündigt - die tatsächlich verfügbaren modelle sucht man mit der lupe und die preisgestalltung hat dementsprechend noch nichts vom wettbewerb "geschmeckt".
die frage ist also eher welche technik früher in einer breiteren produktauswahl zu finden sein wird und zu welchem preis.

welche technik letztedlich besser ist, ist da fast schon nebensächlich; es sei den freesync/adaptivesync wäre deutlich inefektiver als g-sync - wie im artikel erwähnt gibt es von freesync bis auf nette messevideos keine tests.
prinzipiell ist freesync aber die vernünftigere lösung, da sie sowohl günstiger sein dürfte als auch in einem offenem standard festgeschriebene technologien zu bevorzugen sind - lediglich die festlegung auf den displayport-standard ab eine noch kaum verbreiteter version ist eine krüx - man mag hdmi nicht mögen, aber es ist mittlerweile eine 0815-standardschnittstelle, und sowas nicht nicht einfach totzukriegen...
 
Zuletzt bearbeitet:
UNRUHEHERD schrieb:
Wunderbar. Schon 75 Hz bei den LGs sind eine Genugtuung im Vergleich zu 60 Hz. :)
Ergänzung ()

Bin mir nicht mehr sicher, ob alles gleich ist. Wenn ich mich richtig erinnere, gab es diese Diskussion bei planet3dnow bereits um die Audio-Funktionen des Chips, die der 260er Serie vorenthalten blieben. Ich finde das Ausschließen der 7790 allerdings schade, gleichwohl es anscheinend minimale Änderungen am Chip gab.

Hi

Wenn Ich mich nicht täusche hat AMD damals erwähnt das True Audio für die 7790er nach gereicht wird.
Ehrlich gesagt habe ich das noch gar nicht mir angesehen, ist mir quasi aus den Kopf verschwunden. ggg


Gruss Labberlippe
 
In 3 Jahren ist die Technik dann vielleicht marktreif und es hat sich hoffentlich eines davon durchgesetzt. Das bestätigt mich im Kauf eines non G-Sync/A-Sync Monitors.
War ja absehbar, erst sollten zum Jahresende viele Modelle vom Himmel regnen, jetzt ist der März im Gespräch. Und was sieht man? TN, Full-HD oder perverse 21:9 zu allesamt vermutlich abartigen Preisen, dank geringer Auswahl.

cypeak schrieb:
lediglich die festlegung auf den displayport-standard ab eine noch kaum verbreiteter version ist eine krüx - man mag hdmi nicht mögen, aber es ist mittlerweile eine 0815-standardschnittstelle, und sowas nicht nicht einfach totzukriegen...
HDMI ist einfach Müll. Für die Datenmenge braucht es DP.
Ich habe HDMI im PC noch nie vermisst oder benötigt. Schade das viele Grafikkarten diesen nutzlosen Port anbieten und nicht rein auf DVI + DP setzen.
 
Mal schauen sieht schon ganz interresant aus mal Tesberrichte abwarten vorallem die kompatiblität mit den Grakas.
 
Stimmt, die Preise sind, weil es nur Ankündigungen sind, teilweise nicht bekannt. Nichtmal beim nicht kaufbaren 27" 1440p G-Sync.
Warten ist in so einer Situation das Einzig Sinnvolle. Aber das wussten Neutrale Beobachter schon vor Monaten. Andere machten blumige Versprechungen für Ende 2014, die sich ganz klar NICHT erfüllt haben.
 
Zuletzt bearbeitet:
Wolfsrabe schrieb:
Erst PhysX, dann G-Sync, und mitten drin CUDA.... nvidia, lasst doch mal bitte diesen proprietären Alleingang sein. Das ist einfach unsympathisch. Wer sich an nvidia binden will, sollte es gern tun und nicht durch diese o.g. Dinge dazu gedrängt werden.


Da geb ich dir Recht,manschmal kann man sich da nur an den Kopf kloppen.

Aber Nvidia war schon immer der Ego Verein.
 
chithanh schrieb:
Peter Nixeus (vom gleichnamigen Monitorhersteller) hat auf overclock.net bestätigt, dass der auf der Computex eingesetzte Demo-Monitor ein Nixeus VUE-27D war. Also ein Gerät welches sich bereits auf dem Markt befindet, und wo nur die Firmware angepasst wurde. Im gleichen Thread hat er auch AMDs Angaben bestätigt, dass die Demo tatsächlich variable refresh gezeigt hat und nicht wie von manchen behauptet eine feste Wiederholrate.

Wenn man also mit null zusätzlichen Hardwarekosten schon FreeSync machen kann mit Monitoren, die ursprünglich gar nicht dafür gebaut worden sind, dann kann ich mir nicht vorstellen, dass das auf einmal so teuer sein soll.

Ich fand die NVidia Forumtrolle um einiges übler, vor allem die, die AMD der Lüge in Bezug auf die Computex-Demo bezichtigt hatten.
Was du schreibst ist nonsense. Du beziehst dich also auf den Post - dort steht aber nirgends dass sie den Monitor nicht mit nem Scaler ergänzt haben, dafür aber dass sie (wie auch andere) bereits ein Jahr mit AMD zusammenarbeiten. Und dass es bei dem Modell auch kein FW-Update oder generell dieses so am Markt geben wird. Selbst wenn hier bereits ein Scaler verbaut worden wäre bedeutet es nicht, dass nicht bei allen anderen notwendig ist. Warum ignorierst du hier AMD's Aussage, dass dies notwendig sei? Weiters - wenn du ehrlich denkst dass die Entwicklung der Monitor-Hersteller nicht in die jeweiligen Preise einfließt, kann ich dir nur raten nie in der Wirtschaft eigenständig (oder in der Management-Ebene/Budgetplanung/etc.) tätig zu werden, das ist einfach illusorisch - war noch nie so - wird's auch nicht geben. AMD hat x mal angekündigt, dass G-Sync 80-100€ teurer sein würde (nie, dass es Modelle ohne Aufpreis geben würde) und G-Sync gibt es derzeit ab 150€ Aufschlag. Wenn du nachrechnest - fehlt da noch was. ;) Und wenn du jetzt ein sagen wir 200€ Modell hernimmst und da 50€ draufhaust ist das schon ein markanter Unterschied.

AMD ist hier ein Sonderfall. Die sind immer wieder in den roten Zahlen, das hat jetzt nicht nur damit zu tun, aber doch zu einem kleinen Teil, dass Sie Geld in Features stecken die zwar kurzfristig aufflammen (Mantle, TressFX z.B.) aber dann doch nicht wirklich dauerhaft neue Standards setzen.

Und was die variablen Raten angeht - das betrifft denke ich die Berichterstattung hier auf CB - in dem Artikel stand soweit ich mich entsinne klar: dass hier eine feste Rate angezeigt wurde, die Demo aber auch variable raten könne nur gab's irgendein Problem (bin nicht sicher welches, schade darum aber kann mal passieren). Andere haben dann die Demo mit der variablen rate gesehen haben. Das hat nichts mit Trollen zu tun sondern war einfach Pech für AMD/Nixeus (was CB betrifft), Punkt (man kann's auch übertreiben - du outest dich hier einfach als AMD-Fanboy, das ist alles). Davon abgesehen ist das ne Demo auf ner Messe zu einem Modell dass es so nie im Handel geben wird - also es gilt abzuwarten wie Freesync nun (mit einzelnen Modellen und Spielen) arbeitet. Eines ist aber klar - AMD hat mit FreeSync den (großteils) richtig Schritt getan.

Luffy schrieb:
PS: Ich erinnere mich vor Einem Jahr, als in den ganzen Foren MANTLE Thema war, dann die Kiddies so, Ja Nivea wird AMD MANTLE mit G SYNC plattmachen :D Äpfel und Birnen.
Hat das echt jemand behauptet? Das sind Äpfel und Birnen. Ein kleiner allgemeiner Exkurs:

Nvidia hat auch geantwortet - mit Treiberoptimierungen die zwar nicht ganz so Leistungsstark sind aber doch einen ordenlichen Schub und hier und da sogar gleiche Leistung bietet und das Spieleunabhängig (anders als Mantle - und sry das führt wie TressFX, HD3D, .... genauso ein Nischendasein wie PhysX weil Entwickler nicht die Ressourcen haben hier für Extras zu entwickeln die nicht bei möglichst allen Spielern nutzbar sind bzw. es auch nen Aufwand bedeutet für ne andere API zu entwickeln - sieht ja man ja auch im Vergleich DX/OGL). Auch 3D Vision funktioniert Spieleunabhängig (zwar nicht immer problemlos aber da kann oft nicht nVidia was dafür sondern zumeist die Entwickler, führt jetzt aber zu weit in die Programmierung). Versteh mich nicht falsch, beide Hersteller machen mal gutes, mal murks - ich bin auch nicht zufrieden damit wie eigentlich beide ihre Technologien zurückhalten und sich immer wieder nicht auf einen Standard einigen aber immerhin ist nVidia bei vielen Dingen daran interessiert das zumindest am Leben zu erhalten und einem breiten Umfeld ihrer GPU's zu ermöglichen während man sich bei AMD kaum darum kümmert und zu neuen GPU's drängt. Das mag sicher auch mit den Finanzen zu tun haben und AMD's Einsatz ist immer wieder bewundernswert - es sind aber beides Firmen mit eigenen Interessen und Möglichkeiten (das ist nun mal Wirtschaft) - und hier so auf welchem auch immer rumzuhacken und Märchen über dies und das zu erzählen bringt es absolut nicht. Ich bin froh über den Wettbewerb und entscheide mich bei meinem Kauf entsprechend der Features und des Preis/Leistungsverhältnisses.

Herdware schrieb:
Ich würde nicht sagen gratis. Irgendwo muss AMD das Geld, das sie in die Entwicklung von Freesync gesteckt haben und weiterhin stecken, auch wieder reinholen. Ohne Freesync wäre diese Entwicklungsarbeit in andere Bereiche geflossen (z.B. noch schnellere Weiterentwicklung von Mantle oder generell andere Optimierungen an GPU und Treiber) und/oder die Grafikarten wären inzwischen noch etwas günstiger.

Für Intel-GPU-Besitzer wird Adaptive Sync, VESA-Standard hin oder her, wohl ein Feature des (Desktop-)Monitors bleiben, das einfach ungenutzt brach liegt.
Saubere 23.976 fps klappen ja bei den aktuellen Intel-GPUs inzwischen auch so, ganz ohne speziellen Monitor (und bei AMD und Nvidia sowieso schon lange).

Was Freesync gegen G-Sync angeht, freue ich mich auf den Wettbewerb in diesem Bereich, den AMD und Nvidia sich in den nächsten Monaten und hoffentlich Jahren liefern werden. Erste Vergleichstest werden demnächst zeigen, wo die beiden Lösungen ihre Stärken und Schwächen haben und beide Seiten werden sich bemühen, das zu optimieren. So wird z.B. der G-Sync-Aufpreis zukünftig sicher deutlich niedriger werden. Davon kann jeder Kunde nur profitieren.

Den für den Kunden optimalen Fall, dass Nvidia G-Sync ganz aufgibt und nochmal was eigenes neues bringt, was auf standardisierte Adaptive Sync aufsetzt und damit monitorseitig zu AMDs Freesync kompatibel ist, halte ich für sehr unwahrscheinlich. Der Aufwand und die Kosten wären für Nvidia zu groß und sie würden so oder so erstmal um viele Monate, vielleicht Jahre zurückgeworfen, wenn sie nochmal fast bei Null anfangen müssten. Das wäre nichts anderes als eine Kapitulation gegenüber der Konkurrenz.
Eher würde Nvidia G-Sync (falls es floppt) ersatzlos einstampfen und sich in einem anderen Bereich mit einem ganz neuen Feature versuchen.

Es ist ja nicht so, als müsse man einfach nur dem lizenzfreien VESA-Standard Adaptive Sync nutzen und schon hätte man dynamisch synchronisierte Refreshraten in Spielen. Die eigentliche Arbeit steckt in der GPU- und treiberseitigen Umsetzung. Die ist sowohl bei Freesync als auch bei G-Sync alles andere als trivial. Nicht umsonst liegen auch bei AMD so viele Monate zwischen der ersten Ankündigung und Demonstration von Freesync, und der Markteinführung (nach der es garantiert auch noch lange weiter gehen wird, mit weiteren Optimierungen).

Wir müssen uns also damit abfinden, dass wir auf absehbare Zeit auf der einen Seite AMD mit Freesync und auf der anderen Seite Nvidia mit G-Sync haben werden. (Und Intel ist ganz außen vor.) Wer so ein Feature nutzen will, legt sich bei der Anschaffung von Grafikkarte und Monitor auf eine Seite fest und muss dann dabei bleiben, bzw. beiden austauschen, wenn er wechselt.

Das beste, was ich mir vorstellen könnte, wäre dass Nvidia in zukünftigen G-Sync-Scalern zusätzlich auch Adaptive Sync unterstützt. Das ist nicht ganz so unwahrscheinlich, wie es auf den ersten blick scheint. Schließlich haben die Monitorhersteller auch ein Wörtchen mitzureden und auch Nvidia und G-Sync könnte es helfen, wenn sich so insgesamt mehr G-Sync-kompatible Monitore verbreiten.

Herdware schrieb:
Der Hauptgrund dürfte wie gesagt sein, dass Nvidia beim nachträglichen Umsatteln auf Adaptive Sync ja erstmal gar keine mit G-Sync vergleichbare Lösung mehr hätte. Die müssten sie erstmal ganz neu entwickeln und quasi bei Null anfangen. Sie würden viele Monate Zeit verlieren. Wie viel Know How, das in G-Sync steckt, mal eben auf eine ganz neue, auf Adaptive Sync aufsetzende Lösung übertragbar wäre, ist zumindest fraglich.
AMD wird ihnen dabei wohl kaum helfen und aus dem Freesync-Nähkästchen plaudern. Selbst wenn sie das wollten, würde wohl auch nicht viel bringen, denn Freesync ist ja auf AMDs GPUs und Treiber zugeschnitten und damit verschmolzen, die grundlegend anders arbeiten, als die von Nvidia (oder Intel).
In dem meisten stimme ich dir zu. Aber bei Intel z.B. steht es noch im Raum. Die Umsetzung auf der GPU scheint auch eine Frage der Leistung zu sein und die ist bei Intel eh uninteressant bzw. ist in Punkto GPGPU Intel eh auch gut dabei, und es ist durchaus ein sinnvolles Feature. IMO es wird sicher noch etwas dauern aber ich denke auch nicht, dass sich Intel das entgehen lässt?

Warum hältst du den Fall das nVida G-Sync aufgibt und was FreeSync ähnliches entwickelt für unwahrscheinlich. Es wird sich nun einfach weißen müssen wie gut Freesync wirklich ist (ob man noch feintunen konnte und etwas fand, das nvidia vl. nicht gelungen ist), wie gut sich davon abhängig G-Sync verkauft (bei den Zahlen bisher ist nVidia ja noch nicht begeistert - liegt aber sicher auch an Neujahr und dem Abwarten des Vergleiches der beiden Technologien und den hohen Startpreisen) und je nachdem wird man das eine, das andere oder beide unterstützen. Ich denke nämlich auch dass es nach all dem was zur Entwicklung bei nVidia mitbekommen hab, dass es für sie kein allzu großer Aufwand wäre was FreeSync-Änliches zu entwickeln.

BernardSheyan schrieb:
Bei dieser Diskussion sieht man schön, wer Fanboy welcher Marke ist und sie bis aufs Blut verteidigt.

Dass es angeblich AMD-only ist liegt in der Hauptsache daran, dass Intel sich bislang für Nichts entschieden hat und es im Großen und Ganzen nur noch zwei Anbieter gibt, Nvidia und AMD. Und Adaptive-Synch einzusetzen wäre das Eingeständnis, dass man die Sache auch wesentlich billiger hätte haben können und das Ende der Lizenzgebühren für GSync, weil dann keiner mehr die teuren Monitore kaufen würde.

Im Übrigen: Es hindert Niemand Nvidia daran Mantle einzusetzen. Die API ist da, sie müsste nur angepasst und genutzt werden
Und dir ist auch klar, dass Nvidia ähnliches getestet hat, mit der Lösung aber unzufrieden war und deswegen G-Sync in der Form entwickelt hat? Deswegen werden sies nicht so einfach Fallen lassen. Wenn sie das tun bedeutet das nur dass sie akzeptiert haben, dass die Käufer lieber weniger ausgeben (oder Freesync dann genauso gut funktioniert).

Zu Mantle - selbst wenn es offen gelegt werden würde - ich kann's mir nicht vorstellen dass nVidia hier was entwickelt. Mit dem angepassten Treiber und kommendem DX12 haben sie eh alles ausreichende um gleichzuziehen oder gar zu übertrumpfen. Irgendwer meinte noch dass nVidia in dem Fall nicht ganz so Leistungsstark wäre. Das kann ich nicht nachvollziehen. Wieso? Der Haupt-Vorteil bei Mantle liegt doch darin die CPU durch mehr aufgeteilte arbeiten effizienter zu nutzen. Das kriegt nVidia Hardwareseitig durchaus hin und auch der Treiber hat gezeigt, dass der allein schon imstande ist viel davon zu leisten.

Labberlippe schrieb:
Kartenlehrling schrieb:
Das glaube ich nicht, der HD7790 ist zwar auch als Bonaire bezeichend,
aber er hat genauso wie die anderen HD7xxx nur 2xACE und ich glaube für Gaming-Freesync brauchen sie mehr,
die neuen Grafikkarten haben davon 8x.

https://pics.computerbase.de/4/8/2/3/5/2-1080.4237614602.jpg
HD7790
https://pics.computerbase.de/5/9/6/4/4/7-1080.2299042336.png
R9285
Hi

Der einzige Unterschied zur 260er ist die Taktung, ansonsten alles gleich.
(Also was anderes ist mir halt nicht bekannt.)
Die Frage ist ob AMD die 7790er mit einbezieht.

Gruss Labberlippe
@Labberlippe Kartenlehrling hat bez. der ACE's schon recht.
Auch die meisten der FreeSync-Kompatiblen APU's haben (zumindest) 4 ACE's (aus dem Test). Was ich mir vorstellen könnte, ist dass das ganze mit der Leistung zu tun hat. Dass man durch die ACE's hier noch Leistungsreserven hat die das auch effizient bewältigen könnnen. Und man bei GPU's mit nur 2ACE's (oder gar keinen) hier doch Leistung für anderes abziehen müsste. Wenn bei AMD dann genauso wie bei G-SYNC hier und da leichte fps-drops kommen (wenn auch aus völlig anderen Gründen) werden wieder alle schreien, dass es der gleiche Dreck ist. Deswegen womöglich wirklich nur die Unterstützung für neue GPU's und die neueren APU's mit mehr ACE's. Aber rein technisch sehe ich soweit ich Einblick in die Technik habe nicht warum nicht auch ältere Modelle das könnten. Es erscheint mir eher als Ausrede um nur neuere Modelle unterstützen zu müssen. Na mal sehen was da noch kommt. (Und bevor wer fragt - nVidia geht hier anderes heran, das kann man nicht vergleichen).
 
Es gibt bei G-Sync einen kleinen aber messbaren Performanceverlust (3-5%).

Ob das bei FreeSync auch so ist? AMD scheint das zu verneinen, aber für eine gesicherte Aussage wird man die ersten Tests abwarten müssen.
Robert Hallock schrieb:
There are three key advantages Project FreeSync holds over G-Sync: no licensing fees for adoption, no expensive or proprietary hardware modules, and no communication overhead. The last point is particularly important from a performance perspective, as Project FreeSync does not need to poll or wait on the display in order to determine when it’s safe to send the next frame to the monitor.
 
Kann man bei FreeSync eigentlich mehrere Monitore über einen DP-Anschluss verwenden?

Und wie sieht es da bei GSync aus?

Ich meine gelesen zu haben, das es bei FreeSync geht, bei GSync jedoch nicht. Das wäre für mich das K.O.-Kriterium gegen GSync.
 
chithanh schrieb:
CitroenDsVier schrieb:
Ist G-Sync eigentlich Grafikkartenlastig? Also beansprucht es die GPU (stark)?
Es gibt bei G-Sync einen kleinen aber messbaren Performanceverlust (3-5%).

Ob das bei FreeSync auch so ist? AMD scheint das zu verneinen, aber für eine gesicherte Aussage wird man die ersten Tests abwarten müssen.
Naja, bei G-Sync ist es so, dass der Leistungsabfall (laut NV) "durch das automatische Überprüfen der Grafikkarte, ob der Monitor bereit dazu ist, ein neues Frame darzustellen" bedingt ist. Überlegt man sich das aufgrund der Infos von nVidia zur Funktionsweise von G-Sync, kommt das schon hin. (Das war damals, nVidia wollt noch daran schrauben. Da ich keinen solchen Monitor habe, kann ich nicht sagen ob es jetzt noch immer so ist.)

Und so wie FreeSync arbeiten soll findet eine solche Abfrage nicht statt. Es bleibt aber erst noch ungeklärt wie sehr die Aufgaben die nun die GPU übernimmt diese belastet (es wird auch nicht viel sein, könnte aber auch messbar sein - sofern das ganze nicht auf optimierter HW läuft - deswegen meine Vermutung, dass (erstmal) nur die neueren GPUs/APUs damit bedient werden)

EDIT: @CB da es "Ron" ist der die Aussage bez. IPS gemacht hat - ihr seit ja auch auf der CES und die Monitore gibt es laut AMD dort zu sehen - könnt ihr überprüfen ob das beim Benq (und wenn's das dort gibt auch beim Acer und Asus) wirklich ein IPS-Type/AHVA Panel ist? Müsste ja leicht an Blinkwinkel zu erkennen sein.
 
Zuletzt bearbeitet:
Towelie schrieb:
Zu Mantle - selbst wenn es offen gelegt werden würde - ich kann's mir nicht vorstellen dass nVidia hier was entwickelt. Mit dem angepassten Treiber und kommendem DX12 haben sie eh alles ausreichende um gleichzuziehen oder gar zu übertrumpfen. Irgendwer meinte noch dass nVidia in dem Fall nicht ganz so Leistungsstark wäre. Das kann ich nicht nachvollziehen. Wieso? Der Haupt-Vorteil bei Mantle liegt doch darin die CPU durch mehr aufgeteilte arbeiten effizienter zu nutzen. Das kriegt nVidia Hardwareseitig durchaus hin und auch der Treiber hat gezeigt, dass der allein schon imstande ist viel davon zu leisten.

Wie du schon schreibst nutzt Mantle die CPU-seitig zur Verfügung gestellten Ressourcen besser.
Dummerweise werden in den Grafikbenches immer Full-HD Auslösungen oder höher gefahren und ein übertakteter i7-4790K genommen, damit man bloß nicht im CPU-Limit hängt.
Mantle und Nvidias Wundertreiber bei Grafikkarten-Benchmarks zu vergleichen halte ich einfach für fatal, das machen leider viele hier im Forum.
Du siehst das wenigstens noch etwas differenzierter.

PCGH hatte mal einen Benchmark zur Battlefield Hardline Beta gemacht, da konnte Mantle mal richtig durchstarten.

720p und ein 3770k mit 4,5GHz
R9 290x bei über 200fps, die GTX 780Ti bei über 160.

Dann wurde der i7 auf 1,8Ghz runtergetaktet.
GTX 780Ti mit 86fps und 290x mit 195fps
 
Hab ich es doch geahnt.
An einige hier, die sich schon nach über-hypt anhören.
Fahrt mal die Begeisterung besser wieder runter. Hier folgende erste Eindrücke von PC-perspective (pcper):

http://youtu.be/8rY0ZJJJf1A

http://www.pcper.com/news/Graphics-Cards/CES-2015-AMD-Talks-Technical-about-FreeSync-Monitors

"The three monitors sampled at the AMD booth showcase the wide array of units that will be available this year using FreeSync, possibly even in this quarter. The LG 34UM67 uses the 21:9 aspect ratio that is growing in popularity, along with a solid IPS panel technology and 60 Hz top frequency. There is a new specification to be concerned with on FreeSync as well: minimum frequency. This is the refresh rate that monitor needs to maintain to avoid artifacting and flickering visible to the end user. For the LG monitor it was 40 Hz.

What happens below that limit and above it differs from what NVIDIA has decided to do. For FreeSync (and the Adaptive Sync standard as a whole), when a game renders at a frame rate above or below this VRR window, the V-Sync setting is enforced. That means on a 60 Hz panel, if your game runs at 70 FPS, then you will have the option to enable or disable V-Sync; you can either force a 60 FPS top limit or allow 70 FPS with screen tearing. If your game runs under the 40 Hz bottom limit, say at 30 FPS, you get the same option: V-Sync on or V-Sync off. With it off, you would get tearing but optimal input/display latency but with it off you would reintroduce frame judder when you cross between V-Sync steps.

There are potential pitfalls to this solution though; what happens when you cross into that top or bottom region can cause issues depending on the specific implementation."

TLDR; Es gibt eine Reihe von Beschränkungen, die G-Sync nicht hat. Es funktioniert wohl auch definitiv (leider) anders als G-Sync. In der Theorie hört sich FreeSync gut an, in der Praxis ist es einfach limitiert.
 
Zuletzt bearbeitet:
Zurück
Oben