News AMD FSR 2.0: Der Source Code ist jetzt auf GitHub verfügbar

aufkrawall schrieb:
Mit Nvidia-GPU? Kann am Treiber liegen.
Mein Gsync-Compatible-Gerät läuft 100% problemlos mit VRR bei 0-144fps...
0-144Hz? Pic or it did not happen.

CapFrameX kann VRR anzeigen. Stell im RTSS den Limiter auf 10 FPS, dann in CX MRR auf dem Overlay anzeigen und Pic machen. Danke im Voraus.
 
Zer0Strat schrieb:
0-144Hz? Pic or it did not happen.

CapFrameX kann VRR anzeigen. Stell im RTSS den Limiter auf 10 FPS, dann in CX MRR auf dem Overlay anzeigen und Pic machen. Danke im Voraus.
Die VRR-Range geht natürlich nicht so tief, sondern standardmäßig in der EDID festgelegt nur hinunter bis 48Hz. ;)
Ist aber egal, weil der Übergang in den Bereich darunter mit LFC nicht zu bemerken ist (ausgiebig getestet mit durch SSAA gedrückte fps etc., macht das Gsync-Modul übrigens ähnlich oder genau so).
Aber ja, ich hab auch schon mit Custom EDID rumprobiert. Das niedrigste, was der Nvidia-Treiber überhaupt zulässt, ist offenbar 30Hz. Auch bei niedrigeren festgelegten Werten geht er da nicht drunter. Ich musste für den Bereich 30-48Hz das obere Limit absenken, damit der Nvidia-Treiber überhaupt entsprechend ohne LFC diese niedrigen Refreshraten verwendet bzw. vom Monitor anfordert. Hat der Lenovo G27q-20 aber problemlos mitgemacht, ging dynamisch bis 30Hz (im Monitor-OSD angezeigt) runter ohne irgendwelche Bildfehler.
Die mittlere Overdrive-Einstellung ist auch in Spielen bis 48Hz runter unauffällig bez. Overshoot und bei 144Hz wird Text im Browser damit immer noch sichtbar schärfer in Bewegung. Auf variables Overdrive kann ich so entsprechend auch verzichten.
 
Eli0t schrieb:
Du solltest wissen, daß AMD sowohl Displayport als auch Adaptive Sync entwickelt hat.
Zu Displayport: https://glenwing.github.io/docs/DP-1.0.pdf
siehe "Main Contributors to Version 1.0". ATI hat damals einen Teil beigetrage, ja. Aber sie haben DP mitnichten selbst entwickelt.
Zu Adaptive Sync: Auch das kommt von VESA (DP 1.2 -> 1.2a), wo eben viele mitgewirkt haben. Beginnend mit DP 1.2a kam Adaptive Sync dazu, das im Wesentlichen auf FreeSync von AMD basiert. Vorgestellt wurde das ganze 2014, G-Sync kam 2013. Entgegen deiner Aussage war nvidia hier schneller

2 deiner Aussagen sind daher genau so viel Wert wie der Hinweis zum DLSS Github Repo im OSS Kontext: Nichts weil faktisch falsch.
 
  • Gefällt mir
Reaktionen: Mr.Smith84 und Zer0Strat
aufkrawall schrieb:
Ist aber egal, weil der Übergang in den Bereich darunter mit LFC nicht zu bemerken ist (ausgiebig getestet mit durch SSAA gedrückte fps etc., macht das Gsync-Modul übrigens ähnlich oder genau so).
Ich habs auch getestet. Das G-Sync Modul verhält sich im unteren kritischen Bereich sauberer/flüssiger. Für mich war aber am Ende die größere Flexibilität wichtiger, weil ich nicht an Nvidia gebunden sein will. Außerdem achte ich darauf, über 60FPS zu bleiben, z.b indem ich stets die schnellste Gaming CPU verwende. Das ist zur Zeit Alder Lake + DDR5, selbstverständlich übertaktet.
 
.Sentinel. schrieb:
Oida!
https://www.vesa.org/wp-content/uploads/2014/07/VESA-Adaptive-Sync-Whitepaper-140620.pdf
Selbst im VESA Whitepaper steht in der Überschrift, daß es von AMD verfasst wurde.
Wieso sind so viele Leute nicht fähig Informationen aus dem Netz zu finden und zu verarbeiten.
Adaptive Sync ist von AMD und nVidia hat's geklaut und umgemoddelt und Euch das Geld aus der Tasche gezogen, anstatt die Technik zu verbessern und es in den Treibern einfach zu unterstützen. nVidia hatte eben die Kohle schnell einen Chip zu designen und zu releasen bevor die Monitorhersteller Adaptive-Sync mit Allerwelts-Chips ausrollen konnten. Ein bisschen logisches Denken wäre auch hilfreich. Danke.

Ergo, nVidia hat nie etwas für Gamer getan, weil die denen am Arsch vorbeigehen, solange die ihre überteuerte Hardware kaufen. Wenn nVidia etwas tut, kannst Dir sicher sein, es geht ihnen darum ihre Gewinne zu maximieren und deswegen haben sie (und ihre Boardpartner) ihre Karten auch direkt an Miner verkauft anstatt die dem Handel zu überlassen. Jetzt werden diese Karten in China versteigert, weil Krypto nicht mehr wirtschaftlich ist.
Ergänzung ()

foo_1337 schrieb:
https://www.vesa.org/wp-content/uploads/2014/07/VESA-Adaptive-Sync-Whitepaper-140620.pdf
Lies die Überschrift Du Fanboy.
 
Zuletzt bearbeitet von einem Moderator:
Zer0Strat schrieb:
Ich habs auch getestet. Das G-Sync Modul verhält sich im unteren kritischen Bereich sauberer/flüssiger.
Ich hab das auch in Spielen mit konstanter Kamera-Drehung durch Keyboard-Input getestet, da ist nicht ein kleiner Mini-Sprung bei Unterschreiten der Grenze zu sehen. ;)
 
Eli0t schrieb:
Da steht: "VESA DISPLAYPORT ADAPTIVE-SYNC Written by Syed Athar Hussain, Display Domain Architect, AMD and Shane Parfitt, Technology Manager Display Domain, AMD"

Nun zitiere ich mich dazu mal selbst:
foo_1337 schrieb:
Zu Adaptive Sync: Auch das kommt von VESA (DP 1.2 -> 1.2a), wo eben viele mitgewirkt haben. Beginnend mit DP 1.2a kam Adaptive Sync dazu, das im Wesentlichen auf FreeSync von AMD basiert. Vorgestellt wurde das ganze 2014, G-Sync kam 2013. Entgegen deiner Aussage war nvidia hier schneller
Wie du siehst, widerspreche ich dem Artikel in keiner weise. Deinen anderen beiden Aussagen, auf die du jetzt komischerweise keinen Bezug mehr nimmst, schon.
Eli0t schrieb:
Lass' das Fanboy mal lieber stecken und diskutiere sachlich.
 
  • Gefällt mir
Reaktionen: Mr.Smith84
Zer0Strat schrieb:
Kann ich nicht bestätigen. Wie hast du das Framepacing des Monitors überprüft?
Mit den Augen natürlich. Die Alternative wäre etwas wie eine 1000fps-Kamera, und ich denke mal, das wirst du nicht meinen.
Wenn es bei dir ruckelt, kann das auch zig andere Gründe haben. Erstmal wäre der Gegentest mit AMD-Karte Pflicht, falls nicht schon gemacht.
 
Eli0t schrieb:
Oida!
https://www.vesa.org/wp-content/uploads/2014/07/VESA-Adaptive-Sync-Whitepaper-140620.pdf
Selbst im VESA Whitepaper steht in der Überschrift, daß es von AMD verfasst wurde.
Ähm... Ja- Ein Whiteaper dazu wurde von AMD Mitarbeitern verfasst. Und der Vorschlag zur Standardisierung über VESA wurde eingebracht. Du machst aber daraus, dass AMD den Standard komplett erfunden und eingebracht hätte.

Eli0t schrieb:
Wieso sind so viele Leute nicht fähig Informationen aus dem Netz zu finden und zu verarbeiten.
Genau das. Du hast nämlich meine Frage nicht beantwortet. Ich bitte um eine Referenz, dass die Erfindung ursprünglich von AMD Ingenieuren/Programmierern stammt.
Generell wird als Erfinder und Standardisierer nämlich immer das VESA Konsortium genannt, welches im übrigen seine eigenen Zertiizierungen in den Markt drängt und unter Umständen GSync und Freesync verdrängt.

https://www.tomshardware.com/news/vesa-adaptive-sync-certification

Dass AMD dem Konsortium angehört und auch ich gehört habe, dass AMD viel dazu beigetragen hat ist eine Sache. Dass das aber ausschließlich eine Erfindung von AMD gewesen sein soll gibt kein Artikel her.

Deshalb erfrage ich Deine Quellen, wo Du die alleinige Entwicklung bei AMD gesehen haben willst...
Die ganze Entwicklung der Anti- Tearing- Technik findet doch irgendwie Ihren Ursprung bei Ken Birman (2010), einem Professor der Cornell University of Computer Science, der durch VSync angefangen hat, dem Tearing den Kampf anzusagen. Und auch schon vorher wurde doch an verschiedenen Synchronisationstechniken geforscht.
 
Zuletzt bearbeitet:
Nun ja, wie erklärt Ihr euch denn das Folgende, wenn AMD´s Freesync lediglich eine Reaktion auf NVidia´s G-Sync war?

Chronologie:


22.03.2013: Vorstellung/Test der AMD HD 7790 (GCN 2nd Gen), voll FreeSync fähig
Quelle 1: Wiki Artikel zu GCN
Quelle 2: Wiki Artikel zu AMD GPU Feature-Unterstützung
Weiterer Hinweis: GPU´s mit GCN Gen 1 die auf R9 2xx und R9 3xx umgelabelt wurden, hatten weiterhin kein FreeSync, somit Annahme meinerseits, dass ein einfaches Nachrüsten von FreeSync/Adaptive Sync Fähigkeit nicht gegeben ist. Die R9 370X konnte schließlich noch kein FreeSync.
Test der 7790: CB Test zur 7790
Quelle Verfügbarkeit: PCGH News vom 03.04.2013

Ergänzung (Input von Nolag, 21:42 Uhr)
18.10.2013: Youtube Video mit G-Sync Youtube Link
Ergänzung Ende

12.12.2013: Erste Eindrücke mit G-Sync (Prototyp wohl existent) CB Link

07.01.2014: AMD zeigt FreeSync auf Laptops CB Link

15.01.2014 G-Sync Modul kaufbar CB Link (Bemerkung meinerseits siehe Fußnote)

12.05.2014: Aufnahme Adaptive Sync zu DP 1.2a CB Link

26.07.2014: Verfügbarkeit, 1 G-Sync Monitor (27 Zoll, TN, 144 Hz, 1440p, 800,- €) CB Link

14.10.2014: Verfügbarkeit G-Sync Monitore, 3 verfügbar CB Link

04.01.2015: erster G-Sync Monitor mit IPS, 144Hz auf der CES CB Link

04.03.2015: FreeSync Monitore verfügbar, ab 499€ CB Link

24.11.2015: Low Framerate Compensation bei FreeSync CB Link

17.05.2016: Vorstellung der GTX 1080 CB Link zum Test

15.01.2019: Aktivierung G-Sync Compatible, ab GTX 1000er Serie CB Link

AMD soll also auf G-Sync erst reagiert haben? Und das obwohl die Entwicklung der FreeSync fähigen 7790 bereits ein Jahr vor dem ersten Zeigen von G-Sync abgeschlossen sein worden müsste. (Produktion, Verschiffen, etc. bedarf schließlich entsprechendem Vorlauf). Das halte ich doch für unwahrscheinlich. Vor allen Dingen, AMD hat eine bereits existente Schnittstelle weiterentwickelt. Wurde schließlich zum Stromsparen bereits in Laptops verwendet.

AMD soll ferner innerhalb von 4 Wochen (Weihnachten inklusive) auf G-Sync reagiert haben (inkl. Hardware: 12.12.2013 - 07.01.2014), während NVidia es nichtmal schafft innerhalb von 4 Monaten die falsch deklarierten Specs zur GTX 970 richtigzustellen (Test am 19.09.2014, Richtigstellung am 25.01.2015)?

Ja, NVidia hat zuerst über Synchronisation von Grafikkarte und Monitor berichtet. Ja, NVidia hatte zuerst einen kaufbaren Monitor am Markt. (mit Ignorieren des Kaufpreises/Specs P/L Verhältnis, da muss man schon hartgesottener Early Adopter sein, aber ist ja meistens so) Dennoch gehe ich davon aus, aufgrund der oben genannten Aspekte, dass wir es AMD zu verdanken haben, dass wir Monitore kaufen können, die mit der Grafikkarte synchronisiert laufen können.

NVidia wird schließlich über die VESA irgendwann Wind von AMD´s Projekt bekommen haben. Da wird NVidia wohl schlicht von AMD völlig überrascht worden sein.

Eine proprietäre Schnittstelle auf den Markt zu bekommen sollte zeitlich dabei weitaus schneller umgesetzt werden können, da NVidia nur selber etwas entwickeln und mit einem Monitorhersteller arbeiten musste. Eine offene Schnittstelle muss erstmal grob vom Hersteller (hier AMD mithilfe von Laptop Displays?!) erprobt, dann in den Standard aufgenommen werden und erst dann werden die Chips dafür entwickelt, nachdem dann erste Monitore auf dem Markt sind, können weitere Features implementiert werden (LFC). Kein Hersteller (Scaler für Monitore) wird Gelder riskieren rauszuwerfen, wenn die Spezifikationen am Ende anders implementiert werden, als ursprünglich angenommen.

Hierbei sei erwähnt, dass ich Laie bezüglich IT-Technik Entwicklung bin und lediglich versuche mit logischem Denken an die Sache ranzugehen.

Bezüglich Gutherzigtum von Nvidia:
Die GTX 1000er Serie kann Adaptive Sync. GTX 1080 Test vom 17.05.2016. Aktivierung von G-Sync Compatible CB Link vom 15.01.2019. Damit hat NVidia 2,5 Jahre gewartet, bevor Sie G-Sync Compatible auf Adaptive Sync fähigen Grafikkarten aktiviert haben. Muss echt eine Monster Aufgabe gewesen sein.

Davon ab hätte NVidia ja auch die bereits vorhandene Schnittstelle, wie AMD, nehmen können. Stattdessen wird eine extra Lösung entwickelt mit der man extra Geld nehmen kann und den Konkurrenten ausschließen kann. 3D Vision Monitore mit extra USB-Emitter nur über NVidia Treiber ansprechbar, während (im Industriestandard) alle Fernseher den 3D-Emitter direkt verbaut haben, lassen grüßen. Das ist manchmal schon interessant. Sehe ich als absichtliches Fragmentieren des Gaming-Marktes an, um mehr Gewinn zu generieren. Das dann auch noch bei einer absoluten Nische (3D-Stereoskopie) zu machen ist für langfristiges Etablieren eines Features wohl eher schädlich. Wurde ja auch eingestellt.

Fußnote:
Seit wann ist es üblich Kunden etwas zu verkaufen, wozu ein Monitor mit integrierten Netzteil geöffnet werden muss? Vor dem Öffnen von Netzteilen wird auch immer vor der Gefahr des Stromschlags gewarnt und geschrieben, dass man das bloß nicht machen sollte, es wäre viel zu riskant.

Letztendlich muss jeder für sich selber vereinbaren, was er für wahrscheinlicher hält. In diesem Falle, wer die Synchronisation von Monitor und Grafikkarte im Kern vorangetrieben hat.
 
Zuletzt bearbeitet:
Eli0t schrieb:
Adaptive Sync ist von AMD und nVidia hat's geklaut und umgemoddelt und Euch das Geld aus der Tasche gezogen, anstatt die Technik zu verbessern und es in den Treibern einfach zu unterstützen.
Nvidia hat G-Sync doch bereits 2013 mit fertigen Boards und Monitoren präsentiert: YT: NVIDIA G-Sync Demo 2013: V-sync vs G-sync
Man konnte zu dem Zeitpunkt auch schon Monitorpartner und Entwickler nennen.
Als das Whitepaper geschrieben wurde, war G-Sync jedenfalls längst entwickelt.
 
  • Gefällt mir
Reaktionen: foo_1337
Nolag schrieb:
Als das Whitepaper geschrieben wurde, war G-Sync jedenfalls längst entwickelt.

Zudem ist ja das Prinzip oder zumindest eine Vorstellung von Adaptive Sync wohl auch schon deutlich länger herumgegeistert:

Adaptive-Sync is a proven and widely adopted technology. The technology has been a standard component of VESA’s embedded DisplayPort (eDP) specification since its initial rollout in 2009.

Die 6xxer Reihe von NVIDIA soll übrigens auch schon GSync fähig gewesen sein und die wurden 2012 vorgestellt. Also hat NVIDIA die Technik auch schon 1-2 Jährchen davor schon im Auge gehabt....

Huch- Ich merke grad, dass wir vollständig vom Thema abgekommen sind.
Ausgangspunkt des Abgleitens war ja letztendlich die Innovation die beide Firmen
vorantreiben und eingebracht haben.

Im Falle von temporalen Upsampling hat NVIDIA vorgemacht, wie es gemacht wird.
 
Zuletzt bearbeitet:
.Sentinel. schrieb:
Die 6xxer Reihe von NVIDIA soll übrigens auch schon GSync fähig gewesen sein und die wurden 2012 vorgestellt. Also hat NVIDIA die Technik auch schon 1-2 Jährchen davor schon im Auge gehabt....
Dann müsstest du jetzt nur noch nachweisen, dass das GSync Modul eine spezielle Berücksichtigung bei der Entwicklung der Grafikkarte notwendig macht.

Nicht, dass das ganze theoretisch bis hinunter der Grakas der 2000er (whatever, Displayport gibt es wohl seit 2006) lauffähig wäre, da das Modul einfach nur die ausgegebenen Bilder speichert und die Graka letztendlich eigentlich nichts können muss, außer eine spezielle "Verifizierung", ja hier ist ne NVidia Graka benötigt. Das Modul also einfach nur ein neues Bild an den Monitor sendet, sobald wieder ein "volles" Bild von der Graka übertragen wurde zusammen mit einer einfachen verschlüsselten Verifizierung, dass eine NVidia-Grafikkarte am Monitor hängt, dass das Feature auch aktiviert wird.

Wäre ja quasi das Gleiche wie bei DLSS, das die speziellen Recheneinheiten der RTX Grakas braucht vs. FSR 2.0 das auf quasi jeder Graka lauffähig ist, nur dass AMD, im Gegensatz zu NVidia, die Konkurrenz nicht durch irgendeine "Verifizierung" künstlich ausschließt.
 
.Sentinel. schrieb:
Ähm... Ja- Ein Whiteaper dazu wurde von AMD Mitarbeitern verfasst. Und der Vorschlag zur Standardisierung über VESA wurde eingebracht. Du machst aber daraus, dass AMD den Standard komplett erfunden und eingebracht hätte.
https://wccftech.com/amd-freesync-adpoted-vesa-standard-display-port-12a/
AMD hat adaptive-sync plus DP 1.2a als Standard vorgeschlagen. Punkt. Heißt nicht, daß Intel oder sonst wer nicht auch daran gearbeitet haben und AMD geholfen haben. Weiß nur niemand.

Komplett kann gar nicht sein, weil daran schon vorher universitär geforscht wurde.
AMD hat aber nach einer kostengünstigen Lösung geforscht, die keine extra Hardware benötigt und das Problem per Software und DP löst, im Gegensatz zu nVidia. Warum sagt niemand wie sehr nVidia davon profitiert hat? Und die waren bei den VESA Beratungen sicher dabei, So wie viele andere auch.
Ergänzung ()

Traxton schrieb:
Dann müsstest du jetzt nur noch nachweisen, dass das GSync Modul eine spezielle Berücksichtigung bei der Entwicklung der Grafikkarte notwendig macht.
Nein, tut es nicht, daß Modul verhindert nur, daß während eines Bildaufbau ein neues Bild aufgebaut wird und wenn die fps im Keller sind, daß das vorige Bild nochmals angezeigt wird.
Traxton schrieb:
Nicht, dass das ganze theoretisch bis hinunter der Grakas der 2000er (whatever, Displayport gibt es wohl seit 2006) lauffähig wäre, da das Modul einfach nur die ausgegebenen Bilder speichert und die Graka letztendlich eigentlich nichts können muss, außer eine spezielle "Verifizierung", ja hier ist ne NVidia Graka benötigt. Das Modul also einfach nur ein neues Bild an den Monitor sendet, sobald wieder ein "volles" Bild von der Graka übertragen wurde zusammen mit einer einfachen verschlüsselten Verifizierung, dass eine NVidia-Grafikkarte am Monitor hängt, dass das Feature auch aktiviert wird.

Wäre ja quasi das Gleiche wie bei DLSS, das die speziellen Recheneinheiten der RTX Grakas braucht vs. FSR 2.0 das auf quasi jeder Graka lauffähig ist, nur dass AMD, im Gegensatz zu NVidia, die Konkurrenz nicht durch irgendeine "Verifizierung" künstlich ausschließt.

.Sentinel. schrieb:
Ähm... Ja- Ein Whiteaper dazu wurde von AMD Mitarbeitern verfasst. Und der Vorschlag zur Standardisierung über VESA wurde eingebracht. Du machst aber daraus, dass AMD den Standard komplett erfunden und eingebracht hätte.
AMD hat den Standard zu adaptive-sync und die Erweiterung von DP von 1.2 auf 1.2a eingebracht.
Ist halt so.
.Sentinel. schrieb:
Genau das. Du hast nämlich meine Frage nicht beantwortet. Ich bitte um eine Referenz, dass die Erfindung ursprünglich von AMD Ingenieuren/Programmierern stammt.
Generell wird als Erfinder und Standardisierer nämlich immer das VESA Konsortium genannt, welches im übrigen seine eigenen Zertiizierungen in den Markt drängt und unter Umständen GSync und Freesync verdrängt.

https://www.tomshardware.com/news/vesa-adaptive-sync-certification

Dass AMD dem Konsortium angehört und auch ich gehört habe, dass AMD viel dazu beigetragen hat ist eine Sache. Dass das aber ausschließlich eine Erfindung von AMD gewesen sein soll gibt kein Artikel her.

Deshalb erfrage ich Deine Quellen, wo Du die alleinige Entwicklung bei AMD gesehen haben willst...
Die ganze Entwicklung der Anti- Tearing- Technik findet doch irgendwie Ihren Ursprung bei Ken Birman (2010), einem Professor der Cornell University of Computer Science, der durch VSync angefangen hat, dem Tearing den Kampf anzusagen. Und auch schon vorher wurde doch an verschiedenen Synchronisationstechniken geforscht.
Da es bei der VESA keine Patente gibt, wird der Nachweis schwerfallen. Und natürlich gab es davor schon universitäre Forschungen. Die Implementation in Software und HW Standards ist sicher auf AMDs Mist gewachsen, was auch nicht heißt, daß sie nicht auch Hilfe von anderen hatten (außer nVidia).
Aber man sieht warum nVidia das nicht von Haus aus übernommen hat :)
Ergänzung ()

.Sentinel. schrieb:
Zudem ist ja das Prinzip oder zumindest eine Vorstellung von Adaptive Sync wohl auch schon deutlich länger herumgegeistert:

Die 6xxer Reihe von NVIDIA soll übrigens auch schon GSync fähig gewesen sein und die wurden 2012 vorgestellt. Also hat NVIDIA die Technik auch schon 1-2 Jährchen davor schon im Auge gehabt....
Da das Modul zwischengeschalten ist, zwischen Graka und Monitor, ist die Graka vollkommen Banane.
Die Grafikkarte hat damit nix zu tun. Ergo war da auch keine "Technik" für die Grafikkarte erforderlich.
.Sentinel. schrieb:
Huch- Ich merke grad, dass wir vollständig vom Thema abgekommen sind.
Ausgangspunkt des Abgleitens war ja letztendlich die Innovation die beide Firmen
vorantreiben und eingebracht haben.

Im Falle von temporalen Upsampling hat NVIDIA vorgemacht, wie es gemacht wird.
Nein, die Innovation hat AMD eingebracht, nVidia hat nur abgecasht, sonst nix.
Die hätte sich an adaptive-sync auch beteiligen können und den Standard gemeinsam mit AMD einbringen können. Wollten sie natürlich nicht, weil das hätte ihren Gewinn nicht maximiert.

nVidia hat gar nix vorgemacht, weil DLSS 1.0 (2/2019) war eine Vollkatastrophe. Sie wollten nur den Marketinghype damit die Lemminge weiter ihre Karten kaufen, und haben das Blaue vom Himmel versprochen. Erst mit DLSS 2.0 (4/2020) hat nVidia gezeigt, was DLSS ursprünglich hätte können müssen.

AMD war natürlich langsamer, aber die konnten auch nicht schneller, weil wenn ich limitierte Resourcen habe, konzentriere ich mich auf das was wichtiger für die Firma ist und das war Zen. Nachdem Zen AMD aufgepeppelt hat, haben sie auch mehr Mittel um auch in Grafik(software) zu investieren. Daß AMD einen Zugang gewählt hat, der auf allen Grafikkarten lauffähig ist - man erinnere sich an RTX Voice das auch auf GTX Karten lief (aber nicht laufen sollte, weil ja angeblich die Tensor Cores benutzt werden) - ist tatsächlich eine Innovation. Und für die Konsolen ist das natürlich auch der Hammer.
 
Zuletzt bearbeitet:
Eli0t schrieb:
AMD hat den Standard zu adaptive-sync und die Erweiterung von DP von 1.2 auf 1.2a eingebracht.
Ist halt so.
Ja, das war mehrere Monate nachdem G-Sync funktionstüchtig präsentiert worden war.
 
Nolag schrieb:
Nvidia hat G-Sync doch bereits 2013 mit fertigen Boards und Monitoren präsentiert: YT: NVIDIA G-Sync Demo 2013: V-sync vs G-sync
Man konnte zu dem Zeitpunkt auch schon Monitorpartner und Entwickler nennen.
Als das Whitepaper geschrieben wurde, war G-Sync jedenfalls längst entwickelt.
Ja super, die hatten auch die Kohle so nen poppeligen Chip schnell zu designen. Heißt ja nicht, daß nVidia von der AMD Entwicklung dank VESA nicht schon vorher informiert war. Wie man weiß, ist ein Standard nicht in ein paar Wochen durch, das dauert oft Jahre.
Wenn man sich die Praktiken dieser Firma ansieht, kann ich nur annehmen, daß sie AMD zuvorkommen wollten, um den Markt abzugrasen. Adaptive-Sync hat sich spät aber doch durchgesetzt.
 
Eli0t schrieb:
Wie man weiß, ist ein Standard nicht in ein paar Wochen durch, das dauert oft Jahre.
Der Vorschlag wurde im Januar eingereicht und im April akzeptiert. Im Oktober des Vorjahres hatte Nvidia das fertig entwickelt und Entwickler und Monitorpartner. Die Fachpresse ist sich eigentlich einig, dass AMD mit seinem Vorschlag auf Nvidia reagiert hat.
 
Nolag schrieb:
Der Vorschlag wurde im Januar eingereicht und im April akzeptiert. Im Oktober des Vorjahres hatte Nvidia das fertig entwickelt und Entwickler und Monitorpartner. Die Fachpresse ist sich eigentlich einig, dass AMD mit seinem Vorschlag auf Nvidia reagiert hat.
Und Du meinst die Vorarbeiten dazu haben Tage gedauert oder wie?
Bissl naiv von Dir.
 
Zurück
Oben