News Variable Refreshraten: Trick erlaubt FreeSync-Nutzung mit Nvidia-GPUs

Maliex schrieb:
Was Sie aber vermutlich machen könnten ist, dass sie Ihren Geforce-Karten verbieten die Ausgabe an andere Grafikkarten weiter zu geben. Ich kenne mich damit nicht aus, aber ich vermute man kann schon erkennen ob die Ausgabe an einen Monitor oder eine weitere Karte geht.
Stimmt. Aber nun, da der Deckel vom Topf ist, wird das schwierig ohne Shitstorm umzusetzen. Mit der Verbreitung um so mehr. Nvidia's PR Abteilung schiebt jetzt bestimmt Überstunden... :evillol:
 
Ich wüsste nicht wie NVIDIA dagegen vorgehen könnte, mal abgesehen von der Möglichkeit das NVIDIA GPU ihre Arbeit ganz einstellen sobald eine AMD GPU im System endeckt wird. Aber so dreist und unverschämt werden die ja wohl kaum sein..
 
  • Gefällt mir
Reaktionen: cruse und NDschambar
SavageSkull schrieb:
Es macht in dem Fall viel mehr Sinn deine 780Ti zu verkaufen(...)

Ich habe auch nicht gesagt, dass ich das mit der 780Ti nutzen möchte. Ein wirkliches Leistungsplus wärenur eine Vega. Aber da passt mir Preis / Leistung nicht so Recht (noch). Ich liebäugel mehr mit einer 1080Ti im Abverkauf oder halt eine RTX Karte wenn die Preise sich da nach Release halbwegs einpendeln.

Polaris ist mir zu langsam, Vega ist auch nicht interessant und so schnell wird man wohl leider nichts spannendes von Radeon hören....
 
BestinCase schrieb:
Warum jetzt nochmal von vorne?

Weil dein Beitrag inhaltlich nicht den Kern der eigentlichen Nachricht rüber bringt und der Titel absolut unpassend ist?
 
  • Gefällt mir
Reaktionen: Deathangel008, iNFECTED_pHILZ, Oneplusfan und 3 andere
BestinCase schrieb:
Warum jetzt nochmal von vorne?

Weil du dort irgendeinen absurden Unsinn von Hack und Sicherheitslücken verfasst hast? ;)
 
  • Gefällt mir
Reaktionen: dister1, rambodieschen, Raycrate und 10 andere
EdwinOdesseiron schrieb:
Ich finde es Frech, dass irgendwelche Internetnutzer nun das Geschäftsmodell von langjährig etablierten Firmen (nVidia und die Monitorhersteller) torpedieren und sie somit an den Rand der Insolvenz drängen.

Anzeige wegen geschäftsschädigendem Verhalten ist raus.

Der erste Post hier im Forum, bei dem man die Ironie ohne Smileys und sonstiges erkennt 😄
 
  • Gefällt mir
Reaktionen: rambodieschen, Mordhorst3k, Mort626 und 4 andere
BestinCase schrieb:
Hatte doch dazu schon diesen Beitrag gebracht, dort wurde von mir alles erläutert: https://www.computerbase.de/forum/threads/sicherheitluecke-bei-gpus-von-nivida-enteckt.1820252/

Warum jetzt nochmal von vorne?
Ich verstehe nicht, was du meinst. Es ist *KEIN* Hack der nvidia-Karten oder deren BIOS, sondern ein DirectX-12-Feature. Die AMD-Karte übernimmt die Synchronisierung per Freesync, die nvidia-Karte rendert die Bilder und gibt sie an die AMD-Karte per Software weiter.
BTW: Es geht auch in der anderen Richtung. Vermutlich auch mit Gsync. Aber das hat nur wissenschaftlichen Wert :D
 
  • Gefällt mir
Reaktionen: MeisterOek, kisser, Bright0001 und 4 andere
BestinCase schrieb:
Warum jetzt nochmal von vorne?
Weil du es seit dem entweder weiterhin nicht gelesen oder verstanden hast. Keine Ahnung, was du hier mit gehackt, Sicherheitslücke odgl. soll? So etwas gab es vor gefühlten Äonen in ähnlicher Weise bereits mit Durchschleifkabel ... jetzt wird halt intern andernorts gerendet, verpackt und an die Ausgabegrafikkarte geschickt.
 
  • Gefällt mir
Reaktionen: kisser und NDschambar
BestinCase schrieb:
Warum jetzt nochmal von vorne?

Weil du (offensichtlich trolligen) Quark von "Sicherheitslücken", "Skandal" und "hacken" erzählt hast
 
  • Gefällt mir
Reaktionen: FeelsGoodManJPG, TheBear1517, Flaimbot und 4 andere
Unterstützt Intels iGPU nicht auch Adaptive Sync? Obwohl, die iGPU wird ja automatisch deaktiviert sobald das System eine dGPU erkennt und wenn das nur in WoW funktioniert, ist das halt nicht wirklich hilfreich.
 
Sobald Intel Freesync bietet hat sich gsync sowieso erledigt, dann nutzt man die für Freesync.
 
  • Gefällt mir
Reaktionen: karl_laschnikow, fox40phil und aklaa
Es erinnert mich an früher, als die 3Dfx-Karten per Durchschleifkabel das Signal zur Ausgabe an die zu schwache 2. Karte ausgespielt haben.

Eigentlich war es ja genau umgekehrt, die Signale der 2D-Karte wurden von der Voodoo1/2 durchgeschleift.

Finde ich aber irgendwie zu kompliziert und unsicher in Bezug auf eine Abschaltung durch eine neue Treiberversion. Dann doch lieber gleich ne AMD kaufen.
 
noxon schrieb:
Wie bitte soll ich das denn jetzt verstehen? Funktioniert es jetzt oder nicht?
Ich würde hier mit einem ganz klaren NEIN antworten und nicht mit einem indirekt schon aber streng genommen nicht.
Ist auch NEIN. Denn auch "indirekt" unterstützt das die nVidia GPU nicht. Es MUSS eine AMD GPU verbaut sein (alternativ APU), um das so nutzen zu können. Nur so kann Freesynch genutzt werden mit nVidia.

"Indirekt" ist mir auch hier zu nah an "nVidia Hardware kann es doch!" - nur AMD kann es. Punkt.

Vermute mal, das ein baldiger neuer Treiber auf Windowsebene dieses "durchschleifen" verhindern wird.
 
  • Gefällt mir
Reaktionen: Bright0001
panopticum schrieb:
Da wird nVidia wohl bald aktiv werden.
Kann ja wohl nicht sein das ein freier Standard ohne den 100€ Aufpreis funktioniert...

Sind es nicht sogar 500€ bei den neuen Acer 4K Monitoren mit 144Hz? :freak:

FreeSync ist ja eh schon ein Grund für mich, mit einer Vega 64 zu liebäugeln, wenn ich aber lese, dass NVidia Features deaktiviert, nur weil eine GPU der Konkurrenz im System steckt, dann werde ich sie nur noch eher meiden.
Damit schränken sie die Freiheit des Kunden ein und deaktivieren beworbene Features der Hardware, für die der Kunde bezahlt hat. Das sollte eigentlich verboten sein, von wegen unlauterer Wettbewerb oder sowas.
 
  • Gefällt mir
Reaktionen: lanoo, Flaimbot und Cpt.Willard
Joshua schrieb:
Eigentlich war es ja genau umgekehrt, die Signale der 2D-Karte wurden von der Voodoo1/2 durchgeschleift.
Danke, so war's, im Eifer des Gefechts verdreht. ;)
Ergänzung ()

KarlKarolinger schrieb:
Sind es nicht sogar 500€ bei den neuen Acer 4K Monitoren mit 144Hz? :freak:
Ja, das neue Modul mit HDR hat diese Kosten + Lüfter zur Folge ...
 
schon interessant..
als ich das ganze vor über einer woche in eurem forum thematisiert habe wurde ich dafür von einem moderator als spammer bezeichnet und per PN mundtot gemacht.
https://www.computerbase.de/forum/threads/freesync-mit-nvidia-gpu.1819073/

auch die informierte redaktion wollte keine rückmeldung geben.

woran liegts? gabs da einen maulkorb durch nvidia?
 
  • Gefällt mir
Reaktionen: MeisterOek, Kal9tz, lanoo und 11 andere
Richtig bitter für nVidia wäre es wenn Intels iGPU Freesync nutzen würde...
Dann kämen nochmal Millionen Rechner dazu deren Intel Core-Prozessor ihnen das ermöglichen würde.
Da Freesync ein offener Standard ist...
 
Wurde denn auch überprüft, ob mit diesem Trick der eigentliche Sinn, also mit den FPS der Karte dynamisch synchronisierte Refreshrate des Monitors, noch gegeben ist?

Im Prinzip sagt dann ja die AMD-Karte bzw. deren Treiber dem Monitor (per FreeSync), wann er den Refresh machen soll, aber wie gut weiß die Karte darüber bescheid, wann die ihr fremde Nvidia-Karte genau mit dem nächsten Frame fertig ist?

Oder anders gesagt, wie gut ist die Bildausgabe der AMD-Karte mit den Bildinhalten synchronisiert, die die Nvidia-Karte ihr in den Framebuffer schreibt?

Wenn das nicht 100%ig abgestimmt ist, könnte nicht nur der Effekt von G-Sync und FreeSync komplett flöten gehen, sondern es könnte auch fieses Tearing geben.
 
  • Gefällt mir
Reaktionen: Lochgräber, Mordhorst3k und FeelsGoodManJPG
Zurück
Oben