Sorry, aber pauschal mal zu behaupten, dass in 2019 GPU-Streaming die beste Wahl schlecht hin ist, ist einfach nur Mist. Das hängt maßgeblich von der Software ab. Wer eine neuere RTX-GPU nutzt, der kann zwar per se den "neuen" NVENC Codec heranziehen aber der Unterschied zu Pascal ist, dass bei den RTX-GPUs ebenso CUDA-Cores herangezogen werden bei bestimmten Settings in OBS. Läuft die GPU im Spiel selbst aber mit 99%+ Auslastung resultiert das lediglich in einem ruckeligen Ergebnis, weil dann gibt es Render-Lag.
Was macht denn OBS? Zuerst muss es die Szene erstellen. Das kann das Spiel an sich sein oder aber auch noch andere Gimmicks enthalten wie ein Webcam Overlay, Notifications, etc. Dafür bedarf es eines Frame Images, das dann von OBS zum Encoder geschickt wird, der dann das aktuelle Image in H.264 umwandelt und z.B. zu Twitch schickt. Dafür benötigt OBS GPU-Power. Nennt man auch Rendering. Es gibt drei unterschiedliche Typen an verpassten Frames in OBS:
Lagged render frames
skipped encoder frames
dropped network frames
Ersteres kommt häufig dann zum Tragen, wenn eine Software - also ein Spiel - die GPU nahezu vollständig belastet. OBS muss dann für seine paar Prozent GPU-Power kämpfen. Das führt dann dazu, dass OBS seine Scene nicht schnell genug erstellen konnte. Bei den skipped encoder frames kam der encoder nicht hinterher und bei den network frames wurden die Daten entweder nicht schnell genug gesendet oder erhalten.
Wie wäre es einfach mal die Log Files ins OBS Forum zu posten? Dann sehen erfahrene Nutzer direkt wo Frames verloren gehen.
Was Fakt ist, ist, dass AMDs Hardware Encoder dem von Pascal unterlegen ist - Turing sowieso.