PC zum streamen und gleichzeitig zocken (~1000€)

per 1080p würde ich sowieso nicht streamen, momentan bin ich noch immer auf 720p 60 FPS herunterskaliert von 1440p. Nur der Sprung auf 1080p bringt einem ja nicht mehr Viewer ^^.

Ich bin momentan nicht gewillt eine komplette zweite Maschine dafür zu kaufen und auch laufen zu lassen. Dürfte sich auch an der Stromrechnung ablesen lassen. Dafür lohnt sich das nicht.

Ich muss mich mal erkundigen wie das Streaming einer kompletten Szene über die RTX Karten inzwischen läuft. Ich meine früher gab es Probleme damit wenn eine Webcam dazu kam. Keine Ahnung was einem Shadowplay inzwischen bietet, aber ich muss schon ein komplettes Overlay frei einrichten können.
 
@RidRay Die WebCam Problematik ist genau dasselbe was @HisN auch schon genannt hat: Zu hohe GPU Auslastung.
Nvidia selbst hat dazu folgendes geschrieben:
"GPU Utilization for 1440p and 4K streaming: When streaming higher resolutions, or using an asset that is higher resolution, if your GPU utilization is above 95% Windows will start prioritizing the game over everything, making your stream lag. This can also occur if you are streaming 1080p or below but have an asset that is 1440p or above, like a 4K webcam. To solve this, you can either reduce the game or asset resolution to 1080p, or make sure the game is using less than 90% of your GPU resources. You can check your GPU utilization in the Windows Task Manager > Performance tab."
(Quelle: https://www.geforce.com/whats-new/guides/broadcasting-guide )

Wobei hier auch z.B. das Datenformat der WebCam berücksichtigt werden sollte. Einer guten WebCam kann man direkt sagen, in welchem Format sie die Daten ausgeben soll. Das verhindert dann, dass die GPU die Daten erst mal in's richtige Format umwandeln muss (oder zumindest weniger Arbeit dabei hat).
 
Zuletzt bearbeitet:
Ok heisst, das Game darf am besten niemals die 90% Marke an Belastung knacken. Schwer auszumachen wie oft das passiert. Meine FPS locke ich eigentlich immer. Als ich noch einen 60Hz Monitor hatte fand ich es auch Quatsch meine Graka so hochfeuern zu lassen. Mit dem 144Hz Monitor sieht das anders aus, aber ist nicht durchgängig mit der 980ti möglich. Bei iRacing reichen mir persönlich 100FPS, bei Rocket League habe ich 120FPS eingestellt und sehe auch keinen Unterschied zu 144FPS.

Also an über 720p 60FPS Streaming bin ich eh nicht interessiert, aber mit meiner 1440p Auflösung könnte es wahrscheinlich zu Problemen kommen. Wobei ich nicht weiß in wie fern eine RTX 2080 sich davon stören lassen würde.
 
Ob die GPU jetzt von 1080p auf 720p runterrechnet, oder von 1440p auf 720p macht keinen wirklichen Unterschied. NVENC kann auch problemlos 4K Streams verarbeiten. Das eigentliche Problem ist halt die Prioritätsverteilung von Windows.

In Rocket League erreichst du mit einer RTX 2080 / 2070 Super in 4K locker weit über 120fps. Bei 1440p hast du also noch viele Reserven.

Mal ganz davon abgesehen, dass eine 2080 / 2070 Super mit deiner 980Ti den Boden wischt. Im Vergleich zur 980Ti liefern diese beiden neuen Karten doppelt(!) so viele FPS. Soll heißen: Du hast bei identischen Settings / FPS auf jeden Fall massig Luft noch oben.

Und aktuell "lohnt" es sich auch nicht wirklich zu einer AMD 5700 XT zu greifen. Die guten Custom Modelle werden um die 500€ (oder etwas mehr) kosten. Eine 2070 Super kriegst du für ca. 550€. Das sind 10% Aufpreis für 10% mehr Performance. Und dazu erhältst du dann noch den benutzbaren NVENC, RayTracing und den ganzen Nvidia Quatsch.

Btw: Der AMD Encoder in den 5700er Karten ist vermutlich(!) gar nicht so schlecht wie gedacht. In h265 geht der ab wie 'ne Rakete mit mehrere parallelen Streams und überragender Bildqualität. Aber in h264 sieht's halt aktuell extrem grottig aus. h265 bringt einem aber aktuell nichts, weil die Streaming Plattformen das nicht unterstützen. Die Rohleistung sollte auf den Karten aber vorhanden sein. Es könnte(!) also sein, dass AMD in ein paar Monaten ein Treiber Update bringt, womit dann auch ordentliche Encoding Qualität möglich ist. Aber ob und wann? Weiß keiner.
 
Das meine 980ti schon zum alten Eisen gehört war mir durchaus bewusst. Für meine Games, die ich bisher zocke, hat es noch gereicht.

Für mich stellte sich eigentlich nur die Frage ob ich doch den Kauf einer neuen CPU, Mobo und RAM Comp. auf nächstes Jahr verschiebe und dafür eher eine neue Graka kaufe. Vor allem, da sich ja jetzt die 2080 im Abverkauf befindet würde sich diese evtl. lohnen.

Eigentlich war die Überlegung Ende des Jahres auf einen Ryzen 3900x zu Switchen und nächstes Jahr eine neue Graka (in der Hoffnung, dass evtl. AMD noch was raushaut).
 
Die 2080 ist nicht wirklich im Abverkauf. 650€ sind viel zu viel für die gebotene Leistung. Eine 2070 Super kriegst du für 100€ weniger.

Hast du irgendeine Anwendung für den 3900X? 12 Kerne sind schön und gut, aber könnten halt auch 200€ rausgeschmissenes Geld sein, wenn man sie nicht nutzen kann.
 
Ich hätte gedacht die 2080 hätte da mehr zu bieten als die 2070 Super. Hatte halt die Zotac 2080 Amp Extreme für 650EUR gesehen.

Die Idee mit dem 12 Kerner war, dass sich evtl. ein Teil der Kerne ausschließlich ums Streaming kümmert, während die anderen Kerne fürs Gaming über bleiben. Und man halt mit 12 Kernen wahrscheinlich erst einmal gut aufstellt ist.
 
Ja, die 2080 ist schneller. Aber nicht so viel, dass es sich lohnt: https://www.computerbase.de/2019-07...er-test/2/#abschnitt_benchmarks_in_2560__1440
10% mehr Leistung für 20% Aufpreis. Klingt nicht nach super günstigem Abverkauf für mich ;)
(Die 2070 Super AMP Extreme kostet 570€: https://geizhals.de/zotac-gaming-geforce-rtx-2070-super-amp-extreme-zt-t20710b-10p-a2086599.html . Dann ist eine 2080 AMP Extreme für 650€ natürlich okay. Sind dann nur noch 15% Aufpreis. )

Schau dir mal die Videos auf der ersten Seite hier im Thread an. Ich bin immer noch der Meinung, dass sich CPU Enconding nicht lohnt, solang man keinen separaten PC dafür hinstellt. Es kostet halt massig Leistung und für sehr wenig bis keinen Mehrwert.
Es ist ja nicht so, dass du dann x264 Slow benutzen könntest. Du musst dich trotzdem mit Medium oder Fast zufrieden geben. (Mal ganz davon abgesehen, dass der Qualitätsgewinn oberhalb von x264 Medium vernachlässigbar ist). Und mit x264 Fast kann NVENC absolut problemlos mithalten und x264 Medium ist nicht weit entfernt bzw. je nach Spiel / Szene / etc. produziert der NVENC sogar ein besseres Bild.
In der Ganzen Kette (Rendern, Runterskalieren, Encoding mit starker Kompression, und dann wieder hochskalieren auf dem Ausgabegerät) geht überall Qualität verloren. Du kannst das ja auch einfach mal bei dir zu Hause ausprobieren. Mit OBS kann man ja auch aufnehmen und dann schaust du dir das Ergebnis einfach mal mit unterschiedlichen Settings an.

Wenn du eh vorhast aufzurüsten, würde ich jetzt einfach eine RTX Karte verbauen und Spaß haben. Die restlichen Komponenten kannst du auch Weihnachten noch kaufen. Im Grafikkartensektor gibt's so schnell keine nennenswerten Neuerungen.

EDIT: Hier ist noch ein Vergleich der Bildqualität bei unterschiedlichen Bitraten und Qualitätssettings.
Aber Achtung: Da wird noch der alte NVENC (980 Ti) benutzt, und nicht der neue (RTX) mit besserer Bildqualität. Der Test ist ja auch schon 1 Jahr alt.
https://streamquality.report/docs/report.html
 
Zuletzt bearbeitet:
Kommt halt auf Deine Games an, und ob Du gewillt bist z.b. mit Tools wie CPULasso zu arbeiten.
Bei einem Game das nur 4 Kerne benutzt bleiben 8 zum Streamen übrig. Das ist nicht so blöd. Aber was passiert wenn Du ein Game hast das 8 Kerne oder mehr benutzt. Dann bleiben "nur" noch 4 übrig zum Streamen.
Es gibt nebenbei durchaus Games die mit mehr als 20 aktiven Kernen (12+HT/SMT) gar nicht erst starten. Da tun sich dann neue Problemchen auf^^
 
@HisN Und dann auch nicht die Games der nächsten 1-2 Jahre vergessen. Neue Konsolen Generationen mit 16 Threads. Wenn die Ports wieder so lala werden, dann wird man am PC damit auch 8 Kerne voll auslasten, um auf brauchbare FPS zu kommen. Bleiben noch 4 zum Streamen. Dann wird's eng. Oder man gibt sich halt mit weniger FPS zufrieden, aber dann braucht's auch keine dicke Grafikkarte mehr.
Alternativ könnte man dann natürlich auch den 3700X "ausmisten" und in den Zweitrechner stecken, der sich nur um's Encoding kümmert :D
 
Jepp, so teuer ist das Zeug ja nicht, hat man in kurzer Zeit angespart, und soll ja auf der gleichen Plattform laufen :-)
 
Jap, dass es Probleme mit SMT gibt hab ich schon gelesen. Wären natürlich zur jetzigen Situation dennoch 8 vollständige Kerne mehr :). Ich weiß ehrlich gesagt nicht wie viele Kerne man benötigen würde um z.B. auf x264 Fast zu streamen. War eben eine Grundidee von mir zu sagen "gut 12 Kerne da kann sich die Last beim Streamen besser aufteilen, da mehr Kerne zur Verfügung stehen".

Geplant war das CPU Upgrade wenn eh erst zum Jahresende, da jetzt die Sachen noch relativ teuer sind. Ich denke bis Weihnachten bzw. 1. Quartal nächstes Jahr wird sich noch ein bisschen was an den Preisen tun.

Ja die Zotac war die, die mir heute aufgefallen ist, da ansonsten für andere 2080 gerne noch 750EUR verlangt wird.

Das 2 Maschinen Setup lohnt sich mMn erst wenn man schon bekannter ist und der Stream dementsprechend besucht. Ansonsten hab ich eigentlich auch wenig Lust meine Stromrechnung einfach so in die Höhe zu treiben, plus natürlich noch die Anschaffungskosten ^^.
 
mein 5820k kann 720p60FPS streamen. Er hat 6 Kerne 12 Threads. Den Schritt zum 3900/3950x plane ich für Ende des Jahres. Derzeit streame ich via RTX 2080 alle meine Games in 900p60FPS 6000 Kbps. Mehr kerne sind immer gut, wenn man weiß sie zu verteilen. Bei mir kommt hinzu, dass ich mit dem Upgrade mehr mit Sony Vegas arbeiten mag 4k Material erstellen. Derzeit würde meine CPU dafür 1h brauchen für 18min, das ist mir zu lang

720p60FPS sehen theoretisch mit 6000 Kbps besser aus, weil mehr Details und weniger Artefakte. Doch sind die Artefakte bei 900p60FPS marginal wenn der Upload stimmt bzw. der PC das händeln kann.

Mit dem 3900/3950x kann ich wieder per CPU streamen und hab mehr FPS in meinen Games einfach weil es an meiner CPU an Single-Core Leistung fehlt trotz 4.3 GHz (höher mag ich sie nicht taketen <60°C)

Thema Dual-Setup: macht Sinn wenn man bereit ist die Stromrechnung für 2 PCs zu bezahlen. Kenne einige die das haben. Streamer-Freund von mir hat vor kurzem von 1700 auf 3800x im Streaming-PC aufgerüstet und lässt diesen nun auf 900p60FPS slow laufen. Erst mit dem Boxed-Kühler, doch da waren die Temps in seinem µATX PC ein wenig grenzwertig und nun mit dem Noctua NH-L12S sieht es sehr gut aus. Kühlung ist bei den Ryzen 3000er das A und O, zwischen Leistung haben oder auch nicht.
 
Ein 2700X (als dedizierte Streaming CPU) schafft 1080p Medium 6000kbit/s. Also solltest du grundsätzlich 8 Kerne dafür einrechnen.

Dann kommt natürlich noch die Bitrate (die hauptsächlich von deiner Internetleitung abhängt) in's Spiel:
Bei 6000kbit/s liegt NVENC irgendwo zwischen x264 fast und medium. Je nach Szene mal etwas besser, mal schlechter als x264 medium.
Je niedriger die Bitrate, desto besser wird NVENC im Vergleich zu x264. Je höher, desto schlechter. Das Teil wurde speziell auf max. 5000-6000kbit/s zugeschnitten.

Auf diesem Kanal findest du massenweise Tips, Tweaks, Benchmarks, Qualitätsvergleiche, etc. pp.: https://www.youtube.com/user/EposVox/videos
Man muss halt die Videos der letzten paar Monate anschauen, weil dort erst der ganze neue Kram in OBS, NVENC und den neuen Ryzens rausgekommen ist.
Der hat auch eine custom config für x264 erstellt, die mehr Bildqualität und Performance rausholt. x264 wurde nie für Spiele optimiert, im Gegensatz zu NVENC. Deshalb gibt's ja viele Features, die sich für Spiele negativ bemerkbar machen oder einfach nur massig Performance fressen und keinen sichtbaren Vorteil bringen.
Dort gibt's u.a. auch was zu "more threads is not better". Bei 1080p oder niedriger, sollten auf keinen Fall mehr als 20 Threads genutzt werden. Sonst erhält man weniger Performance und evtl. sogar weniger Bildqualität. FFMPEG warnt dich sogar schon ab 16 Threads. (Dasselbe Phänomen sieht man auch bei Adobe Premiere und After Effects. Die Programme skalieren ab 10 Kernen nicht mehr wirklich)

Hier ein ziemlich aktuelles Video, wo AMDs AMF, NVENC und x264 verglichen werden. Seit neustem Testet er die Bildqualität mit einem Programm von Netflix (VMAF), das speziell die von Menschen wahrgenommene Bildqualität bewertet - und eben nicht irgendwelche nur von Maschinen sichtbare Unterschiede.
 
Zuletzt bearbeitet:
1080p60FPS sind in vielen games mit nur 6000 Kbps zu wenig, daher streamen viele auf 900p60FPS.

Ich hab einige streamer gesehen mit nur nem 3900x im PC ohne Streaming-PC. Geht schon klar, wenn man weiß wie
 
Upload von 6k wäre, das ist nicht das Problem. Was heisst denn 3900x im Single Setup geht, aber man mus wissen wie? Was wäre das wie :)?
Momentan klingt es für mich dennoch, danach als wäre es besser erst einmal die Graka zu upgraden und danach erst die CPU. Also zumindest in meinem Fall
 
Single Setup = Ein PC zum gleichzeitig zocken und streamen.

Wenn dein Upload bei genau 6MBit/s liegt, solltest du nicht mit 6MBit/s streamen. Sondern eher mit 4 bis 5. So ein Encoder kann nicht auf das kbit genau vorausschauend arbeiten. Es kann also leichte Schwanker nach oben und unten geben. Und zusätzlich braucht dein Spiel auch noch Bandbreite und dann läuft im Hintergrund sicherlich noch einiges andere (Discord, Teamspeak, Skype, Windows Update, etc. pp.) und es sind sicherlich auch noch andere Geräte im Netzwerk, die ab und zu mal funken.

Das Grafikkarten Upgrade wird dir auf jeden Fall schon mal mit NVENC das Streamen problemlos ermöglichen. Alles was du aktuell mit deinem Rechner zocken kannst, wirst du dann auch streamen können.
 
Upload stehen ca 30k zur Verfügung :D. Die 6k hab ich genannt, da dies ja erst einmal das Maximum bei Twitch darstellt :)
 
@RidRay Hast du denn schon mal mit deinem jetzigen System gestreamt? Dann kannst du dir mal einen Eindruck von NVENC machen (der mit Turing nochmal deutlich besser ist, wie hier schon oft gezeigt wurde). Habe für mich 720p@50 als Idealwert gefunden (Twitch/6mbps). Das schaut mit Maxwell recht brauchbar aus.

benneq schrieb:
Mal ganz davon abgesehen, dass eine 2080 / 2070 Super mit deiner 980Ti den Boden wischt. Im Vergleich zur 980Ti liefern diese beiden neuen Karten doppelt(!) so viele FPS. Soll heißen: Du hast bei identischen Settings / FPS auf jeden Fall massig Luft noch oben.

Verdopplung schaffst du höchstens mit der 2080 Ti. 2070S etwa +60% und 2080 etwa +75% zur 980 Ti. Ein sehr großer Sprung ohne Frage, aber kostet natürlich überproportional.
 
@TheOpenfield Je nach Spiel sind tatsächlich +100% drin. Natürlich nicht überall. Je nach Seite und Benchmark Parcour liegt man im Schnitt zwischen +60% und +90%.
http://hwbench.com/vgas/geforce-rtx-2080-vs-geforce-gtx-980-ti

Und Preis. Naja. Die 980 Ti hat zur Einführung über 700€ gekostet. Manche Partnermodelle sogar bis 800€. Dagegen sind 550-600€ für eine 2070 Super doch voll vertretbar.
 
Zurück
Oben