News Nvidia GeForce GTX 1650: Die neueste Turing-GPU hat noch einen Volta-Encoder

wiwo la vida schrieb:
Auf einer offiziellen Nvidia Seite steht allerdings, dass die 1650 den turing nvenc und nvdec hat:

Blind? Schaue nochmal genauer nach!
775941
 
Der Test kommt bestimmt noch.
Da es sich hier nur um entry-level handelt, hat der Test vllt. nicht ganz so hoche Priorität wie bei anderen Karten.
 
Ich hoffe hier kann mir wer helfen, denn ich finde nirgends eine Antwort dazu:

Wie viele NVENC-Encoder haben die Grafikkarten? Jede nur eine? Oder hat z.B. eine 1080TI mehrere und eine 1060 nur eine? Oder sind alle Karten einer Generation identisch?

Will meinem Vater zum Geburtstag für sein Encoding eine Turing Karte kaufen - reicht da die kleinste RTX, oder sogar eine GTX1660? Wäre die dann so schnell wie eine 2080Ti beim reinen Encoden über NVENC?

Im Internet findet man nur nervige Streaming Benchmarks für Fortnite und wenn ich nur das Wort Fortnite oder Bilder davon sehe bekomme ich schon die Krätze... normales Encoden von Videomaterial schient niemanden mehr zu interessieren :D

Da er aber viel filmt, vor allem in 4K, wäre das eine elegante Lösung.

Liebe Grüße & Danke schonmal
 
Desertdelphin schrieb:
Ich hoffe hier kann mir wer helfen, denn ich finde nirgends eine Antwort dazu:

Hast du denn überhaupt gesucht? Ich glaube kaum!
Desertdelphin schrieb:
Wie viele NVENC-Encoder haben die Grafikkarten? Jede nur eine? Oder hat z.B. eine 1080TI mehrere und eine 1060 nur eine? Oder sind alle Karten einer Generation identisch?

Bereits mehrfach in diesem Thread verlinkt.
775988
 
  • Gefällt mir
Reaktionen: Willnochreisen
Ich habe nicht in diesem Topic alles durchgelesen, nein :D Aber in Google und Youtube bekommst du nur Infos über die Frameraten bei Streaming wenn du nach NVENC BEnchmark suchst. Da habe ich gesucht.

Und diese Nvidiatabellen sind eben so... naja. Damals hieß es auch die GTX950 hätte einen moderneren und besseren NVENC Chip als die GTX970 -> Irgendwie bekomme ich immer doppelt so viele FPS beim encoden als mein Vater mit seiner 950GTX. Also einen echten BENCHMARK habe ich noch nie gesehen. Karte A, B, C - gleiches Tool und Unterbau und dann die Encodingleistung von Videomaterial des Camcorders in 4K auf H265.

PS: Deine Tabelle lässt mich jetzt glauben das die 1650 zur 2080ti gleichwertig ist. Laut ARtikel ist hier aber ein Volta-NVenc eingebaut. Also wäre dann die 1660 zur 2080ti gleichwertig, korrekt?

LG
 
Zuletzt bearbeitet von einem Moderator:
Du solltest dich erstmal fragen ob nvenc das richtige ist. Normalerweise nimmt man das wenn's schnell gehen muss und Qualität zweitrangig ist. Dein Anwendungsfall erscheint mir eher mit Fokus auf Qualität.
 
  • Gefällt mir
Reaktionen: xexex
@Desertdelphin
Ich wollte die Graka auch mal für Video Encoding verwenden, aber hast du die Qualität bei x265 mal mit Softwareencoding in x265 verglichen? Der Unterschied ist immens. Mir persönlich hat die Qualität der Graka nicht ausgereicht, auch wenn ich mit der Geschwindigkeit sehr zufrieden war.

PS: Der NVENC Encoder sollte meines Wissens identisch sein. Nur die Anzahl der gleichzeitigen Encodes war bei den Pascal Karten unterschiedlich. Bei den Turing Karten hat man einfach mal die Chips kastriert und die Anzahl auf 1 gedrückt. Obwohl die Karten deutlich teurer sind.
 
  • Gefällt mir
Reaktionen: Willnochreisen
mich würde allerdings mal interessieren wie es derzeit um opencl und cuda für encoding taks steht. Kann jemand cuda/opencl dem cpu encoding gegenüberstellen?
 
BiGfReAk schrieb:
@Desertdelphin
Ich wollte die Graka auch mal für Video Encoding verwenden, aber hast du die Qualität bei x265 mal mit Softwareencoding in x265 verglichen? Der Unterschied ist immens. Mir persönlich hat die Qualität der Graka nicht ausgereicht, auch wenn ich mit der Geschwindigkeit sehr zufrieden war.

PS: Der NVENC Encoder sollte meines Wissens identisch sein. Nur die Anzahl der gleichzeitigen Encodes war bei den Pascal Karten unterschiedlich. Bei den Turing Karten hat man einfach mal die Chips kastriert und die Anzahl auf 1 gedrückt. Obwohl die Karten deutlich teurer sind.


- Das muss mein Vater entscheiden. Meine damaligen Erfahrungen mit Intes Quicksync waren aber relativ positiv. Man muss mit der Bitrate zwar 2000-3000bit raufgehen um die niedrigere Qualität auszugleichen, aber er geht ja von 50Mbit seiner Kamera in H264 auf ~10Mbit H265 runter. Die Qualität reicht für die Urlaubsaufnahmen und er spart trotzdem massiv Platz. Wir warten hier auf auf den Ryzen 3, denn den gibt es dazu. Dann kann er immer noch zwischen beiden Varianten wählen.

Der gute Phenom X6 ist aber langsam zu langsam :D


- Bezüglich der Anzahl an ENcodes. Laut der Tabelle oben können die Turings doch weiterhin 2 gleichzeitige? Nicht das das für uns relevant wäre. Hier zählt einfach nur die Geschwindigkeit von 4K Material von H264 auf H265 für einen Encode.
 
Desertdelphin schrieb:
PS: Deine Tabelle lässt mich jetzt glauben das die 1650 zur 2080ti gleichwertig ist. Laut ARtikel ist hier aber ein Volta-NVenc eingebaut. Also wäre dann die 1660 zur 2080ti gleichwertig, korrekt?

Die Tabelle ist nur ein Ausschnitt und der Link zu der Quelle und weiteren viel umfangreicheren Informationen wurde hier von mir und anderen bereits mehrfach gepostet.
 
Der Volta NVENC ist gar nicht so schlecht, wie er geredet wird. Mit blossem Auge erkennt man beim Encoding sowieso keinen Unterschied. Wenn man mit der Lupe sucht, dann eventuell ja. Ich habe meine Pascal GTX1060 behalten, weil ich mit dem NVENC und der Turing Reihe nicht zufrieden bin/war. Bei Open Broadcaster wird hier auch der NVENC in Hardware genutzt, das funktioniert genauso schnell wie Pascal wie bei Turing, laut meinen Tests.

Jedoch ist mein "veralteter" Pascal Encoder bei zB 4K 60fps GPU Encoding in PowerDirector 16/17 und auch mit Handbrake Encoding ca. 40% schneller, als der Turing NVENC. Bei Full HD liegt man gleichauf.

Ich habe hier 4k 60fps Streams einfach mal neu kodiert, und es war erschreckend, wie viel lanmgsamer der Turing NVENC war. Dabei war es egal, ob man Videos mit konstanter 60fps oder variable FPS (wie von Smartphones) umwandelte, der Pascal war immer schneller. Jedenfalls, mit meiner GTX1060 (ASUS).

Bei der Bildquali sehe ich Null Unterschied. Des Weiteren unterstützt der NVENC der Turing Reihe auf kein Field Encoding mehr (Interlaced) in Hardware. Das wurde gestrichen.

Die GTX1650 unterstützt das noch, wie halt auch die ganze Pascal Riege.

Einen Vorteil hat die Turing NVENC Architektur: sie kodiert 4K 10Bit 24FPS deutlich schneller um, aber das ist nun mal nicht mein "Zielgebiet" und nützt mir also gar nichts.

Dabei macht es verständlicherweise kaum einen Unterschied, ob man sich deswegen eine GTX1660 oder eine RTX2080Ti kauft, da alle nur noch einen NVENC Chip haben, und dieser annähernd die gleiche Leistung bringt. Deswegen überspringe ich auch diese Generation.

Die ganzen Tabellen und "Werbebilder" zum Turing NVENC/NVDEC sind für mich auch nur Propaganda, da ich leider eher Nachteile als Vorteile für mich habe. Und "noch" an einen Performance "Sprung" durch den Treiber glaube ich überhaupt nicht mehr, es hat sich kaum was getan in einem halben Jahr.
 
Janami25 schrieb:
Und "noch" an einen Performance "Sprung" durch den Treiber glaube ich überhaupt nicht mehr, es hat sich kaum was getan in einem halben Jahr.

Ich denke die Optimierungen werden kaum auf Treiberebene gemacht, sondern vor allem in den Applikationen. OBS ist ein prominentes Beispiel und dort ist mit den Turing Karten einiges passiert.
https://www.overclock3d.net/news/so...oost_and_higher_quality_streams_on_rtx_gpus/1

Für eine "offline" Konvertierung, bietet sich aber eigentlich immer die CPU an. Da lässt man halt den PC über Nacht laufen und gut ist.
 
Genau deswegen gibt es ja GPU Encodierung, um bedeutend Zeit einzusparen, und nicht unnötig Wartezeit haben zu müssen, oder den Rechner nachts anzulassen. So kann man das Ergebnis auch deutlich früher betrachten, und nicht erst am nächsten Morgen. Für mich also sinnlos.

GPU Encodierung ist mehrfach schneller, da nützt einem im Vergleich auch ein 16 Kerner nichts. Und deswegen würde ich das persönlich immer bevorzugen, erst recht bei 4K Film Bearbeitung.
 
Janami25 schrieb:
Genau deswegen gibt es ja GPU Encodierung, um bedeutend Zeit einzusparen, und nicht unnötig Wartezeit haben zu müssen, oder den Rechner nachts anzulassen.

Dem möchte ich auch nicht widersprechen aber...…
776153


Was sagt uns das? An sich wenig! Der Punkt ist nur, dass NVENC sich in erster Linie an Streamer richtet, die eine Echtzeitkodierung benötigen und durchaus auf etwas Qualität verzichten können. Deshalb nutzt zum Beispiel Premiere Pro auch kein NVENC sondern verwendet CUDA oder Open CL zur Beschleunigung. Dort steht dann wiederum eben die Qualität im Vordergrund.

Überall dort wo man die Zeit hat und keine Echtzeitkomprimierung benötigt wird, sollte man deshalb auch von NVENC Abstand nehmen. Nicht weil es "schlecht" ist, sondern weil es Quatsch ist auf Qualität zu verzichten, nur weil man etwas Zeit sparen möchte.

Deshalb sind auch Benchmarks in diesem Bereich auch immer mit Vorsicht zu genießen, denn am Ende zählt nicht nur die Geschwindigkeit, sondern das Verhältnis von Geschwindigkeit zu dabei entstandenen Dateigröße und Qualität.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Willnochreisen
Natürlich, ich persönlich sehe qualitativ überhaupt gar keinen Unterschied zwischen CPU und Nvenc Kodierung. Mit meiner kompletten Software sehen die Ergebnisse hervorragend aus, und das zu einem deutlich größer Vorteil an Geschwindigkeit.

Aber letztendlich drehen wir uns im Kreis, weil es davon abhängig ist, was jeder unter Qualität und Anspruch versteht.

Für mich ist kein Qualitätsverlust mit bloßem Auge erkennbar, deswegen würde ich immer eine Kodierung in Hardware bevorzugen.

Und suche mir auch die Software danach aus.

Aber das muss jeder selbst für sich entscheiden.
 
Die genannten bitrates gelten für welche Auflösung.
Wenn FHD dann ist klar wieso nvenc schlecht aussieht
aus Erfahrung weiß ich das nvenc min bei HD =720p 60fps 6mbit braucht
bei FHD =1080p 60fps ab 12mbit
Nimmt man cqp was nur inoffiziell geht
bsp vegas pro
bekomme ich ein 720p video zwischen 8-10mbit mit nvenc
nehme ich vfw x264 sind es nur noch max 4 mbit
oft sogar mit 2,5 mbit x264 crf23 no tune und zero latenczy (keine b frames)
Mit HEVC wird das nochmal halbiert
Nachteil encoding zeit deutlich verlängert üblich sind mit cpu x264 HD ~50-75fps 4:2:0
FHD 60fps ~23fps
Auf gpu mit deutlicher größeren bitrate HD 150fps FHD 75fps

Die angaben sind relativ je mehr sich bewegt desto schneller, ich habe auch HD 30fps da sind max 40fps
ist quasi Standbild
 
Zurück
Oben