Intel Core i9900kf SCHLECHTER als der 9900k - Adobe Premiere Pro

ghecko schrieb:
https://www.pugetsystems.com/labs/a...CC-2019-CPU-Roundup-Intel-vs-AMD-vs-Mac-1320/
Wie man hier sieht, sind in Premiere 6-Kerner (9600K) gegenüber 8-Kerner (9700K/ 2700X) deutlich im Nachteil, der 8700K ist also nicht zu empfehlen.

https://www.golem.de/news/adobe-pre...-schlaegt-acht-ryzen-kerne-1806-134637-2.html
Premiere kann CUDA und Quicksync gleichzeitig nutzen, wobei über Quicksync encodet wird und über CUDA die Einzelbilder berechnet werden (Farbkorrekturen, Bildstabi, Interpolarisation und Effekte). Das kann Geschwindigkeitsvorteile bringen, aber:

1-Pass H264 ist Steinzeit, dieses Feature kann man sich also sparen. Zumal die Bildqualität beim Encode über die CPU besser ist. Der 2700X ist also insgesamt der beste Prozessor für Premiere in dieser Preiskategorie. Vergleichbare Prozessoren von Intel kosten 100€ mehr, sind aber nicht schneller.

Als GPU ist nach wie vor die GTX1070 als günstigste CUDA-Karte mit 8GB VRAM die beste Karte für Premiere:
https://geizhals.de/zotac-geforce-gtx-1070-mini-zt-p10700g-10m-a1503079.html
Wenn man 4k-Material schneidet sollte man 8GB VRAM haben, arbeitet man mit geringeren Auflösungen reichen auch die 6GB der Klasse 1060/1660.
https://www.pugetsystems.com/labs/a...A-GeForce-vs-AMD-Radeon-Vega-1206/#Conclusion

Wenn der Beitrag noch dem aktuellen Stand entspricht ist QuickSync auch kein Allheilmittel und rohe CPU Leistung vorzuziehen.
 
ob 3900x (oder gar 3950x) oder 9900k oder 9900kf oder 9900ks macht nicht den wirklich großen Unterschied.
Intel ist teurer und bietet weniger Kerne. In niedrigen Auflösungen hast du durchweg mehr fps mit dem Intel.
Aber quicksync könnte in manchen Anwendungen einen Vorteil darstellen, daher wäre bei Intel wohl eher 9900k oder 9900ks die Wahl für dich.

AMD bietet dir pci-e 4.0 und bessere Anwendungsperformance.

Die "neuen" Intel könnten je nach Preispunkt interessant werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: marimo111
Ich würde wirklich warten auf die 10th Gen von Intel.
Es kann gut sein, dass da schon ein i5 den 9900K abzieht. Da ärgert man sich dann nur >500€ verpulvert zu haben.
Da die 10th Gen auch deutlich bei der iGPU zulegen soll, wird da auch das Quicksync stark profitieren.
Also ich würde abwarten.
 
Ich besitze den 8700k@4,7 allcore mit 64GB RAM und befasse mich ziemlich viel mit Videoschnitt in Premiere.

Quicksync, also die integrierte GPU der Intel-Prozessoren beschleunigt die Decodierung von h.264 und HEVC (h.265) Material in der Timeline. D.h. Scrubbing geht damit deutlich flüssiger und auch reines Playback belastet die CPU deutlich weniger und somit bleiben mehr Reserven für Effekte oder andere Dinge, welche von der CPU berechnet werden müssen.

Selbst 1080p Material belastet einen 8700k sichtbar (CPU-Auslastung Taskmanager), wenn es von der CPU decodiert werden soll. Mit aktiver Quick-Sync Decodierung fällt diese Belastung fast komplett weg.

Es kann aber ab und an zu Fragmenten oder kleinen Vorschaufehlern kommen. Diese sind in der Timeline noch zu verschmerzen, beim finalen Rendern geht sowas aber gar nicht, weshalb hier IMMER "Software" verwendet werden sollte. Außerdem ist auch nur dann VBR2 verfügbar.

Ich nutze zusätzlich eine GTX1080 in meinem System und diese wird ebenfalls von Premiere gut genutzt, Echtzeitdecodierung und diesem Ausmaß bietet sie aber nicht.

Ich war extrem froh, als Premiere endlich den HEVC-Decodierungssupport eingeführt hat, denn mein Rechner war mit dem 10bit 4k60 Material meiner Fuji XT3 komplett überfordert. Mit aktiver Decodierung ist jetzt zwar die CPU-Auslastung viel geringer, es ist aber immer noch sehr träge und ich arbeite ausschließlich mit Proxies. Selbst das Playback fängt ohne diese zu stocken an. Auch ohne zusätzliche Effekte. Allerdings arbeite ich auch von einem 10Gbit NAS aus. Habe das Material testweise auf die interne M2 SSD kopiert, machte aber keinen Unterschied. Ich denke dennoch, dass dies der erste Schritt wäre, um dieses Material flüssig schneiden zu können. Man müsste danach vielleicht das System etwas optimieren. Nachdem ich aber nicht genug lokalen Speicherplatz habe, habe ich diesen Ansatz nicht weiter verfolgt und arbeite mit Proxies für den Rohschnitt und danach hilft mir die IGPU zumindest ein wenig beim Grading der Originalmaterials.

Was ich also sagen möchte: Die IGPU unterstützt nicht unwesentlich. Ich sehe sie aber nur bei h.264 Material wirklich sinnvoll nutzbar und beim finalen Rendern würde ich sie deaktiviert lassen. Das GPU-Rendern ist schon seit Jahren ein Problem. Ich verstehe all die Youtuber nicht, welche über IGPU und die kurzen Renderzeiten schwärmen. Ich habe jedenfalls fast immer Renderfehler und kann es nicht empfehlen.



Wie sich das Ganze mit der neuen IGPU im 10990k schlägt, kann ich nicht sagen. Bei meinem alten System (2600k mit GTX670) wurde die IGP von Premiere nicht fürs Hardwaredecoding verwendet, ganz im Gegensatz zu meinem schwachbrüstigem Laptop mit Dualcore i5 der dritten Generation und unterstützter IGPU. Damit konnte ich mein damaliges 1080p h.264 Material perfekt schneiden, wogegen der 2600k massiv ins Stocken kam. Eventuell kommt die neue IGPU im 10990k dann mit HEVC Material auch besser zurecht.

Diesen Leistungsgewinn habe ich in der jetzigen Situation mit HEVC leider nicht. Deswegen würde ich mich wohl für einen Ryzen 9 entscheiden, würde ich jetzt neu kaufen. Threadripper ist mir für reines Hobby zu teuer und ich denke auch, dass ich die Abwärme nicht so einfach und geräuscharm wegbekomme wie bei dem „kleinen“ 9er.

Es geht nichts über reine CPU-Leistung. Alles andere kann helfen, muss es aber nicht. Und gerade im professionellen Bereich muss das zuverlässig laufen. Da ist keine Zeit für Fehlersuche und Spielereien.

LG Tom
 
  • Gefällt mir
Reaktionen: Mr.Baba
Gerade ist mir noch etwas eingefallen, dass ich bei Intel mit IGPU sehr nützlich finde: Auch wenn ich mir das Verwenden von Proxies mit meinem HEVC-Material nicht erspare, sind diese mit Quick Sync viel leichter zu erzeugen. Erstens geht das Rendern schneller und zweitens, das wirklich wichtige für mich: Die CPU-Last bleibt ca 20-25% während die IGPU zwischen 40 und 50% ausgelastet ist und brav im Hintergrund werkelt. Die GTX1080 bleibt nahezu ungenutzt. D.h. ich kann auch nebenbei Gamen falls ich möchte oder einfach mit Lightroom oder sonstigen Programmen arbeiten.
 
Zuletzt bearbeitet:
@koeniglois
Also GPU Rendern fordert die Grafikkarte extrem, wenn du Bildfehler hast takte mal Speicher und GPU etwas runter vielleicht hilft das.
Ich hab das mal mit Blender getestet mit Cuda und Optix.
Bei Optix liege ich bei der 8xfachen Geschwindigkeit mit 2 Karten als mein 9900K mit OC und dort ist es Fehlerfrei.
Die Grafikkarten werden bis Anschlag belastet, mehr als beim zocken.
 
@PhoenixMDA
Danke für die Info. Werde die IGPU mal etwas runterschrauben und testen. Meine aber, dass ich das schon mal versucht habe.
Die Glitches habe ich auch schon in einem Youtube-Video gefunden. Das war aber auch so ziemlich das einzige Video, welches auf dieses Problem eingeht. Ich denke es war von Gerald Undone, bin mir aber nicht mehr sicher.
Aber auch ohne Glitches mangelt es an der Qualität, zumindest was das Rendern mit der Intel IGPU angeht.
Mit den Ergebnissen, welche meine GTX1080 unter anderen Programmen abliefert (z.B. Handbrake), sind für mich in Ordnung. Wird halt auch viel mit der verwendeten Software zu tun haben.
 
Portal501 schrieb:
Ich würde aber schon auf den i9 10900k warten. Sollte ja nächsten Monat erscheinen.

Der kommt frühestens Mai. Man sollte auch die Lieferschwierigkeiten von Coffee Lake & Coffee Lake Refresh nicht vergessen. Zu erwarten ist also, dass die Preise der 10 Generation erst einmal hoch gehen werden und dann nach 2-3 Monaten so langsam absinken. Dann wird allerdings auch schon wieder Ryzen 4000 vor der Tür stehen und Intel wäre dann absolut nicht mehr zu empfehlen, wenn Zen 3 wirklich wieder 15% mehr IPC bringt.
 
Ich hab ja Adobe da, wenn mal Zeit ist teste ich das, die IGPU benutz ich ehrlich gesagt nicht.
Also die Leistung bei Cuda/Optix ist sehr gut wenn unterstützt.Man hat je eh die Graka drin.Bei Blender bin ich nochmal um einiges schneller als der 64 Kerner AMD laut Liste.
Dagegen ist halt rein der 9900k natürlich ziemlich lahm, der spielt halt bis 8Kerne seine Vorteile aus.
Für's "normale" ist das mehr als ich jetzt eigtl. brauch.Für Blender BMW27 brauch ich z.B. 16s.

Falls du AMD dir holen willst warte lieber auf den 4'er, der 3950X ist oft nur wenig schneller als nen guter 3900X oder du hast ne ziemlich potente Kühlung und Glück bei der Silicon Lotterie, damit du nen guten Allcore Takt hälst.
 
Zuletzt bearbeitet:
:/ ob das legal ist dieses Bild zu posten..ich weiss ja nicht .

edit. sehe gerade das er shcon gebannt ist... omg. irgednwie dumm... Aber naja ..Back to topic!

@
PhoenixMDA
Ich meine sogar das sich ab dem Ryzen 3700x bis 3950x nicht viel an mehr Leistung gewinnen lässt.
Laut userbenchmark.com sind die Unterscheide der Leistung gering.
Multicoreleistung gibt es zwar ein paar 5% mehr an Mehrleistung aber denke nicht das es den Aufpreis gerechtfertigt ist. :/ dann noch diese silicon lotterie, das vllt jeder 10. (fiktive anmahne) dann ein oc könig ist und vllt bei boost OC noch mal 3% mehr hat . Und am verbrauch ne Steigerung von 20% hat :/
 
Wenn du keine oder wenig Anwendungen nutzt die auch effektiv mehr Kerne nutzen, ist das völlig richtig.
Deswegen hab ich auch nen 9900k.

Was ich jetzt aber meinte ist wenn du eine gut skalierende Multicore Anwendung nutzt.
Vom 3900X zum 3950X sind es 33% mehr Kerne, wenn du aber 20% Takt verlierst als Beispiel, macht das irgendwie wieder alles zunichte.
Ich hab jetzt schon öfters Ergebnisse z.b. Geekbench gesehen da lagen HWL User mit 3950X bei 12500 rum, ich hab mit 9900k 11300, da wäre nen 3900X sogar der schnellste.

Mit RamOC holst du auf jeden Fall die sinnvollste Mehrleistung, unabhängig der Plattform und das mit dem geringsten Aufpreis.
 
Zurück
Oben