Eure Erfahrungen beim HD - Videoschnitt

Vielleicht noch interessant, hab ich selbst nicht gewusst:

Egal ob 96 Kerne in einer günstigen GT240 oder 480 Kerne in einer teuren GTX 570 werkelten, die Rendergeschwindigkeit bei aktivierter GPU unterschied sich fast nicht. Das deckt sich auch mit unseren Erfahrungen, und unterstützt die These, dass die meiste Zeit dabei verbraucht wird, die Bilddaten vom Hauptspeicher in die GPU zu bekommen. Und hierbei unterscheiden sich die Karten fast nicht. Das aktuelle Nadelöhr scheint also nicht die GPU-Leistung sondern der Daten-Transfer zur Grafikkarte zu sein.

Quelle: http://www.slashcam.de/news/single/GPU-Typ-fuer-Mercury-Engine-nicht-sonderlich-entsch-9160.html
 
Ja das ist tatsächlich interessant. Vorallem weil wohl auch mit günstigeren GPU's genauso schnell gerechnet werden kann.
 
Zuletzt bearbeitet:
System:
Phenom II 955 BE @ 4.0 GHz
8 Gbyte Corsair Dominator CL9 1600 MHz
Gigabyte 790FXTA-UD5
Sapphire 6970 mit 2 Gbyte RAM
1x SSD für Windows und Programme
1x Samsung F3 für Import Datein
1x Samsung F3 für Export Datein

Programm:
Magix Video Deluxe 17 Premium

Projekt:
ca 30 Gbyte je Projekt
sind immer 2,5h von einer FullHD Panasonic AVCHD
hauptsächlich schneiden, Bildstabilisierung und Blenden (bin noch Anfänger)

Erfahrungsbericht:
Also das schneiden funktioniert problemlos. Ebenso geht die Bildstabilisierung sehr gut mit dem Programm, erfordert allerdings immens Rechenleistung.
Was mich extrem stört, der Export inkl. rendern in das Ausgabeformat dauert fast 26h. Dabei ist die CPU Auslastung allerdings bei über 90% auf allen 4 Kernen

Fazit:
Programm läuft stabil und arbeiten geht mit meinem System flott von der Hand. Einzig die Bildstabilisierung und der Export erfodert immens Performance. Hier wäre nun die Frage nach DUAL Socket System oder Sandy Bridge. Nu bleibt offen ab wieviel CPU Kernen kein Mehrwert mehr erzielt werden kann.

Beste Grüße BigB
 
Zuletzt bearbeitet:
@BigBratsac: Mit Sandy Bridge würde es sicher (noch) besser laufen.
Der i7 2600k ist ja ~40-50% schneller als der Phenom II 955 BE @ 4.0 GHz.
Danke für dein Erfahrungsbericht :daumen:
 
Zuletzt bearbeitet:
makiyt schrieb:
Vielleicht noch interessant, hab ich selbst nicht gewusst:

Egal ob 96 Kerne in einer günstigen GT240 oder 480 Kerne in einer teuren GTX 570 werkelten, die Rendergeschwindigkeit bei aktivierter GPU unterschied sich fast nicht. Das deckt sich auch mit unseren Erfahrungen, und unterstützt die These, dass die meiste Zeit dabei verbraucht wird, die Bilddaten vom Hauptspeicher in die GPU zu bekommen. Und hierbei unterscheiden sich die Karten fast nicht. Das aktuelle Nadelöhr scheint also nicht die GPU-Leistung sondern der Daten-Transfer zur Grafikkarte zu sein.

Quelle: http://www.slashcam.de/news/single/GPU-Typ-fuer-Mercury-Engine-nicht-sonderlich-entsch-9160.html

Es ist zwar etwas Off-topic aber ich würde da trotzdem gerne meinen Senf dazugeben :)

Ich gehe mal davon aus, dass in diesem Fall eine Intel-Plattform eingesetzt wurde.

Allerdings hab ich davon gehört. dass man in einem solchen Fall mit einer AMD-Plattform besser fährt. Gelesen habe ich davon in irgendeinem Artikel über diese Rechner, in denen 4 Dualgrafikkarten oder mehr zusammen betrieben werden um Server zu ersetzen.

Soweit ich weiß, ist für das geringere Nadelöhr bei AMD, der Hyper-Transport-Link verantwortlich, der schnellere Übertragungsraten bietet.

Es wäre also interessant zu wissen, ob es einen Unterschied bei den erwähnten Grafikkarten gibt, wenn man eine AMD Plattform verwendet?

Hat da jemand irgendwelche Erfahrungen?
 
Ja, der Bulldozer soll ja mit seinem Speichercontroller nicht nur wie Intel DDR1333 supporten, sondern bis zu DDR1866 unterstützen.

Slashcam hatte ja bereits im Test einen Geschwindigkeitszuwache feststellen können - in der Tat bei einem Intel System. Der Vorteil kam aber nur dann zum Tragen, wenn das System stark übertaktet war.

Was deine Behauptung ja gut stützt. Wenn bei Intel der FSB oder richtigerweise der QPI-Link angehoben wird, ist der ja auch schneller.

Das Pendant beim AMD ist ja wie du schon sagtest der HT-Link. Und da der nun schneller angebunden wird, behauptete ich einfach mal, dass sich die Geschwindigkeitssteigerung, die man beim Intel-System spürt, auch in irgendeiner Form beim AMD-Sys zum tragen kommen müsste. Ob nun 10% oder 30%, kann ich nicht sagen, da bei AMD ja auch die Leistung pro Mhz anders ist.
 
Hi Leute:

mein System:

GA 790XTA-UD4
AMD Phenom II X4 965BE
#NEU# 16GB DDR3 1333 von Corsair
#NEU# 128GB oder 256GB SSD Crucial M4 als System und Arbeitsplatte
#NEU# 2TB Datenpatte - ich weiß leider noch nicht welche^^ vllt habt ihr einen Tipp :)

GeForce 9600 GT - und genau da weis ich jetzt nicht weiter:
eig wollt ich ne GTX 570 holen, aber hier wurde angemerkt, das das für die Bearbeitung von Videos nicht zwingend ist eine NEUE Graka zu besitzen... worauf muss ich achten? bzw was wäre eine Gute Graka für Videoschnitt? 150 - 250€
 
Kommt natürlich auf das Programm an und ob es Cuda unterstützt, dann wäre eine starke GPU sinnvoll! Geht es nur um Berechnung per CPU, ein Kumpel hat einen Phenom II x4 und einen Intel SB i5 2400 - bei AMD 3 GHz und Intel 3,1 GHz ist der Intel zwischen 35% und 50% schneller - bei gleichem RAM DDR3-1333!
 
Ich benutze Adobe CS4 in Zukunft VLLT CS5

Boa das ist heftig, das der neue i5 soviel schneller ist hätte ich nicht gedacht...

ich habe inzwischen hier http://www.studio1productions.com/Articles/PremiereCS5.htm mal gelesen und habe mal diese hier rausgesucht:

CUDA BIT
GTX 285 240 512
gibts bei Alternate gar nicht mehr

GTX 470 448 320

GTX 560Ti 384 256
http://www.alternate.de/html/product/Gainward/GTX560_Ti_PHANTOM/819940/?

GTX 570 480 320
http://www.alternate.de/html/product/Gainward/GeForce_GTX_570_Phantom/802848/?

9600 GT 64 256 zum Vergleich :D

im Prinzip stellt die 470 ne gute Mischung dar, hab aber gelesen das die sehr Laut ist und überdurchschnittlich viel Strom frißt
 
@Rakede44: Schau bitte nochmal hier rein:

https://www.computerbase.de/forum/t...m-hd-videoschnitt.917451/page-2#post-10244759

Laut dem Bericht von Slashcam kannst bei der GPU sparen. Nimm die mit dem größten Speicherinterface.

Da gäbe es zum Beispiel eine leckere GTX 260 mit satten 512Bit Anbindung:
http://geizhals.at/344250

Laut Slashcam müsste die also mehr Performance bringen als die 470.


Wenn dir 240.- € aber zu viel sind, gäbe es noch diese Karte mit 384Bit:
http://geizhals.at/519521

Naja, aber eine GTX480 würd ich dafür trotzdem niemals nehmen.


256bit wäre:
http://geizhals.at/419753 --> hat sogar einen hohen Speichertakt von 1000 Mhz!

So was müsste man halt mal testen, wie sich

a) Speicheranbindung
b) Speichertakt

direkt auf Rendering bezieht.


EDIT:

Beste Karte wohl nach wie vor die GTX 280 von Zotac, weil diese sogar 1105 Mhz Speichertakt sowie 512Bit Speicherinterface bietet. Wäre nice, wenn jemand vielleicht mal zwei unterschiedliche Karten mit unterschiedlichen Speicheranbindungen bei sich mal testen kann.


Wobei noch folgender Punkt ja wichtig ist:

Wie wichtig ist die Frage nach der GPU-Beschleunigung wirklich?

Fürs finale Rendering (zumindest in Premiere Pro CS 5.5) ist die GPU total irrelevant, da der Adobe Media Encoder selbst nur die CPU nutzt

Aus gutem Grund, weil die CPU Videoeffekte qualitativ besser berechnet als die GPU.


Auch hier noch ein Bericht:
http://www.slashcam.de/artikel/Grundlagen/OpenCL--CUDA--Stream--Welche-GPU-fuers-Editing-.html

Daher muss die GPU ja nur beim Schneiden selbst, also der Timeline arbeiten.

Danke schneller CPU ist das aber vllt auch nicht mehr so extrem wichtig. Bei mir packt der i7 so ziemlich alles, wenn ich nur CPU-Beschleunigung beim Schneiden nutze.


Was ich sagen will:
Wer nicht EXTREM aufwendige Projekte hat mir zig Farbkorrekturen, Filmlookfabren und so, der muss vielleicht gar nicht zwingend eine 512Bit karte nehmen, da bringt dann auch schon eine ca. 60€-Karte mit 256bit ausreichend.
 
Zuletzt bearbeitet:
so, ich hab mich jetzt für die GTX 560Ti entschieden, die hat zwar keine so große Speicheranbindung wie 280/470/570 kostet aber nur ~200€ und besitzt die neuste Technik (DX11 etc....) und hat 256Bit Speicheranbindung (wie bei der alten Karte) - da mir jetzt klar wurde das ich eig gar nicht soooo oft Videos bearbeite um mich NUR nach der Speicheranbindung zu orientieren ;) :)
 
Damit machst du auch definitiv nichts falsch - 256bit ist ja auch gut, slashcam hat ja auch bereits erhebliche Leistungszugewinne von 128 bit zu 256 festgestellt. 560TI ist immer gut.
 
Hallo Tenchi Muyo,

ja, das finde ich auch! Schön, dass es noch threads gibt, wo sehr fachlich diskutiert wird.

Einige Sachen kann ich dir beantworten:

QuickSync scheint tatäschlich ziemlich schnell zu sein:

"The A8-3500M is certainly assisted by the general-purpose compute capability of its shader cores, going so far as to beat a similarly-clocked Phenom II X4 and Radeon HD 5570, suggesting that the plumbing of the APU is better-optimized for this task.

Having said that, Quick Sync is a lot faster. And the accelerated A8-3500M results can only match the Core i5-2520M handling the job with its processor cores.

The results aren’t altogether surprising. Fixed-function logic is designed to perform one task well, and that’s exactly what Quick Sync does. For as flexible as general-purpose resources can be, don’t expect an integrated graphics engine to ever be as fast or as power-efficient as Quick Sync in an application actually optimized for Intel’s Media SDK."


Quelle:
http://www.tomshardware.com/reviews/a8-3500m-llano-apu,2959-20.html

Sehr interessant auch das Diagramm, die unterste CPU.

Mit Intel QuickSync rechne ich hierbei 77 % Performanceunterschied aus!


Zum GPU-Encoding:

Super, dass du das schreibst, welche GPU du hast! Echt gut!

Zur Erklärung hier ein Post von mir:

https://www.computerbase.de/forum/t...m-hd-videoschnitt.917451/page-2#post-10244759

Deine Beschreibung belegt genau das.
Deine GTX285 hat ein Speicherinterface von 512bit, die GTX 480 "nur" 384.

Slashcam.de hat einen starken Performancezuwachs von 128bit auf 256bit festgestellt, dank dir weiss das Internet (und wir auch^^), dass 512bit nochmals mehr als 384bringt.


Dabei hat die technisch neuere GPU sogar mehr CUDA-Cores als die GTX285!

Wir reden hierbei von 240 CUDA-Cores der GTX 285 vs. 480 CUDA-Cores der 480!
Trotzdem ist die ältere GTX285 mit 512bit Speicherinterface schneller als die GTX480 mit 384bit Speicherinterface.



Allerdings ist GPU-Encoding nicht immer das allerbeste- zumindest wenn man auf Qualität steht:
http://www.tomshardware.de/video-tr...da-intel-quicksync,testberichte-240740-9.html

Soll dein Video von der Qualität her noch höher sein, musst du über die CPU rendern, GPUs berechnen manche Bildeffekte bzw. Farben falsch, siehe den Link oben.

Wurde auch hier bereits nachgewiesen:
http://www.slashcam.de/artikel/Test...eich-GPU-CPU-Effekte-unter-Premiere-Pro-.html

Teilweise erhebliche Unterschiede.

Für mich daher absolut logisch, dass Adobe kein CUDA beim finalen Rendering unterstützt, sondern nur beim Schneiden selbst, da interessieren ja leicht abweichende Farben nicht. Hautpsache das finale Encoding liefert höchste Qualität.
Daher rendere ich Videos auch in Power Director IMMER mit CPU-Encoding.
 
Zur Qualität von Intel QuickSync kann ich dir nichts sagen, da ich keine SB-CPU habe.
Es wäre aber zu vermuten, dass die Qualität hierbei "normale" ist, da ja CPU-Rendering.

Blöde Frage: Bei MediaEspresso hast du die identische Datei bzw. Projekt in ein identisches Format mit absolut den gleichen Bitrateneinstellungen, etc. gerendert?

Aber auch Badaboom scheint ja nicht so gut bei dir zu funktionieren.

Hast du mal versucht, den neusten GeForce Treiber zu installieren, Kam gerad heute ja ein frischer raus.

Aber die Dateien müssten zumindest ja abspielbar sein, da liegt wohl ein anderes Problem vor.

Deine Fragen:

a) müsste es, weil CPU Rendering
b) der 980X ist wohl immer vorzuziehen, selbst wenn GPU-Encoding bei dir mal läuft (bei mir tuts hervorragend), dann ist CPU-Encoding immer noch von bessere Qualität.
Siehe auch hier.

Das Differenzbild ist grauslig :)
c) h.264 kann immer verwendet werden ja. Ob andere Videoformat CUDA können, muss man halt recherchieren. Kann aber momentan dahinstehen, weils ja keine besseren Formate gibt. H.264 ist momentan das, was XVID vor 5, 6 Jahren ja war.

Der 980X bietet aber sowieso eine brutale Mehrleistung bei Multicore/-threaded!

Klar, ohne Hardware wirds schwer.

Ich würde mal sagen:

WENN du schon einen 980X mit echten 6 Kernen und 12 Threads hast, dann wird der, auch wenn er kein QuickSync hat, meiner Meinung nach nicht langsamer sein als ein 4Core-CPU mit 8 Threads.

Du hast zwar kein QuickSync, dafür aber mehr echte Kerne - die auch noch jeweils zwei Threads mehr ausführen können.

Ich kann mir nicht vorstellen, dass die CPU hierbei ggü. dem i7-2600K mit QS schwächelt.

Auf keinen Fall würd ich jetzt für teures Geld umrüsten und die geile CPU hergeben :)

Wenns dir hilft. Der 980X EE ist bei Multicore/-threaded 20% schneller als der i7-2600K.
Wenn du nun irgendwie rauskriegst, ob der Cinebench R32 2010 von QuickSync profitiert, dann weisst dus. Profitiert er NICHT, kannst dus nicht vergleichen.
Profitiert der Cinebench R32 von QuickSync, dann kannst du auf jeden Fall sagen, dass der 980X EE 20% schneller ist.
 
Zuletzt bearbeitet: (Tenchi Muyo EDIT berücksichtigt :))
Ahja, die Bilder hatte ich auch iwo weiter mal verlinkt.

Die weisen ja auch Differenzen nach.

Wenn du sagst, der Trailer ruckelt leicht, ist langsamer - test mal die Länger der Videos!

Und teste mal den A/V-Versatz mit MediaInfo --> Download.

Mit mediaInfo die Dateien öffnen, auf Baumstruktur umschalten und die Zeilen unter "Video" vergleichen. Sind ja Abweichungen der gewandelten Dateien?

Das wäre ein Hinweis auf unterschiedliche Behandlungen durch CPu und GPU.

Insbesondere Bitrate, Anzahl der FPS, ob PAL oder NTSC, wäre interessant zu wissen.

Hm, wenn du doch ne SB CPU am Start hast, dann teste doch einfach.
Würde aber wetten, dass der 980X EE etwa gleich schnell wie die SB CPU wäre.

Aber wenn dem so ist, könntest ja den 980X bei ebay verschachern für ordentlich Moos. Dafür nen i7 2600K und auf ca. 4,2 Ghz übertakten. Sparst ordentlich Geld :)
 
Na, bitte, das weicht doch voneinander ab.

- Bitrate
- ReFrames
- Pixel*Frame

Ich denke, es liegt an den ReferenceFrames.

Aber schwer zu sagen, woran genau. Rendere einfach mit der CPU :)
Wenns schnell gehen muss: CUDA :)
Ergänzung ()

Bei mir liefert CPU und GPU Rendering auch unterschiedliche Bitraten, aber dieselben RefFrames, zumindest unter PowerDirector.
 
Zurück
Oben