mit Cpu oder Gpu Rendern ?

Gurkensaft

Ensign
Registriert
Dez. 2013
Beiträge
195
ich habe grade ne funktion bei sony vegas pro 13 gefunden wo man einstellen kann womit man rendert .. Was sollte ich nehmen bzw. macht es bei einer 780 ti sinn über gpu zu rendern ?
 
wenn du schon die einstellung gefunden hast kommst du nicht auf die idee
das auszuprobieren und 2x dasselbe zu rendern?

einmal mit cpu
einmal mit gpu

wirklich nicht ?
 
GPU geht glaub schneller, CPU arbeitet sauberer hab ich mal gehört.
 
En3rg1eR1egel schrieb:
wenn du schon die einstellung gefunden hast kommst du nicht auf die idee
das auszuprobieren und 2x dasselbe zu rendern?

einmal mit cpu
einmal mit gpu

wirklich nicht ?

Genau, einfach ausprobieren.

O-Saft-Killer schrieb:
GPU geht glaub schneller, CPU arbeitet sauberer hab ich mal gehört.

Das kannst du bis auf die Geschwindigkeit (wobei es da auch auf das verwendete Programm und die verwendete CPU/GPU ankommt) getrost vergessen, weil falsch. ;) Du kannst höchstens die Genauigkeit noch anpassen, sofern die GPU das unterstützt, wie z.B. bei der Titan das "Double Precicion" Feature. Dies geht dann allerdings zu Lasten der Rendergeschwindigkeit.
 
Pack dir Codecs auf den Rechner und rendere mal mit CUDA Cores und mal mit CPU. DU wirst den Unterschied merken in der Zeitanzeige.
 
GPU, wenn man openCL oder CUDA unterstützt IMMER GPU. Selbst wenn du ne super CPU hast, sollte die Graka bei sowas immer schneller sein.

O-Saft-Killer schrieb:
GPU geht glaub schneller, CPU arbeitet sauberer hab ich mal gehört.
haha, was? Wie soll dass denn gehen?
 
@DemonOno

Ganz einfach, die CPU zieht vorher Handschuhe und ne Schürze an, deshalb braucht sie ja auch länger. :lol:
 
Eine CPU arbeitet digital sauberer als eine GPU. Das ist richtig harter Tobac :freaky:

Und wie sich CPU und GPU entwickeln, hängt auch davon ab, was man den zweien so zu essen gibt.

Mainboard ist das Pferd, CPU ist der Sattel und die GPU ist der Reiter bei solchen Sachen...


Du kannst auch auf einem 80286 rendern mit 25 Mhz, dat dauert Wochen...
 
Zuletzt bearbeitet:
Demon0no schrieb:
GPU, wenn man openCL oder CUDA unterstützt IMMER GPU. Selbst wenn du ne super CPU hast, sollte die Graka bei sowas immer schneller sein.


haha, was? Wie soll dass denn gehen?

Die Grafikkarten erzielen ihre Mehrleistung meist über die Gleitkommaberechnung in einfacher Genauigkeit, d.h. ab der 6. Stelle nach dem Komma wird es ungenau. CPUs können auch mit doppelter Genauigkeit rechnen und sind dann immer noch schneller als die meisten verfügbaren Grafikkarten. Das Ergebnis ist auf 15 Stellen nach dem Komma genau. Das Ergebnis is "sauberer", also hat weniger Artefakte durch fehlerhafte Berechnung.

Wenn man natürlich auf dem Niveau von Schulversagern in einem Computerforum unterwegs ist, sind das böhmische Dörfer.
 
Zuletzt bearbeitet:
Wie "sauber" die *PU arbeitet hängt von dem verwendeten Algorithmus ab. Blender beispielsweise bietet zwei Renderer an, einen der das Bild auf der CPU berechnen lässt und einen der CUDA benutzt. Dabei sieht das Ergebnis (zumindest meiner Meinung nach) bei CUDA jedoch je nach Szene deutlich schlechter aus, geht aber idR auch deutlich schneller. Man kann das Ergebnis zwar durch mehr Samples o.ä. verbessern, aber dann gleichen sich die Renderzeiten eher aneinander an.

@TE
Hilft nur probieren. Wird mit der GPU vermutlich deutlich schneller sein, ob das Ergebnis dann noch deinen Anforderungen entspricht kannst nur du entscheiden.
 
1 Vorzeichenbit, 24 Bit Mantisse und ein 7 Bit Exponent, so laufen die Fast Floating Point Units. Wer soll den sagen, dass eine CPU oder GPU davon nicht abweichen können und Pi bis ins Unendliche berechnen können !

Das Futter und die Güte der CPU und der GPU spielen da Differenzen in der Leistungsklasse.
 
Plaste schrieb:
Die Grafikkarten erzielen ihre Mehrleistung meist über die Gleitkommaberechnung in einfacher Genauigkeit, d.h. ab der 6. Stelle nach dem Komma wird es ungenau. CPUs können auch mit doppelter Genauigkeit rechnen und sind dann immer noch schneller als die meisten verfügbaren Grafikkarten. Das Ergebnis ist auf 15 Stellen nach dem Komma genau. Das Ergebnis is "sauberer", also hat weniger Artefakte durch fehlerhafte Berechnung.

Wenn man natürlich auf dem Niveau von Schulversagern in einem Computerforum unterwegs ist, sind das böhmische Dörfer.

Vielen dank für die genaue Erklärung, hab grad schlechtes Internet weil ich unterwegs bin und kann das daher nicht nachschlagen, war nur das, was ich mal gehört hatte, daher auch am Schluss meines satzes, "hab ich mal gehört."
 
Facu1ty schrieb:
@DemonOno

Ganz einfach, die CPU zieht vorher Handschuhe und ne Schürze an, deshalb braucht sie ja auch länger. :lol:

Echte Trolle. Bist du aus der Förderschule geschmissen worden?

DigitalIllusion schrieb:
Eine CPU arbeitet digital sauberer als eine GPU. Das ist richtig harter Tobac :freaky:

Und wie sich CPU und GPU entwickeln, hängt auch davon ab, was man den zweien so zu essen gibt.

Mainboard ist das Pferd, CPU ist der Sattel und die GPU ist der Reiter bei solchen Sachen...


Du kannst auch auf einem 80286 rendern mit 25 Mhz, dat dauert Wochen...

Mach dich erstmal schlau, bevor du dich an die hohe Schule des Trollens heranwagst. Ich bezwefel das du irgendwo Code für 16bit CPUs auftreibst, der das Rendern für dich erledigt. Aber du bist auch bestimmt mit dem Fahrrad bei der Formel 1 am Start.
 
Kommt mal wieder runter...
Diese Diskussion ist nicht neu - das ihr Sie nicht kennt, zeigt nur, dass ihr euch mit Kommentaren zurückhalten solltet statt zu flamen!
http://www.dvinfo.net/forum/what-happens-vegas/523615-gpu-versus-cpu-rendering.html
oder
http://www.sonycreativesoftware.com/Forums/ShowMessage.asp?Forum=4&MessageID=877227

Zitat: A CPU can do a lot of things that a GPU cannot do. A CPU puts a few cores on roughly the same amount of silicon that the GPU packs many cores on. To cram up so many cores on a chip, the GPU can only support a limited number of instructions and, in the case of floating-point operations, it has to sacrifice precision.

Unlike integers, floating-point numbers are not represented exactly. They use what is known as the engineering notation in decimal world, which represents a number, such as 123.456789 as 1.23E02, i.e., 1.23 times ten raised to the power of two. Such a notation sacrifices precision to achieve compactness.

In digital, floating point does the same, but it uses a binary point instead of a decimal point. Each digit can only be either a zero or a one (whereas in decimal each digit can be 0, 1, 2, 3, 4, 5, 6, 7, 8, or 9). You need many more binary places in floating point than decimal places in the engineering notation. And a GPU uses considerably fewer binary places than a CPU

Fazit: Die GPU verwendet möglicher einen anderen Codec. 2. Ja, eine GPU hat gegenüber einer CPU einen reduzierten Befehlssatzumfang und rechnet außerdem in einem reduzierten Zahlenbereich. --> Ja, es wird also ein qualitativ schlechteres Ergebnis erzeugt.

@dit: Danke @ Plaste!
 
naja, ich hatte als Coder einen 32bit Prozessor mit 24 Bit Adressbus, einen Motorola MC68030, der hatte die Fast Floating Point Arithmetik schon intus, wobei Intel noch mit doppelten Chips malocht hat.

Wie mein Vorredner sagt, Reduced Instruction Set Comand oder Complex Instruction Set Comand.

Ob jetzt ein RISC oder CISC Prozessor die besser Wahl ist, gilt es abzuwägen.


Und welche Caches und welche Pipelines des Multicore laufen jeweils.

Du kannst auf gar keinen Fall eine ELSA Victory 3D in den Rechner schnallen und von der erwarten, dass die besser rendert als deine Seuchenkiste.
 
Zuletzt bearbeitet:
DigitalIllusion schrieb:
1 Vorzeichenbit, 24 Bit Mantisse und ein 7 Bit Exponent, so laufen die Fast Floating Point Units. Wer soll den sagen, dass eine CPU oder GPU davon nicht abweichen können und Pi bis ins Unendliche berechnen können !

Das Futter und die Güte der CPU und der GPU spielen da Differenzen in der Leistungsklasse.

Es gibt 16t, 32, 40, 80, 64 und 128 bittige Floating Point Berechnungen. Das press mal in deine Erklärung.
Die Rerechnung von Pi hat damit gar nix zu tun. Das ist rein vom Algorythmus abhängig der auch nur auf Integer basieren kann und trotzdem genau rechnet.

Dein Wissensstand ist wahrhaft unterirdisch.
Ergänzung ()

DigitalIllusion schrieb:
naja, ich hatte als Coder einen 32bit Prozessor mit 24 Bit Adressbus, einen Motorola MC68030

Der MC '030 hat einen 32bit Bus. Der 68020(EC) und der 68000 hatten einen 24bit Adressbus und einen 16bit/32bit Datenbus.

Du kennst dich mit gar nix aus!!!
 
Danke für Schoola. Ich behaupte etwas und jemand berichtigt das, mein Chhef hatte irgendwann so einen Hals auf mich, eine Art Hassliebe.
 
Ob GPU / CPU für das rendern gut ist hängt von der Methode ab.

Wenn man Objekt-basiertes ist klar die GPU im Vorteil, dafür wurde sie explizit gebaut. (nehme vertex/fragment her und zeichne)

Wenn man Bild-basiert hernimmt (z.B. Ray-Tracing). Für die Anordnung der Objekte bzw. Traversierung können hier schon mal schwierigere Datenstrukturen vorkommen. Der Nachteil der GPU ist, dass es nicht mehr im Großen und Ganzen ihre Pipeline durchziehen kann.

(Es gibt glaube ich ein Framework zum ray-tracing auf GPUs - *keine Gewährleistung*)
 
Zurück
Oben