Programme, die mit der GPU rechnen

Für ATI Stream gibts da zwei drei Programme zum Video Converten. Media Espresso den bischen älteren self made ATI X Coder und A's Video Converter

Ich hab es mit meiner HD6970 mal ausprobiert... aber wann die GPU konvertierung nun zieht und wann nicht, bin ich mir nicht mehr sicher.

Edit: Video: 150mb, 24 minuten, ca 850Kbits xvid .mkv mit X Media Recode in h264 .mp4 1000kbits = 10 minuten end fiel 190mb, A's Video Converter h264 .mp4 1000Kbits =2minuten 46sec bei 4x simultan transcoding und GPU acceleration (Speed 205 fps)end file 170mb. das problem ? nimmt keine .ass subtitles mit.
 
Zuletzt bearbeitet:
vander schrieb:
Ich denke es kommt erschwerend hinzu das es schon einige Kartengenerationen von AMD gab die bei Belastung mit GPGPU Programmen überfordert werden und vor sich hin schmelzen(Furmark, AMD Treibertricks zur Leistungsbegrenzung um Überhitzung zu vermeiden).
Inwieweit das von AMD so beabsichtigt ist um eine ernsthafte Nutzung der vorhandenen Rechenleistung zu unterbinden oder ob hier einfach nur auf Teufel komm raus billig produziert und entwickelt wurde mag jeder selbst entscheiden. IMHO hat AMD auf dem Grafikmarkt zu Recht ein Image als Kinderzimmerhardwarehersteller, während nVidia auch für Wohnzimmer und Firmen entwickelt und produziert. Merkt man an den Produkten und dem technischen Support.

Ich vermute mal, du spielst hier auf die HD4870/4890 an, oder? Dass das aber totaler Bullshit von HT4U war, und einfach nur das Zusammenwürfeln von Messwerten und Technischen Daten komplett anderer Bauteile, das muss man ja nicht erwähnen. HT4U hat's ja auch nur in einer klitzekleinen Fußnote mitten im Artikel kurz erwähnt, dass ihre Aussage einfach nur Falsch war...
Komischerweise hatte AMD/ATI in letzter Zeit nie Probleme mit hohen RMA Quoten, NVidia hingegen hat ganze Serien austauschen müssen, weil sich die Lötstellen gelöst haben.

Dass NVidia bei FurMark auch drosselt (und sogar noch viel mehr als AMD), muss man als NV Fanboy ja auch nicht erwähnen. Das könnte man sogar bei HT4U nachlesen, wenn man wollte...aber das will mancher ja nicht.

Interessante Artikel über Video Recoding per GPU gibt's übrigens bei THG und Anandtech (bei Anandtech in einem Artikel über Brazos integriert).
Da scheint es sehr entscheidend für die Bildqualität zu sein, welchen Recoder man bei welcher GPU verwendet. Bei NVidia sollte man Badaboom verwenden, während Arcsoft und Cyberlink mit teilweise deutlich schlechterer Bildqualität keine gute Wahl sind. Bei AMD Karten hingegen war Cyberlink bei der Bildqualität recht gut, während Arcsoft nicht so überzeugen konnte (dafür deutlich schneller war). Insgesamt betrachtet, liegt AMD bei der Bildqualität in etwa gleich auf mit Intels QuickSync, und ist damit kaum schlechter als per CPU zu recoden. Bei NVidia erreicht man das nur mit Badaboom, weil das nicht die CUDA Libraries für's recodieren verwendet, sondern eigene. Da die Implementierung in Cuda scheinbar nicht so gut funktioniert, kommt es eben bei Arcsoft oder Cyberlink zu merklichen Qualitätsverlusten.
Ob einen die Verluste stören, ist natürlich subjektiv. Aber das Fazit beider war, wenn NV, dann Badaboom, wenn AMD, dann Cyberlink, und wenn es optimal sein soll, dann per Quicksync über Intel's SB (sehr gute Bildqualität mit unerreichter Geschwindigkeit). Da ist scheinbar noch ein ganzes Stück Arbeit von AMD und NV sowie von Arcsoft und Cyberlink.
M.f.G.
 
Ich vermute mal, du spielst hier auf die HD4870/4890 an, oder? Dass das aber totaler Bullshit von HT4U war,
Nene, das war alles ins schwarze getroffen und zwar lange bevor Karten wie die HD 4870 X2 massenweise ausgefallen sind. Aufgrund der massiven Spannungswandler Überlastung bei 100% Last wurde dann die HD 5000 verbessert damit so was nicht mehr passieren kann. Ohne Furmark und co. hättet ihr heute noch Karten die jederzeit abfackeln könnten. AMD hat die Kritik angenommen sehr gut reagiert und nach gebessert. Eine andere Absicht lag hinter der HD 4000 auch gar nicht, Fanboys verärgern war wohl nicht das Ziel von HT4U.

HD 4000 war noch nie eine gute Generation, das fing beim Idle Stromsparen an mit dem neuen GDDR5 und hörte bei der AF Quali auf. Das einzige was diese Generation konnte ist extrem billig sein beim Anschaffungspreis. Ganz am Anfang gabs sogar einen heute legendären Vram Krüppel 1. Klasse die HD 4870 512MB, die von vielen Tests in den Himmel gelobt wurde.

Die Infos zum GPU Video umwandeln sind interessant. Wie bei der CPU machts wohl der Codec und da alles noch am Anfang steht, gibts sehr große Unterschiede.
 
@Oberst08
Hab da zusätzlich noch im Hinterkopf das die Furmarkentwickler mit AMD/ATI im Dauerclinch lagen, gibt bestimmt noch Blogs o.ä. dazu. Ich denke nicht das man bei mehreren Aussagen aus verschiedenen Quellen davon ausgehen kann das auch was dran ist.

GPUencoding hab ich aufgegeben. Ich encode zu wenig um von der evtl. höhereren Geschwindigkeit zu profitieren. Ich schrieb deshalb "evtl." da ich leider keinen zu FFMPEG/x264 qualitativ vergleichbaren freien MPEG2/4 Encoder mit GPU Support finden konnte. Auf nem Mehrkerner relativiert sich der Geschwindigkeitsvorteil der GPU ziemlich schnell. Hab mir von der GPU mehr versprochen, aber leider tut sich (bei der freien Soft) nicht mehr allzuviel.
 
Für Leute die es berührt - Mathematica 8 kann für verschiedene Zwecke GPU's via CUDA/OpenCL einspannen; für weitere Infos siehe etwa hier. Auch Matlab kann etwa mit der Parallel Computing Toolbox auf die CUDA-Unterstützung zurückgreifen - die entsprechende Dokumenation findet man hier. Es gibt auch von externen Entwicklern Aufsätze, beispielsweise die Freeware GPUmat.
 
vander schrieb:
GPUencoding hab ich aufgegeben. Ich encode zu wenig um von der evtl. höhereren Geschwindigkeit zu profitieren. Ich schrieb deshalb "evtl." da ich leider keinen zu FFMPEG/x264 qualitativ vergleichbaren freien MPEG2/4 Encoder mit GPU Support finden konnte. Auf nem Mehrkerner relativiert sich der Geschwindigkeitsvorteil der GPU ziemlich schnell. Hab mir von der GPU mehr versprochen, aber leider tut sich (bei der freien Soft) nicht mehr allzuviel.

Das liegt daran, das ffmpeg die x264 library benutzt und x264 integer operations benutzt zum encodieren. Da bringt dir das GPU encoding wirklich nicht viel. Es gibt auch einen thread vom x264 Team dazu warum CUDA/OpenCL nicht eingebaut wird.
 
Mißverständnis?
Ich habe x264/FFMPEG nur als "Referenz" für CPU Encoder angeführt, natürlich bleibt die GPU dabei außen vor.
Als GPU Encoder hatte ich mal den im Mediacoder eingebauten Nvidia/CUDA MP4 Encoder verwendet. Das war vor einiger Zeit(Single/Dualcore CPUs) schon ein ziemlicher Sprung zur CPU, aber inzwischen sind die CPU Encoder besser geworden und Mehrkernprozessoren sind inzwischen normal. Damit schwindet der Geschwindigkeitsvorteil der GPU Encoder immer mehr. Dazu kommt das sich an der Qualität der GPU Encoder IMO wenig getan hat, dadurch erreiche ich beim GPU encoding selbst bei deutlich höherer Bitrate kein ausreichendes Ergebnis gegenüber einem CPU Encoder.
Für mich sind GPU Encoder z.Z. nur noch ehemalige und inzwischen überholte Hype Produkte der GPU Hersteller, leider.
 
Ja, ich stimme dir voellig zu. Wollte nur die Aussage bestaerken das GPU encoding keine grossen Vorteile bringt.
Fuer Spiele wie die berechnung von Partikeln, oder real-time lichtberechnung und physikalischen Berechnungen, da ist GPU Computing Sinnvoll (mein Honors Projekt in der Uni). Oder fuer sehr langsame Algorithmen im Bioinformatischen bereich, da hilft GPU Computing eine Menge.
 
Hab mich jetzt nicht durchgeklickt und abgecheckt ob "mein" Programm schon aufgelistet wurde, aber ich wage es einfach mal und sage : igrargpu.

Mit igrargpu kann man passwort gesicherte .rar Verzeichnisse wieder herstellen, falls man das Pw vergessen hat ;).

Interessant sind die einzelnen Kommandozeilen, die dieses kleine aber feine Tool steuert. ( über cmd.exe ).

Es gibt neuerdings auch eine grafische Darstellung des Programms...
 
Hi,
ich hoffe ich bin hier richtig.
Gibt es Pogramme die .zip/.7z/.rar ... Archive mittels der GPU erstellen?

Leo.16
 
Wenn der Thead schon ausgegraben wird, dann hab ich da auch was: http://bitcoinexaminer.org/20-awesome-litecoin-mining-rigs/

http://www.pcgameshardware.de/AMD-R...ews/AMD-Radeon-Litecoin-Miner-R9-290-1101699/

Sprung ins Jahr 2013, GPGPU ist so schnell und effizient wie eh und je, von wegen ineffiziente AMD Karten, die sind bei der aktuellen Goldgräber Stimmung Litecoin Mining ca. 2-3 mal effizienter als Kepler NV Karten.

Man beachte die PCIe Riser die jede GPU dann frei platzierbar macht. Wie schon das erste mal beim Fastra II zu sehen. Wenn ihr also mal Platzprobleme im Gehäuse bekommt, einfach die GPU frei platzieren.

Die kleinen Rechner erzielen zur Zeit 100-300€ Nettogewinn pro Monat, darum der massive Ansturm auf die AMD Karten.
 
Wenn den Thread schon mal jemand aus dem Dornröschenschlaf geholt hat:

Ich habe aus Interesse mal getestet, was GPGPU in Photoshop bringt. Seit CS6 unterstützen einige Filter, meines Wissens alle mit dieser Version dazu gekommenen, die Beschleunigung durch OpenCL.
Getestet habe ich den Iris Weichzeichner, an den Einstellungen für den Wirkungsbereich wurde nichts geändert, nur die Stärke auf 472 angehoben. Dann den Filter auf ein vorher präpariertes Photo mit 6667x10.000 Pixel und 16 Bit Farbtiefe losgelassen. CPU ist ein auf 4,7GHz übertakteter i7-3930K, dazu 32 GB RAM, der als DDR3-1600 mit CL 9-9-9-24-1T läuft. Grafikkarte ist eine GTX Titan, auf 1006MHz (Basic) bzw. 1067MHz (Boost 2.0) übertaktet.
Beide Tests jeweils 10x durchlaufen lassen, jeweils Neustart des Rechners nach jedem Test, das Mittel der Tests ausgerechnet.
Die Ergebnisse habe mich in ihrer Klarheit doch sehr überrascht, daß die Grafikkarte schneller ist, war mir vorher klar, aber mit diesem Riesenunterschied habe ich bei Weitem nicht gerechnet. Bei der Grafikkarte war es egal, ob Single oder Double Precision eingestellt war, DP wirkt sich laut Nvidia sowieso nur auf CUDA Software aus, nicht aber auf OpenCL.
Hier das Ergebnis:
  • CPU: 3:39 min, 92% CPU Last über alle Threads
  • OpenCL: 1:08min, 38% CPU Last über alle Threads
Bemerkenswert ist auch, werden die Filter nicht mittels OpenCL beschleunigt, nutzt CS6 auch alle CPU Threads nahezu komplett aus, mit OpenCL langweilt sich die CPU.
Habe ich mal Zeit und Lust, werde ich mal noch ein paar andere Filter auf ihren Leistungszuwachs testen.
 
frankpr schrieb:
CPU ist ein auf 4,7GHz übertakteter i7-3930K, ...

Habe ich mal Zeit und Lust, werde ich mal noch ein paar andere Filter auf ihren Leistungszuwachs testen.

Und bitte gleich die iGPU als OpenCL Alternative rechnen lassen, ob und wieviel das bringt statt der dedizierten GPU. :)

Bei Luxmark habe ich Benchmarks gesehen, die etwa widersprüchlich sind hinsichtlich Intel- und AMD Treibern, die bei vorhandener AMD Grafikkarte offensichtlich auch von der Intel iGPU benutzt werden. Trifft in deinem Falle kaum, weil du sicher nur Intel und Nvidia OpenCL Treiber installiert hast.
 
Welche iGPU???
x-polo schrieb:
da unterschied HighEnd GPU nicht allzu groß
Woher stammt die Weisheit?
Senke ich den Takt meiner Grafikkarte, verlängert sich auch die Rechenzeit. Erhöhe ich ihn, sinkt sie.
Selbstverständlich spielt es eine nicht unerhebliche Rolle, wie viele Shader mit welchem Takt da rechnen.
 
thread ist zwar bisl älter aber ich hab da mal ne frage. mein bruder würde sich gerne einen imac 27 mit i7 holen mit 32gb und gtx 680mx 2gb oder 780m 4gb. er benutzt den imac dann zum rendern, cinema, photoshop. der mit gtx 780m kostet halt nen 1000er mehr. würde sich das lohnen?
 
Zurück
Oben