News ATi-Karten transcodieren Videos nun schneller

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.621
Das sogenannte GPU-Computing, bei dem der Grafikprozessor bestimmte Rechenaufgaben übernimmt, wird immer wichtiger. Ein Zugpferd dafür ist das Transcodieren von Videos auf der GPU, das diese gewöhnlich spürbar schneller als eine CPU erledigen können. ATi bietet dafür unter anderem im Treiber integriert den „Avivo Video Transcoder“ an.

Zur News: ATi-Karten transcodieren Videos nun schneller
 
Eigenen Benchmarks zu Folge sollen die ATi-Rechenkerne dabei sogar schneller arbeiten als die Konkurrenzprodukte von Nvidia. Dieses Aussage ist jedoch mit Vorsicht zu genießen, bis es dazu unabhängige Tests gibt.

Stimmt schon, ATi Karten berechnen MD5 und WPA2 Hashes viel schneller als nVidias :D
 
Bei einem kleinem Videokonvertierungstest vor ein paar Tagen mit MediaShow Espresso und ATI Avivio Converter war die Belastung in beiden Fällen der CPU bei 100%. Während MediaShow Espresso gerade mal unter 10% GPU-Aktivität zeigte, nutzte ATi's hauseigener Konverter sogar bis 25%.
 
Hmm sehen die gerenderten Videos eigentlich immer noch wie Brei aus? War ja zumindest so, dass man bis jetzt nur die Wahl zwischen Breioptik und riesen Dateien hatte. Wo mir der Vorteil in der Renderzeit an sich egal ist, sowas darf der Server in Stundenlanger Kleinarbeit auf nem 1GHz Dualcore erledigen^^
 
Wenn man sich die Rohleistung der ATI Karten anschaut dann arbeiten diese auch deutlich schneller als die Karten von NVIDA. Jedoch kann dieses Potential oft nicht wirklich bei Sielen umgesetzt werden.

Rohleistung der 4980 Karten liegt bei ca 1400GFLOPs während ein NVDIA GTX285 gerade einmal 1000GFLOPS besitzt. Das sind 40% mehr Rohleistung. Demanch sind die ATI Karten für mathematische Berechnungen besser geeignet. Nur hat NVIDIA es den Softwareentwicklern mit ihren Tools leichter gemacht die Graffikkarte als Co-Prozessor zu benutzen.
Ergänzung ()

Ich habe früher DVDs in AVIs gewandelt. Damals hatte mein Rechner dafür gute 24h benötigt. Wenn dies heute in 30 Minuten geht, dann ist dies ein gewaltiger sprungt. Außerdem muss man auch ein wenig weiter denken. Im TV-Bereich könnten z.B. SAT-Receiver einen Onboard Grafikkartenchip für die Bildverbesserung verwenden, die benötigen wenig Leistung bringen dafür aber sehr viel. Man könnte z.B. ein Atomprozessor von Intel mit einem NVIDIA Grafikchip kombinieren und hätte somit sehr schnell ein funnktionierdendes System.
 
Die Rohleistung der ATI-Gpu's ist ja auch besser, als die von NVidia ...
Also sollte es ATI auch auf die Reihe bekommen... Egal, wie ausgereift CUDA im vergleich schon ist...
 
Super. Nun kann ich auch unter Windows Vista 64 Bit Videos schneller nach h264 kodieren, abspielen kann ich sie im besten Falle mit einer DXVA Beschleunigung. Für mich als ATI User am Desktop wird es mal langsam Zeit für einen gescheiten h264 Codec wie CoreAVC mit Hardwarebeschleunigung.

Im Moment kann ich das nur auf meinem Nvidia betriebenen Notebook genießen - oder eben mit brachial lauten QuadCore Lüfter.
 
Eigenen Benchmarks zu Folge sollen die ATi-Rechenkerne dabei sogar schneller arbeiten als die Konkurrenzprodukte von Nvidia. Dieses Aussage ist jedoch mit Vorsicht zu genießen, bis es dazu unabhängige Tests gibt.
http://www.legitreviews.com/article/978/1/

Was bei der Radeon falsch läuft, weiß ich nicht. Die Geforce hängt ja extrem an der CPU (zu sehr), aber die Radeon profitiert nicht von einem i7, was einfach nicht sein darf.
So oder so: MSE ist eh unnötiges Stück Software. Man kann weder die Zielgröße einstellen noch die Bitrate. Hinzu kommt der Gag, dass 1280x720 nur als PS3-Profil verfügbar ist, nicht aber als eigenes. Und das Schlimmste ist, dass es wie Badaboom nicht mit 1080i50 (Premiere usw) oder 720p50 (ARD, ORF usw) umgehen kann.
Was vergessen: Es soll aber ein Patch für MSE veröffentlicht werden, der die Verbesserungen des Hotfixes umsetzen kann.

Wenn man sich die Rohleistung der ATI Karten anschaut dann arbeiten diese auch deutlich schneller als die Karten von NVIDA. Jedoch kann dieses Potential oft nicht wirklich bei Sielen umgesetzt werden.

Rohleistung der 4980 Karten liegt bei ca 1400GFLOPs während ein NVDIA GTX285 gerade einmal 1000GFLOPS besitzt. Das sind 40% mehr Rohleistung. Demanch sind die ATI Karten für mathematische Berechnungen besser geeignet. Nur hat NVIDIA es den Softwareentwicklern mit ihren Tools leichter gemacht die Graffikkarte als Co-Prozessor zu benutzen.

Beim Videoencoding sowie Passwortknacken kommt es auf die Integerleistung an und nich auf die FLOPs.
 
Mal eine Frage. Kann man mit Hilfe der GPU auch Videos von DivX oder Xvid in das normale DVD Format konvertieren? Denn ich hab hier öfter DivX oder Xvid Filme und convertiere die dann immer in das normale DVD Format, also das mit den VIDEO_TS und AUDIO_TS Ordnern.
 
Tranquil schrieb:
Super. Nun kann ich auch unter Windows Vista 64 Bit Videos schneller nach h264 kodieren, abspielen kann ich sie im besten Falle mit einer DXVA Beschleunigung. Für mich als ATI User am Desktop wird es mal langsam Zeit für einen gescheiten h264 Codec wie CoreAVC mit Hardwarebeschleunigung.

Im Moment kann ich das nur auf meinem Nvidia betriebenen Notebook genießen - oder eben mit brachial lauten QuadCore Lüfter.

Verstehe ich nicht:
Mit deinem QuadCore und zB kostenlosem RipBot264 bist du 10000mal besser bedient als mit AVIVO-Converter usw.
Die Videobeschleunigung beherrscht deine HD4800 besser als jede aktuell erhältliche Geforce. Alles, was nötig ist, ist MPC HC.
Der einzige Vorteil, den Nvidia-Karten haben , ist, dass mittels CUDA möglich ist, auf den Videoprozessor zuzugreifen (wie es zB CoreAVC tut), aber das braucht man wirklich nur dann, wenn die Videos die DXVA-Restriktionen nicht beachtet. Bei mir verursacht CoreAVC mit der 8600GT eine CPU-Auslastung, die ich auch mit DivX H.264 hätte.
 
Tja is aber im grunde auch egal weil ob der cpu jetz 5 10 oder 25 protzent ausgelaset ist interesiert eh kein schwein
 
Während die ersten beiden Punkte von allen Radeon-HD-4000-Modellen unterstützt werden, bleibt letzteres der Radeon HD 4350 sowie Radeon HD 4550 vorenthalten.
Wenn ich solche Sätze lese wird mir schlecht. Was unterscheidet die Karten von anderen HD4xxx Modellen?

Naja, solange Nvidia nicht mit so einem Blödsinn anfängt ist es mir latte. Der ATi Xcoder codiert eh "Müllig".
 
So, ich habe das jetzt gerade ausprobiert und einen Benchmark gemacht.

Mein System wie in der Signatur beschrieben.

Was habe ich getestet:

Cyberlink MediaShow Espresso installiert.
Hotfixtreiber ATi installiert.

700MB .avi file importiert und die option für youtube konvertieren gewählt.

Den Konverter ohne ATi Stream exakt 2 min. laufen lassen :

Ergebnis: 20%

Den Konverter mit ATi Stream exakt 2 min. laufen lassen :

Ergebnis: 17%

Mein Fazit:

Da muss ATi wohl noch etwas nachbessern.

Aufgefallen ist mir zudem, das nur eine Core meiner X2 verwendet wurde, diese auch mit vollen Taktraten lief und sehr heiß wurde, ohne das die Lüftersteuerung angesprungen ist. ( musste ich manuell nachregeln )

Bin sehr auf einen Test seitens CB gespannt.
 
Vielleicht musst Du auch ein wenig nachbessern und hast nicht die aktuelle Version von Cyberlink MediaShow. Vielleicht wird die ATI Karte auch nur in einer Premium Version benutzt.

ATI hat 8001D Streaming Prozessoren während NVDIA zu komplexe Stream Prozessoren nutzt. Demnach kann man bei NVDIA nur unter optimaler Programmierung die volle Leistung ausnutzen.
 
Hab den ATI Avivio Converter einmal ausprobiert gehabt, mit der Qualität des Ergebnisses war ich total unzufrieden. Hat sich da etwas getan?
 
Wolfgang schrieb:
(...)
Dieses Aussage ist jedoch mit Vorsicht zu genießen, bis es dazu unabhängige Tests gibt.
(...)

Der Fehlerteufel^^
 
ATI hat 8001D Streaming Prozessoren während NVDIA zu komplexe Stream Prozessoren nutzt. Demnach kann man bei NVDIA nur unter optimaler Programmierung die volle Leistung ausnutzen.


Gefährliches Halbwissen!


Der RV770 besitzt 160 5D Shader, die sich im Idealfall wie 800 skalare Shader verhalten.
Diesen Idealfall zu erreichen ist extrem schwer, und ich behaupte sogar, dass der FurMark nicht alle Shader nutzt!

Der GT200 besitzt 240 skalare Shader, die sehr leicht auszulasten sind, da sie eben skalar sind.



Zudem sei gesagt, dass die Shader des RV770 mit 750 Mhz laufen (4870), während die des GT200 mit 1296 Mhz (GTX 280), weshalb die Leistung nicht so extrem unterschiedlich ist, wie man zuerst annimmt!
 
Zuletzt bearbeitet:
JoeDoe1979 schrieb:
ATI hat 8001D Streaming Prozessoren während NVDIA zu komplexe Stream Prozessoren nutzt. Demnach kann man bei NVDIA nur unter optimaler Programmierung die volle Leistung ausnutzen.

Sollte es nicht andersrum heißen?

ATI hat 5D Prozessoren wieviele kommt aufs Modell an!

Nvidia hat 1D Prozessoren.

Zitat: "Demnach kann man bei ATI nur unter optimaler Programmierung die volle Leistung ausnutzen." - sollte es doch jetzt heißen oder ?
 
Toll,
und wann kann ich den AVIVO für meine HD3870 unter Vista x64 verwenden?
 
Ist zwar nicht das beste Produkt, aber wenigstens wird daran gearbeitet und es ist kostenlos.

Ich warte immernoch auf OpenCL, aber irgendwie will es einfach nicht erscheinen -.-"
 

Ähnliche Themen

Zurück
Oben