Optimale Grafikkarte aus "Videosicht"

matibaer

Cadet 4th Year
Registriert
Jan. 2006
Beiträge
72
Es gibt unzählige Benchmarks und Kaufempfehlungen für Grafikkarten, wenn es um das Kriterium "3D Spieleleistung" geht.
Jetzt bin ich gar nicht sooo der Spieler und daddel doch häufig lieber auf der PS3.

Dennoch ist das Thema "Grafikkarte" für mich nicht unbedeutend - im Gegenteil.

Für mich zählt die Leistung von Encoding, Decoding und Transcoding von Videomaterial jeder Art, neuerdings besonders von H264 (ggf. auch VC1) und die Hardware-Unterstützung für Filmprojekte mittels Pinnacle Studio 14 (HD).

So habe ich die letzten Stunden damit verbracht, mal verschiedene Grafikkarten im Benchmark für Videoleistung zu finden und so vergleichen zu können. Leider ohne großen Erfolg.

An Benchmarks, Tests usw. dieser Art, mangelt es noch.

Also in die Benchmark-Liste würde ich folgende Karten stecken:
- Nvidia GeForce GT240
- Nvidia GeForce GTS250
- Nvidia GeForce GTX285
- ATI RadeOn 5750
- ATI RadeOn 5850

1. Benchmark - Leistung Cyberlink Mediashow Espresso mit prop. Beschleunigung
(Cuda bei Nvidia, Stream bei ATI) - Dauer Transcoding Video X

2. Benchmark - Rendering eines 1h- HD-Filmprojekts in Studio 14

3. Benchmark: ?!

Wenn man in die Runde fragt, welche Grafikkarte man nehmen soll und zB. die GT240 andenkt, kommt sofort eine Antwort wie "Warum nimmste nicht die GTS250 oder die GTX260"?

So soll die GT240 auch wegen dem VP4-Chip besser sein, als eine GTS250 (VP2).

Außerdem zählt für mich grundlegend bei einer Grafikkarte die "reale Leistung pro Watt Verlustleistung" (Leistung/Verlustleistung ist wichtiger, als Preis/Leistung).

Bei mir sind die Karten häufiger "idle" als unter Last, also zählt auch die TDP IDLE drei mal mehr.

Wenn ich danach gehe, ist eine GT240, eine GTS250 oder eine GTX285 ok,
GTX260, 270 o.ä. ein absolutes NoGo!!

Bei ATI kann man nur die 5xxx Reihe nehmen, wegen den Idle Verlustleistungen.

Insgesamt präferiere ich Nvidia, die Gründe sollten wir nicht diskuttieren.

Ich fing mit AVCHD-HD1920 bei Studio an, als ich noch einen Core2Duo 6600 hatte.
Das war definitiv überhaupt nicht möglich!

Später rüstete ich auf einen Core2Quad 9550 auf.
Die Grafikkarte ist bis heute geblieben: GeForce 7900 GT.

Man kann zwar jetzt arbeiten, aber es ist immer noch grottig.

Immer wieder heißt es, die Grafikkarte wäre für die Videobearbeitung nicht wichtig.
Aber auch ohne Cuda & co hatte Pinnacle schon immer auf die Grafikkarte wert gelegt.
Abstürze wurden oft darin begründet, dass die Software sehr hardwarenahe arbeitet, auch auf der Grafikkarte.
Schon seit den ersten HD-Plugins heißt es, die Grafikkarte müsse min. 256 MB RAM haben, das war damals sehr viel, wenn es auch heute fast nur größer bestückte Karten gibt.

Jetzt muss man auch speziell hinterfragen, worauf kommt es bei der Grafikkarte an, speziell bei Pinnacle?
Diese Info bekommt man nicht.
Grafikspeichermenge?
Speicherbandbreite?
Anzahl der Shader?
??
?

Die Vermehrung des Arbeitsspeichers von 2 auf 4 GB brachte nicht viel.
Ebenso wenig, von 32bit auf 64bit zu gehen.
Der Prozessor? Naja, so gigantisch fühlbar war es selbst von 6600 auf 9550 nicht.
Ich behaupte, ein Wechsel von 9550 auf Core i7 860 würde auch keine Wunder vollbringen.
Und die Cuda-Beispiele zeigen auch, wie wenig der klassische x86-Prozessor zu leisten vermag, wenn man die GPU vergleichend auf dem Papier daneben stellt...

Was meint ihr?
Meint ihr zu wissen, welche Karte optimal wäre?
Kennt ihr Benchmarks, die dem nahe kommen, das ich suche?
 
Zuletzt bearbeitet:
also verlustleistung 5770 und bei mir dauerte 1.5 Stunden mpeg 2 Film nach werbung entfernen ca 25-30 min
 
Dein Pinnacle 14 unterstützt CUDA und Stream nur bei der Wiedergabe im Vorschau-Modus, nicht beim Rendern. FullHD-Videos abspielen, können aber alle Grafikkarten ab Einstiegsklasse der letzten 3 Generationen. Deine 7900 ist leider eine zu alt, ab der 8000-Serie oder bei ATI die HD2000 ist das kein Thema. Aber eben nur Wiedergabe bei Pinnacle.

Anders sieht's bei Transcodierungen mit speziellen Tools aus. Da ist die Formatwahl aber sehr eungeschränkt, die Qualität zweifelhaft und bezieht sich nur auf reines Format-Konvertieren. Auch da performen die aktuellen Einstiegskarten besser als jeder Quadcore.

Grundsätzlich ist zur Performance der Karten zu sagen: Je schneller die Karte, desto schneller CUDA/Stream. Du kannst aus der 3D-Leistung abschätzen, wie schnell die GPU Computing Performance ist. Die kannst du vergleichen und mit der Lautstärke und Stromverbrauch in Relation setzen. Ob Nvidia CUDA oder ATI Stream ist fast egal und entscheidet sich nur nach Unterstützung durch die Programme. Du solltest aber grundsätzlich überlegen, ob dir beide Techniken überhaupt was bringen. Meine Empfehlung ist eine kleine Einstiegskarte nach Wunsch um Videos ruckelfrei abzuspielen und ansonsten lieber warten oder in eine CPU investieren.
 
Die Unterschiede liegen im Detail.
Ob ein Format beschleunigt decodiert und/oder encodiert wird und welche Formate, das hängt bei Nvidia davon ab, welcher Videoprozessor verwendet wird.
VP1, VP2, VP3 oder VP4.
Eine GTS250 hat den VP2, eine GT240 den VP4.
Das meinte ich damit, dass eine GT240 besser sein könnte.
Ich habe gesehen, dass eine GT240 mit DDR5 und Badaboom zum Wandeln von VC1 Video 1080p zu H264 Video 720p @ C2D 6600 eine Framerate von 20 - 30 fps macht.
Jetzt fehlt mir natürlich der Vergleich zu anderen Karten.
ATI scheidet beim Nvidia-Tool Badaboom natürlich aus.

Ein anderes Thema ist die Qualität von Badaboom.
Ein SD AVC-Video sieht mit Badaboom @ 4MBit/s schlechter aus, als wenn es mit Nero Recode ins PS3 AVC (2-pass) @ 2! MBit/s gewandelt wurde.
Natürlich fällt es bei der Wandlung von HD-Video "1080" auf "720" weniger auf, als bei der Wandlung von SD-MPEG2-Fernsehmaterial.

Mediashow Espresso habe ich mir angeguckt.
Wieder mal ein Produkt was aus "NTSC"-Ländern kommt, "scheiß auf die Europäer".
SD-Auflösung gibt es nur mit x*480 statt *576.
Unnötiges Auflösungskonvertieren kostet definitiv Zeit und Qualität!
Klasse, da wäre der Qualitätsverlust selbst bei besten Encodern schon vorprogrammiert.
Abgesehen davon schluckt Badaboom im Eingang wirklich so gut wie alles, Espresso ist da wieder deutlich wählerischer.

Zum Pinnacle Studio (14):
Dass es leider (noch) nicht Cuda und Stream zum Hintergrundrendern und Ausgeben verwendet, musste ich leider schon lesen.
Und Cuda + ATI Stream selbst erzeugt nicht schlechtere Qualität, sondern die Art und Weise, wie es im Encoder-Gesamtpaket verwendet wird. Da es als "super Beschleunigung" beworben wird, weiß man, worauf hier geachtet wird. Wäre es nur 5% schneller als Nero im Doublepass, könnte man damit nicht so gut pralen.

Dennoch nutzt Studio schon seit mehreren Softwaregenerationen die Grafikkarte mit.
Vor allem die Grafikkartenspeicher-Vorraussetzungen gibt es schon ziemlich lange.
Würde alles vom System-Prozessor und System-RAM erledigt werden, müsste es überhaupt keine Vorraussetzungen bei der Grafikkarte geben.
Vielleicht nutzt Studio auch den GPU-RAM. Ich sehe darin nur keinen Sinn, außer, dass er bei einigen Anwendern schneller sein könnte, als der System-RAM.
Demnach wäre nur der Datendurchsatz der Grafikkarte interessant.
DDR5 @ 128 bit ~ DDR3 @ 256 bit - da wäre die GTS250 min. schneller, als die GT250.
Und wieder sehe man nur einen Effekt bei den GTX285 bzw. ATI 58xx.

Das wären dann wieder die Schlachtschiffe, die nicht nur deutlich mehr kosten, sondern auch nach einen größeren Netzteil schreiein und wenn sie es bekommen haben, jubeln und schwitzen sie weiter...

Nachtrag: Natürlich sind auch Quadro-Karten interessant.
Im Vergleich zu den Consumer-Karten, die ich ins Auge gefasst habe, müsste ich dann die Quadro FX 3800 wählen.
Roundabout 800 Euro ist dann aber 8 mal so teuer, als eine GT240/GTS250.
Von den technischen Daten her sehe ich nicht, dass die dann schneller wäre.
 
Zuletzt bearbeitet:
Irgendwie willst du Nvidia oder ?Warum nimmst du sie dann nicht.Vergleich Athlon xp2400 Ati 9200 Studio 8:
8 Stunden ; Amd 955 Ati 5770 Studio 14 :30 Minuten Mpeg 2.Ca 1.5 Stunden zerlegt und Werbung entfernt
 
Der neue Cyberlink Powerdirector 8 unterstützt GPU-Beschleunigung mit Karten beider Hersteller.
Ansonsten würde ich bei Nvidia-Bevorzugung eine GT240 nehmen.
Was die Encodierung in H264 anbelangt, eig. solltest du zwischen E6600 und Q9550 einen großen Unterschied merken, H264 nutzt nämlich mutlithreading optimal. Ich persönlich nutze kostenlose Encoder (XMediaRecode und Handbreake).
 
Naja, die Sapphire 5750 ist auch interessant.
Es ist übrigens die einzig Verfügbare ATI 5xxx bei meinem Computerhändler.
Sie liegt leistungsmäßig und stromverbrauchsmäßig zwischen Nvidia GT240 und GTS250 und kostet 130 Euro.
Die GTS250 kostet dort 110 Euro, die GT240 (DDR5, 1GB) 100 Euro.

Mich hatte es umgehauen, was Badaboom alles schluckt. Ich kenne das ATI Pendent nicht.

Hinzu kommt, dass ich in der IT ein perfektionist bin.
Intel+Nvidia waren immer sehr stabil, sauber, funktioniell.

AMD+ATI (heute eine Firma) haben mich die wenigen Male, die ich Erfahrungen damit machen konnte/musste enttäuscht, zumindest im Direktvergleich.

Und mich stimmt es auch nicht mutiger, wenn ich sehe, dass es bei AMD/ATI einen Hotfix für den Mauszeiger gibt.
Nicht jeder Bug ist so offensichtlich erkennbar.

In anderen Bereichen leidet oder ärgert man sich, ohne den Grund zu kennen, der genauso in der Software stecken könnte.

Nichts ist schlimmer, als unbekannte Ausfälle, Instabilitäten, Abstürze usw.
Meine Wahl hat sich in den letzten Jahren immer mehr konkretisiert, was mich heute von diesen Dingen weitestgehend verschont.

Ich kenne Leute, mit AS-Rock-Board, AMD-CPU/GPU und Problemen, die ich nicht haben will... ;-)
 
Falls dein Post eine Antwort auf meinen Beitrag war, hast du dir ja schon alles selbst beantwortet:

1. CUDA/Stream wird derzeit nur zur Konvertierung benutzt und hilft nicht bei Videobearbeitung.
2. Die Qualität der GPU-Konverter lässt sehr zu wünschen übrig, weil nur minderwertige Video-Profile unterstützt werden (btw: mein E8400 rendert 1080p>720p mit x264 (MPEG-4 AVC High@L5.1) den 1. pass auch mit 35-45 fps - ohne CUDA/Stream).
3. Pinnacle 14 setzt die Grafikkarten-Mindestanforderung nur zum Abspielen der Vorschau voraus, nicht zum Rendern.

Meiner Meinung nach sieht es so aus, dass du dir einfach eine Mittelklasse-Grafikkarte (à la HD 5750 passiv/HD 5770 oder Geforce GT 240) holst und damit Full-HD flüssig abspielen kannst (im Gegensatz zu deiner jetzigen 7900 GT). Zum reinen Transcodieren kannst du optional CUDA/Stream benutzen, wenn dir die Qualität ausreicht oder es mal ein Tool gibt, welches AVC High-Profils beschleunigt, dann kannst du damit mit den Grafikkarten auch nutzen - die sind immer noch schneller als jeder Dual- und Quadcore. Für die reine Videobearbeitung bist du weiterhin auf die CPU-Power angewiesen und musst weiterhin einfach warten - oder später in einen dicken Hexacore investieren. Andere Chancen sehe ich da nicht.


Ach, und deine Angst vor AMD/ATI ist unbegründet. Es gibt genauso viele User, die mit AMD/ATI problemlos arbeiten wie es User gibt, die mit Intel/Nvidia nur Probleme haben. Ich persönlich sehe zwischen AMD und Intel keine Unterschiede (Intel ist etwas schneller in bestimmten Bereichen, AMD etwas preiswerter). Bei ATI ist die Technik besser und bei Nvidia die Treiber aufgeräumter. Außerdem sind die Treiber bei Nvidia oft früher für aktuelle Spiele optimiert, weil die stärker mit den Entwicklern zusammenarbeiten. Heißt: CPU egal, ob ATI oder Nvidia ist Geschmackssache auf welche Probleme man eher Lust hat. Wenn Spiele eh sekundär sind, dann ist auch diese Wahl egal.
 
Zuletzt bearbeitet:
Hm, ich könnte auch noch nen Moment warten. Ein kleiner Ableger der neuen GTX470 wäre fein. Aber ich glaube, auf Fermi im Mainstream- und Performance-Bereich warten wir noch min. bis zum Sommer, leider.

Apropos x264:
Ich habe es mal herunter geladen und auch eine Gui dazu gefunden.
Es hat mich förmlich erschlagen und was ich wo einstelle und was es bedeutet, war mir alles andere als klar.

Gibt es eine vereinfachte und aufgeräumte Gui, ggf. mit integrierter kontextsensitiver Hilfe?
 
Zuletzt bearbeitet: (Ergänzung, Frage zu x264)
Handbrake, MeGUI oder Staxrip hab ich. Sind aber keine Videobearbeitungstools, sondern Konverter.

Und die GTX470 wird sehr stromhungrig werden. Außerdem ist dann immer noch die Frage, ob du die CUDA-Performance überhaupt gebrauchen kannst. IMO nämlich nicht.
 
Nochmals, Handbrake, XmediaRecode (sehr einfach zu bedienen), SUPER.
Für die Wiedergabe von HD-Material bräuchtest du gar keine Graka, der Quad reicht vollkommen aus.
 
Ich habe nochmal über "Studio" nachgedacht. War es nicht so, dass der integrierte 3D-Server auch den 3D-Teil der Grafikkarte nutzt, z.B. um die effektvollen Übergänge zu generieren?

Ansonsten gilt doch auch, die Leistung von DirectCompute, OpenGL, OpenCL, Cuda oder Stream wächst mit der Grafikkarte mit, genauso wie die Bandbreite im Transfer durch die Karte.

DirectCompute 11 könnte noch wichtig werden, denke ich.
 
Damit hat sich dieser alte Thread auch erübrigt.
PC1 hat die GT240 bekommen, PC2...

Ich habe nun die Gigabyte GTX460 (OC) bestellt.

Für Cuda/DirectCompute(DX11) ist die Anzahl der Shadereinheiten interessant.

Da hat sich das warten gelohnt. Endlich gibt es eine Karte, die idle sehr wenig Strom verbraucht, aber ein großes Potential bietet, gerade auch für Spiele - das war für mich bisher nebensächlich.
Wenn sie da ist, werde ich wohl Spiele nicht mehr nur zur PS3 auslagern^^ ;-)

Ganz nebenbei ist so auch der erste Schritt in Richtung 3D Vision getan.
Irgendwann kommt der Monitor rüber zum anderen PC und hier dann ein 120Hz fähiger.
Dann fehlt nur noch die Brille, mal sehen.
 
Naa, ich muss nicht unbedingt in FullHD mit bester Qualität spielen.
Es ist schön, dass mir die neue Karte das bieten wird, aber muss: Nö.

In 3D wäre ich dann durchaus bereit, die Qualität und/oder die Auflösung etwas runter zu schrauben.
Die PS3 schaltet im 3D-Modus auch von 1080p auf 720p runter.

Aber soweit bin ich noch lange nicht.
Und dann kommt es auch drauf an, ob man z.B. Samsungs 2233rz nimmt, der eh keine 1920*1080 macht oder eben so ein FullHD 3D-Monitor wie den von Acer.

Reichen ist halt immer so relativ ;-)
 
Zurück
Oben