Tja für meinen HTPC hätte ich auch gerne einen der 2-Kerner. Jetzt stellt sich nur die Frage, ob die Shader in der Lage sind, das Deinterlacing eines 1080i-Videos zu bewältigen. Post-Processing-Effekte, zu denen ja auch das Deinterlacen gehört, werden ja leider nicht vom UVD3 bewältigt, sondern auf die Shader ausgelagert.
Bei der HD5xxx-Reihe braucht es mindestens eine 5670, um ein vernünftiges Deinterlacing zu bewerkstelligen, da dies die kleinste HD5-Karte ist, die genügend Shaderleistung dafür bereitstellen kann.
Hinzu kommt noch, dass endlich auch die Linux-Treiber von AMD ein vernünftiges Framework für das "on-chip-decoding" bereitstellen müssen, so ähnlich wie VDPAU bei der Konkurrenz.
Wenn ich mir diese beiden Punkte dann ansehe, muss ich leider sagen, dass ich schwarz sehe für Bobcat. Zumindest was den Einsatz im HTPC angeht.
EDIT: Mit vernünftigem Deinterlacing meine ich das "Vector Adaptive Deinterlacing". Alles darunter ist auf einem 1080p-Schirm nicht das gelbe vom Ei.