News Gigabytes Mini-ITX-Mainboard mit Fusion im Handel

LordLaden schrieb:
Quelle: DVBmagic.de

[...]
Ich habe das definitiv richtig geschrieben und bin vom Post wo danach gefragt wurde intuitiv davon ausgegangen, dass der Ersteller des Posts weiß, dass seine DVB-Karte keinen Hardware-Dekoder hat (was auch wirklich der REGELFALL ist). Receiver = Empfänger nicht aber Dekoder.
Du solltest deine Quellen aktualisieren - siehe:
https://www.computerbase.de/preisvergleich/?cat=vid&xf=801_DVB-S2#xf_top

MPEG 2 Decoder sind schon ab 50,- € TV-Karten vorhanden - was die einzelnen Modelle taugen muss jeder selber beurteilen. Nur Würde ich heutzutage einen PC der HDTV Streams auf der CPU in Software decodieren muss nicht als HTPC bezeichnen.

Dein Link ist das letzte mal 2009 aktualisiert worden:
Copyright 2001 - 2009 by Stefan Pratsch und Andreas Erbe
Das sollte dir spätestens dann auffallen wenn als Mindestanforderung CPUs angegeben werden sie kaum noch im Handel zu erhalten sind, und wenn dann nur zu Preisen die über aktueller Hardware liegen. Pentium D? Athlon 64x2 4200+?
 
@LordLaden

Googlen um recht zu behalten. :lol:
Das geht leider nur so lange gut bis jemand kommt der auch ein wenig Ahnung von der Materie hat.:D
 
Nur geht es bei der Dekodierung von HDTV (in Deutschland) nicht um MPEG2 sondern um H.264.
Und die Quelle ist zwar nicht aktuell, aber beschreibt doch sehr treffend, dass die Dekodierung wenn nicht Hardwareseitig von der Karte gehandhabt auf CPU/GPU entfällt.
Das kann nunmal niemand wegreden. Wenn man das jetzt noch in den Kontext der Frage stellt, dann kann man denke ich kaum sagen, dass ich keine Ahnung von der Materie habe. :(
 
Also bei digitalem SD TV werden die Signale als m2ts stream übermittelt. Dies ist ein MPEG2 format und da braucht nichts von der TV Karte dekodiert zu werden. Der Stream kann direkt auf die Platte geschrieben werden und liegt dann im MPEG2 Format vor und kann mit jedem MPEG2 Codec abgespielt werden. Deswegen gibt es keine und braucht es keine Digitalen Tuner Karten die einen eigenen Dekoder haben. Das ist "Wissen" aus der Analog TV Zeit.

Bei HDTV ists ebenfalls ein m2ts stream allerdings im H264 Codec.

Bei beiden ist die GPU für das Wiedergeben zuständig. Im Falle des Zacate für eine Darstellung durchaus ausreichend. Allerdings wird VA Deinterlacing auch hier nicht bei 1080i möglich sein. Deswegen ist davon ab zu raten und man sollte bei dem HDTV Wunsch eine HD5450 oder entsprechendes Nvidia Produkt verwenden.

Ich mache diese dinge ständig da ich NUR noch über einen HTPC fernsehe und mich viel mit Codecs und so rumprügeln musste.

Digitale TV Karten dekodieren also nichts mehr oder so. Sie dienen lediglich dem eigentlichen "Tunen" und der eventuellen Einbringung einer SmartCard zum entschlüsseln. Letzteres wird allerdings wieder von der CPU gemacht. D.h. die TV Karte macht NICHTS ausser einem das Rohmaterial zu liefern...:freak:

P.S.:
@phiber66
Du möchtest also sagen das ein Analoges Signal genauso scharfe Bilder übertragen kann wie ein Digitales? :rolleyes:
HIER mal ein schöner kleiner Artikel zu dem Thema...
Aber sonst lege ich dir einen Optiker ans Herz ;) (kleiner Scherz)
 
Zuletzt bearbeitet:
@deadohiosky:

Dass die S2 und h264 können bedeutet nicht, dass da ein Decoder drin ist.
Das heißt lediglich, dass die aus den Daten vom LNB einen h264-Stream machen können.
Decode muss trotzdem die GPU oder die CPU.
Idealerweise nactürlich die GPU, denn der CPU-Part vom Fusion dürfte dafür zu schwach sein, genau wie der von allen Atoms und K8 bis ca 2,5GHz. ;)

Edit: zu langsam.
 
deadohiosky schrieb:
Das geht leider nur so lange gut bis jemand kommt der auch ein wenig Ahnung von der Materie hat.:D
Wie sagt man so schön:
Wer im Glashaus sitzt, sollte im Keller scheißen. ;)

Das Dekodieren ist doch nie ein Problem gewesen. Bei analogen TV-Karten war häufig ein Hardware-Encoder vorhanden um den Krempel als MPEG auf die Platte zu schreiben ohne dass die CPU nen Kollaps bekommt.
 
http://www.heise.de/newsticker/meld...t-integriertem-H-264-Decoder-Chip-109556.html
Dank des Decoder-Chips sollen sich die 1080i/50-Videos (1920 × 1080 Bildpunkte bei 50 Halbbildern pro Sekunde) von einem Rechner mit 2,8 GHz getaktetem Celeron-Prozessor und Mainboard mit Intel-915G-Chipsatz einschließlich integrierter Grafikeinheit bei 10 Prozent CPU-Last ruckelfrei wiedergegeben lassen. Zum Vergleich: Micronas präsentiert in Hannover auch ein System mit AMD Athlon 64 X2 Prozessor vom Typ 3800+, ATI-X1900-Grafikkarte und dem ebenfalls fertiggestelltem Referenzdesign einer DVB-S2-Karte ohne Hardware-Beschleunigung, das bei der gleichen Aufgabe immer wieder ruckelte. Die CPU-Last lag hier durchschnittlich schon bei 60 Prozent.

http://www.heise.de/newsticker/meld...nerkarte-mit-eigenem-HDMI-Ausgang-755137.html
Am IFA-Stand von Kathrein (Halle 10.2, Stand 107) ist die bereits vor einiger Zeit angekündigte PC-Empfangskarte "TT-premium S2-6400" zu sehen, mit der sich dank Doppel-Tuner und integriertem H.264-Decoder bis zu zwei Satelliten-TV-Kanäle bis zur HDTV-Auflösung 1080i (1920 × 1080 Pixel, interlaced) auch auf leistungsschwachen Rechnern empfangen lassen sollen. Die Karte verfügt nicht nur über einen Anschluss für ein Common-Interface-Modul, sondern auch einen eigenen HDMI-Ausgang.

Aber naja - jeder baut sich halt einen HTPC wie wer meint.

@sanders
Ja das ist echt eine interessante Info. Im AMD Fusion Blog wird auch direkt der Stromverbrauch verglichen:
http://blogs.amd.com/fusion/2011/02/17/cyberlink-amd/
In testing conducted by AMD performance labs, the PC platform formerly codenamed “Brazos” with the AMD E-350 APU demonstrated 3.65 hours of movie playback with UVD3 enabled (MPEG-2 VLD) vs. 3.37 hours with UVD2 (MPEG-2 iDCT only). This was measured via the Blu-ray playback of the movie “Click” using the CyberLink PowerDVD 10 application. With the UVD2 engine the total APU power consumption was 5.257W vs. 4.217W consumption with the UVD3 engine. The total PC system demonstrated a power savings of 1.347W when UVD3 was enabled.
 
@bensen, ich habe nie behauptet, davon Ahnung zu haben, warum "unterstellst" du es mir auf einmal?

Meine Aussage bezog sich nicht auf mich selbst, bitte nicht irgendetwas reininterpretieren.
Ich persönlich bin jedoch davon ausgegangen, dass zumindest die höherpreisigen Receiver einen DecoderChip drauf haben, würde ja besonders bei schwachbrüstigen Systemen Sinn machen.

Ich entschuldige mich für deine Fehlinterpretation.
 
@Complication
Dein erster Link ist von 2006. Und verglichen wurde mit einer ATI Karte welche keine Hardwarebeschleunigung über die GPU ermöglicht. Jede heutige ATI GPU mit HD vorne an macht genau das gleiche wie der zusatzdekoder auf der TV die in dem Link beschrieben wird.

Dein 2. Link ist im grunde ebenfalls das gleiche wie eine GPU onBoard und defakto überflüssig wenn man eine GPU mit H264 unterstützung hat. Interessant ist dieser Tuner allerdings bei den kleineren Atomlösungen die keine 1080er ausgabe verkraften. Hier könnte man sich die zusätzliche Graka ersparen.
Außerdem ist das ding eh ne Todgeburt. Ich gebe hier mal CI+ und HD+ als kleinen Denkanstoß.
Wenn die also nur CI unterstützt wirds eh schonmal nichts mit Pro7 in HD. Und außerdem ists eh nur hochskalierter Müll mit Werbung für die man noch zahlen muss.

Bleibt also bei den Fakten : Keine Dekoderchips in digitalen TV Karten notwendig und/oder sinnvoll. ;)

Hab mal in deinen Link reingesehen. Die stromersparniss ist zwar nicht groß, aber prozentual gesehen ist das natürlich schon ne nummer...Langsam sollte klar werden warum AMD seit Jahren sagt : "The future is fusion" :D
 
sanders schrieb:
Hab mal in deinen Link reingesehen. Die stromersparniss ist zwar nicht groß, aber prozentual gesehen ist das natürlich schon ne nummer...Langsam sollte klar werden warum AMD seit Jahren sagt : "The future is fusion" :D
Ja das ist schon ne gute Hausnummer. Die Singlecores machen sich sicher auch Verbrauchsmäßig sehr gut in kleineren Tablets und Netbooks.
 
sanders schrieb:
@Complication
Dein erster Link ist von 2006.
Die sind deshalb von 2006 um zu zeigen seid wann Dekoderchips auf TV-Karten schon verbaut werden - aber gut man muss das ja nicht einsehen :rolleyes:
 
Dekoderchips werden schon wesentlich länger auf TV Karten verbaut. Genau genommen seit es TV GIBT! Aber was hat das mit zu tun das es inzwischen keine mehr gibt? Bzw. 99% aller TV karten keine mehr haben weil die einfach überflüssig sind!

Um es nochmal in deutlich zu machen da irgendwas scheinbar nicht angekommen ist :

Auf der TV Karte braucht heute NICHTS mehr dekodiert zu werden. Nahezu JEDE GPU ist heute im stande einen HD Stream selbst für die Bildausgabe auf zu bereiten. Die Streams bei Digital TV liegen bereits in einem Format vor mit welchem die GPU DIREKT umgehen können!

Es gibt in 99% aller Fälle keinen Sinn eine TV Karte mit integriertem Dekoderchip zu kaufen! Und in deswegen haben 99,9% aller digitalen TV Karten keine Decoderchips!!!!!!
Da gibt es nichts ein zu sehen!

Das ständige wiederholen falscher Informationen macht diese nicht richtiger!!!
Wie kann sich nur so verkrampft der realität verschließen und es total verweigern sein Wissen auf einen aktuellen Stand zu bringen?!?
Wobei aktuell auch schon übertrieben ist. Denn selbst die aller erste GPU serie von ATI mit dem vorsatz HD war im Stande völlig selbstständig mit digital gestreamten TV Signalen um zu gehen und BluRays wieder zu geben. Deswegen bekamen die Grakas übrigens auch den zusatz HD.

Eine ganz andere Sache ist es wenn ein Hardware Encoder eingebaut ist. Dieser dient aber lediglich dem Komprimieren des Videomaterials on-the-fly um es auf der Platte ab zu speichern. Ist aber ebenso überflüssig das in Zukunft auch hier die GPUs immer mehr abnehmen werden. Cuda machte den Anfang und openCL wird den Rest machen.

Aber für dich nochmal zusätzlich der komplette DVB Teil aus Wiki :
Digitale TV-Karten gibt es in Ausführungen für Kabelempfang DVB-C, terrestrischen Empfang DVB-T und Satellitenempfang DVB-S; auch Kombinationen sind verfügbar. Sie beinhalten einen DVB-Empfänger; die Senderwahl erfolgt per Software. Der empfangene MPEG-2-Datenstrom unterscheidet sich von dem einer DVD oder Video-CD nur in Details. Er wird bei preiswerten Karten per Software dekodiert und auf der Grafikkarte ausgegeben, teurere Modelle besitzen jedoch Hardware-MPEG-2-Decoder. Siehe auch: DVB-Karte.

Um eine Sendung aufzuzeichnen, muss der Datenstrom aus einer digitalen TV-Karte nur auf einem Datenträger, wegen der erforderlichen Speicherkapazität und Schreibgeschwindigkeit meist einer Festplatte, gespeichert werden. Im Gegensatz dazu müssen bei der Aufzeichnung mittels einer analogen TV-Karte die analogen Bild- und Tonsignale digitalisiert und vom PC in Echtzeit rechenaufwendig komprimiert und anschließend auf einem Datenträger gespeichert werden. Die Aufzeichnung über eine digitale TV-Karte erfolgt unabhängig vom Fabrikat daher stets mit maximaler Qualität. Lediglich Störungen auf dem Übertragungsweg vom Satelliten, vom DVB-T-Sender oder vom TV-Kabelnetz zur TV-Karte mindern die Qualität, was sich in Bild- und Tonaussetzern oder „verpixelten“ Bildern („Klötzchen“ im Bild) äußert. Ebenfalls sind die Anforderungen an den Rechner deutlich niedriger, wodurch bei Rechnern mit geringerer Rechenleistung Aussetzer vermieden werden.

Und danach hab ich mich mal auf die suche gemacht diese angeblichen höherpreisigen Karten zu finden. Und siehe da, ich habe keine gefunden. Einzig Karten die im grunde auch die Graka ersetzen sollen. Eben wie bei der von dir verlinkten. Aber das ist eben keine reine TV Karte sondern eine Kombo die auch ein Bild wieder ausgeben soll...
 
Zuletzt bearbeitet:
Dein eigenes Wikipedia Zitat:
Er wird bei preiswerten Karten per Software dekodiert und auf der Grafikkarte ausgegeben, teurere Modelle besitzen jedoch Hardware-MPEG-2-Decoder. Siehe auch: DVB-Karte.

Wer richtig sucht findet auch: http://www.vdr-wiki.de/wiki/index.php/Ausgabegeräte
http://www.vdr-wiki.de/wiki/index.php/Full-featured-DVB-Karte
Eine Full-Featured DVB-Karte besitzt neben dem DVB-Tuner auch noch einen MPEG-Hardware-Decoder, der das empfangene Signal (oder andere, an die DVB-Karte adressierte MPEG-Datenströme) decodiert und am Composite- und am RGB- (J2-) Ausgang der Karte ausgibt.
Dort findest du auch eine Liste gängiger Karten.
 
Zuletzt bearbeitet:
Du raffst es nicht oder?!? Sry, aber so langsam werde ich ungehalten.
Du versuchst mich mit meinem eigenen Wiki Zitat nieder zu ringen obwohl ich die stelle selbst schon kommentiert habe?!? Irgendwie überflüssig.
Und davon ab WO SIND DENN DIE KARTEN
Ich könnte dir jetzt auch noch 100000000000 Artikel um die Ohren prügeln. UND?!?

Man es gibt so gut wie keine! Sie machen keinen Sinn (was wohl der Grund dafür sein dürfte das es kaum welche gibt)!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!

Gleich fange ich an dir das zu Buchstabieren! Und zur Sicherheit werd ichs auch noch als Audiofile hier mit reinstellen und dir per Post schicken. Vielleicht schnallst dus dann.

Ich sage nichts gegen die Technische möglichkeit solche Karten zu bauen. Und das es vereinzelnd auch welche geben mag ist schön und gut. Aber WOOOOOOOOO?????????
Du hast selbst bisher NUR eine ANKÜNDIGUNG aus dem letzten jahr verlinkt. Aber keine erhältliche Karte.
Und dem gegenüber stehen gefühlte 1000 Karten die keinen Decoder an Bord haben und von 99,9999% aller verwendet werden bei DVB.

decodiert und am Composite- und am RGB- (J2-) Ausgang der Karte ausgibt.
Wie ich selbst schon geschrieben habe. Sie ersetzen die GPU. Raffst du es????
Ich weiß langsam nicht mehr weiter....:freak:
 
sanders schrieb:
Du raffst es nicht oder?!? Sry, aber so langsam werde ich ungehalten.
Du versuchst mich mit meinem eigenen Wiki Zitat nieder zu ringen obwohl ich die stelle selbst schon kommentiert habe?!? Irgendwie überflüssig.
Ich glaube da haben wir das Problem - ich versuche hier nicht zu ringen, du anscheinend schon. Daher klick doch einfach auf die Produktlinks in den von mir zuvor aufgeführten Links und komm mal wieder runter.
 
@sanders
nein das behaupte ich nicht und habe ich auch nie gesagt!:)
aber momentan sehe ich optisch beim gucken von einem Blue Ray Film
in 1920*1080p keinen Unterschied zwischen VGA und HDMI.
Ich denke erst wenn wir es mit höheren Auflösungen als 1920*1080p zu zun haben werden erst sichtbare Unterschiede zwischen HDMI vs VGA optisch zu sehen sein.
HDMI gehört auf jeden Fall erst mal die Zukunft und ich könnte mir vorstellen das VGA Ports generell sich in den nächsten Jahren allmählich verabschieden werden.
 
Naja, jede diskussion kann als Wortgefecht bezeichnet werden. Und demnach eine Art des Verbalen Ringens. Allerdings kommst du unbewaffnet!
Und das ist auch kein Problem das ich dieses Gespräch so erfasse. Das Problem ist offensichtlich das du dir nicht im klaren darüber bist was eine Graka eigentlich macht. Obwohl mich das etwas verwirrt. Deine früheren Posts die ich so kenne ließen eigentlich immer den Schluss zu das du dich schon etwas mit Computern beschäftigt hast.

Unter den von dir genannten Links sind diverse Produkte aufgeführt. Welche allerdings fast ausschließelich nicht mehr produziert werden. Lediglich die richtig professionellen Schnittstellen Karten sind noch erhältlich. Diese liegen preislich aber teilweise auf dem Level ganzer HTPCs und sind keine TV Karten sondern seperate MPEG Hardware Decoder.
Und interessanterweise muss ich dir deinen eigenen Link erklären.

Nutzung einer nvidia Grafikkarte ab Geforce 8300 aufwärts (auch onboard Chipsätze) mit X und Nutzung der Grafikkarte über VDPAU als Hardware-Decoder

Findet sich in der selben Liste wie auch die Fullfeatured Karten.
Wie gesagt, es ging mir nicht um die Technische Machbarkeit sondern ob erhältlich und überhaupt brauchbar. Und fakt ist nunmal, und offenbar hast du keine Gegenargumente, das diese Hardware überflüssig und somit auch nicht mehr existent ist.

Unter dem anderen Link findet man außerdem folgende Info bei Vor/Nachteile von Fullfeatured Karten :

Die Vorteile einer Full-Featured-Karte sind, dass wegen des Hardware-MPEG-Dekoders ein relativ schwacher und somit sparsamer und preisgünstiger Computer ausreicht.
Und
Die Full-Featured-Karten haben gegenüber den Budget-Karten aber auch Nachteile. Daher ist es im allgemeinen nicht sinnvoll mehr als eine Full-Featured-Karte im System zu haben.
Und wenn ich sowas sehe schaue ich mir die DuoFlex Karten von Digital Devices an und erkenne immer weniger Sinn in fullfeatured Karten. Also noch weniger als GARKEINEN.

Wenn ich nun also in betracht ziehe das JEDER ION Chipsatz und JEDES Board mit AMD E350 im stande ist über die interne GPU das TV Signal wieder zu geben, WOZU ZUM GEIER SOLLTEN MAN DANN EINE FULLFEATURED Karte kaufen.

Hier noch ein paar schmankerln deinem heiß geliebten VRD Wiki :

VDR braucht zur Videoausgabe zwingend einen MPEG-Decoder und läuft daher nur mit einer Full-Featured-Karte oder mit einer Budgetkarte in Verbindung mit einem externen Decoder wie einer DXR3- oder Hollywood+-Karte. Diese externen Decoderkarten werden nicht mehr hergestellt, sind aber preiswert gebraucht erhältlich.
Sehr aktuell:freak: Schafft heute jede GPU außer die von Atom.

Ist Fernsehschauen mit einer Budget-Karte alleine möglich?

Es gibt mehrere Möglichkeiten:

* Full-Feature-Karte dazu kaufen
* Eine DXR3-Karte als MPEG-Dekoder zu verwenden. Diese gibt es günstig gebraucht schon für etwa 20 Euro.
* Eine Hauppauge PVR350 kann mit dem Pvr350-plugin als Ausgabe-Device benutzt werden.
* Das Xine-plugin benutzen. Dieses emuliert zusammen mit dem Xine-Medienplayer ein MPEG-Device. Ein X-Server zur Grafikausgabe wird benötigt.
* FrameBuffer mittels Softdevice-plugin nutzen. Dieses stellt das Fernsehbild am Monitor dar, ohne einen X-Server zu benötigen.
* Eine weitere Softwarelösung ist das Xineliboutput-plugin. Dabei kann die Ausgabe und Steuerung auch über Netzwerk auf einem anderen Rechner laufen.
Wow, von wann ist das? 1950? Also ich hab ne Terratec DVB-C drin und bei mir gehts ohne diesen schnick schnack über die GPU.

Hier nochmal Wikipedia :
Bei UVD 2.0 werden schlicht zwei UVDs verbaut, wodurch zwei Videostreams gleichzeitig von der Grafikkarte übernommen werden können, so dass auch die Funktion Bild im Bild möglich ist. Zudem kann die Grafikkarte nun zusätzlich den Hauptprozessor zum Teil beim abspielen des MPEG-2-Formats entlasten.

UVD 3.0 unterstützt zusätzlich zu den Funktionen aus den vorherigen Generationen DivX und Xvid via MPEG-4 Teil 2 Decoding und Blu-ray 3D via Multiview Video Coding.

Und unter Linux geht das alles mit MPEG2 und UVD und pipapo auch schon ewig...

P.S.:
@phiber66
Also ich sehe hier massive unterschiede. Aber gut, bei Filmen muss ich dir recht geben. Dort empfinde ich gerade DVDs manchmal als etwas angenehmer auf VGA als HDMI.
Bei BluRay ist es subjektiv zu beurteilen. Aber ich sitze auch gute 6m von meinem Fernseher weg.
Aber sobald ich in den Desktop schalte kann ich das HDMI Bild noch lesen. VGA allerdings nicht mehr sauber. Bzw. es wirkt matschig.
Hab auch meine Monitore teils über HDMI und teils VGA laufen. (einige können beides und ich war bisher zu faul Kabel zu kaufen). Auch hier ist ein deutlicher unterschied zu sehen. Allerdings ist VGA unkomplizierter. Wenn ich bei VGA aus dem standby komme ist das Bild so wie es sein soll beim HTPC. Bei HDMI stellt windows immer mal wieder die Auflösung um.
Ja, HDMI gehört die zukunft. Zumindest so lange bis alle merken das displayport besser ist :D
 
Zuletzt bearbeitet:
Zurück
Oben