News 8K-Fernseher: 8K Association definiert Anforderungen für Logo neu

WinnieW2 schrieb:
Bedeutet: Jeder der den AV1 Codec in irgendeiner Form kommerziell nutzt müsste Lizenzgebühren bezahlen.
ja, AV1 nutzt ihn ja nicht kommerziell. Aber es stehen viele Firmen und viel Geld für gerichtliche Ausseinandersetzungen bereit.
 
calippo schrieb:
Bis hierhin noch nicht.

Aber eine Abweichung ist dennoch vorhanden. Weniger falsch macht es nicht richtig.
calippo schrieb:
wenn man jetzt künstliche Bezeichnungen wählt wie UHD, Super-UHD, Superduper-UHD muss man die Begriffe genau kennen.

Ich würde vermuten, dass der Otto-Normal-Verbraucher sowieso keine Ahnung hat, was genau 4k bedeutet.
Ob er also 4k als neusten heißen Scheiß betitelt oder UHD macht doch keinen Unterschied.

Meine Frage ist einfach, warum der Hersteller auf einmal den Begriff 4k vorgezogen hat. Am Anfang wurde meist UHD genutzt. Klingt es toller? Ist es besser auszusprechen?
Wenn der Hersteller nur einen "netten" Begriff braucht, warum dann unbedingt einen falschen, wenn es doch mit UHD schon einen "tollen" gab?
 
Mithos schrieb:
Wenn der Hersteller nur einen "netten" Begriff braucht, warum dann unbedingt einen falschen, wenn es doch mit UHD schon einen "tollen" gab?
1) Falsch ist ansichtssache - ungefähr stimmts ja, vor allem, wenn man nur die Größenordnung andeuten möchte
2) Zahlen lassen sich besser fassen: je größer desto besser
3) Es geht ja nicht um 4k, sondern 8k, und toll sind die Begriffe gewiss nicht:
die beiden Bildauflösungen 3840 × 2160 („UHD-I“) und 7680 × 4320 („UHD-II“) mit einem Bildseitenverhältnis von 16:9 und quadratischen Bildpunkten.[2]
(Aus wikipedia)
Da kommt ja gar keiner mehr mit.
 
@Mithos

4k ist die Hälfte von 8k ist die Hälfte von 16k. Ist doch allemal sinniger, die Spaltenanzahl/Auflösung in Zahlen darzustellen, also in Buchstabenkürzeln. Insbesondere bei TV-Geräten, die ja wohl alle ein ähnliches Seitenverhältnis haben (anders als bei Monitoren, wo das Seitenverhältnis unterschiedlich sein kann.

Man könnte natürlich auch die Megapixel angeben, die müsste man aber auch ab oder aufrunden, wenn man nur die großen Sprünge als Klasse darstellen will.
Wer sprachlich genauer sein will, der gibt halt die exakte Auflösung an.
 
Sun_set_1 schrieb:
Wo bitteschön ist HDTV der Inbegriff für genau diese ITU Spezifikation? Hast Du dazu eine Quelle oder ist das einfach deine eigene Interpretation, die du mir dann auch auferlegst?

Sun_set_1 schrieb:
Dass dies im ‚alten‘ TV weiter passiert, ist also auf völlig andere Ursachen zurückzuführen als der Schmarn, dass das noch irgendwas mit PAL und NTSC zu tun hätte.

Die Normen für den Broadcast-Bereich werden nunmal von internationalen Gremien festgelegt.

Die in 60/50 Bilder/s (NTSC u. PAL/SECAM) geteilte Welt wurde bei der Gestaltung der digitalen Normen beibehalten und wirkt sich auch auf Neuproduktionen aus. Eine gemixte Ausstrahlung in unterschiedlichen Bildraten ist aktuell in keiner TV-Norm vorgesehen.

Alles weitere wird die Zukunft bringen.
 
unlock schrieb:
Die Normen für den Broadcast-Bereich werden nunmal von internationalen Gremien festgelegt.

Für Broadcast völlig richtig. Aber HDTV an sich ist erstmal ein Sammelbegriff. Es gibt aber HDTV nach ITU.
Aber ohne Spezifizierung zu schreiben, das 1080p ist nicht Teil der HDTV Spezifikation ist, imho, nicht korrekt.

Und ganz davon ab ist 1080p ganz offensichtlich Teil der 709-6, hab’s oben rein editiert.

unlock schrieb:
Die in 60/50 Bilder/s (NTSC u. PAL/SECAM) geteilte Welt wurde bei der Gestaltung der digitalen Normen beibehalten und wirkt sich auch auf Neuproduktionen aus.

Ganz genau das meine ich ja. Ich bemängele aber, dass es dafür keinen technischen Grund mehr gibt.
Außer halt Einspeiser, die keine Lust haben ihre Infrastruktur komplett zu modernisieren.

Diese technische Steinzeitanforderung weiter mittels Spezifikationen am Leben zu halten, kann eigentlich keinem Vebraucher recht sein. Wie Du ja schreibst, es hindert letztlich auch Neuproduktionen und steht nur dem Fortschritt im Wege.

Und wie vormals von mir erläutert, selbst Parallelbetrieb mit 24/50/60Hz je nach Quellmaterial wäre ohne weiteres möglich. Wir haben halt nicht mehr 1990..
 
KitKat::new() schrieb:
(Aus wikipedia)
Da kommt ja gar keiner mehr mit.
Richtig, aber das Problem wird doch nicht mit einer anderen Bezeichnung gelöst. Wie werden denn die beiden Auflösungem mit dem Zahlenkürzel unterschiedlich benannt? 4k dürfte man sie ja nicht beide nennen, würde ja nicht auf einen Unterschied deuten.

calippo schrieb:
4k ist die Hälfte von 8k ist die Hälfte von 16k.
Das ist keine Begründung. Ich hätte 3840 Pixel doch auf 3k nennen können und 7680 dann 6k. Deine Begründung wäre dieselbe, das eine ist die Hälfte vom anderen. 4k ist nur besser gerundet, wobei das irgendwann absurd wird, siehe 32k.
Es geht mir nur darum, dass die Hersteller einfach auf die "Wissenschaft scheißen", nur damit sie ihre Marketingbegriffe passend machen können.

Ja ich verstehe was dahinter steckt und nein ich komme mir nicht verarscht vor, wenn ich "weniger als angepriesen" bekomme, mir geht es nur ums Prinzip, da bin ich Krümelscheißer.
 
  • Gefällt mir
Reaktionen: DeusoftheWired
Mithos schrieb:
Das ist keine Begründung. Ich hätte 3840 Pixel doch auf 3k nennen können und 7680 dann 6k. Deine Begründung wäre dieselbe, das eine ist die Hälfte vom anderen. 4k ist nur besser gerundet, wobei das irgendwann absurd wird, siehe 32k.
Es geht mir nur darum, dass die Hersteller einfach auf die "Wissenschaft scheißen", nur damit sie ihre Marketingbegriffe passend machen können.

Find auch dass das zT sehr unglücklich ist. Gerade da ja 4K auch wieder mehrere Auflösungen unter sich vereint.

Verstehe ehrlich gesagt nicht, warum man es nicht einfach ganz normal weiter benennt wie seit eh und jeh.
720(i/p) 1080, 1440, 2160, 4320 usw. usf.

Würde auch entsprechend die höhere Auflösung von 4:3 etc. berücksichtigen. Wäre dann im Falle 4K bspw. 3072p ggü 2160p

Wobei das auch wieder nicht ganz richtig, ist - da die Auflösung höher wird, die PPI und damit die eigentliche Bildschärfe jedoch gleich 2160p bliebe....
 
DaBo87 schrieb:
In Anbetracht der derzeitigen globalen Herausforderungen steht diese Problematik in Zusammenhang mit Konsumenteninformation sicherlich weit hinten, aber man sollte solche Zertifikate supranational, z.B. durch eine zu gründende Organisation der UN vergeben. Dann wären alle anderen Siegel für die Tonne und man hätte endlich mal wieder einen Ankerpunkt zur Orientierung.
Und anfangen tun wir dann bei USB :D

Noch mehr Staat muss nicht sein.
 
@peter.hahn

Ja natürlich. Ich habe diverse Kalibrierungen aus dem hifi-forum ausprobiert.
Dolby Vision unterstützt der TV nicht, soll ja das beste Erlebnis bieten. Mir ist es oft schon zu dunkel.
Ich finde das Bild herausragend. Aber zwischen 1080p und 4k sehe ich kaum einen unterschied. Vielleicht ist der upscaler im TV auch einfach so gut.
Ich sitze 4m weg.
 
Mithos schrieb:
4k steht für 4000. 3840 ist nicht 4000. 7680 ist nicht 8000.
Wir reden hier von 4% Abweichung nach unten. Die Werte sind immer noch näher an 4 und 8K als an 3 und 7K. Die Markenabkürzungen 4 und 8K richten sich nunmal nicht nach den SI-Einheiten sondern an FullHD, und das liegt nun einmal auch 4% unter 2000. Deal with it.

Der Begriff "2K" kommt aus der Filmbranche und bezeichnet ein Abtastraster von 2000 x 1000 Pixeln im Format 3:2. Da die wenigsten Filme in diesem Format vorlagen, hatten auch die in 2K digitalisierten Filme in den Meisten Fällen eine Auflösung unter 2000 x 1000 Pixel.
 
Zuletzt bearbeitet:
Sun_set_1 schrieb:
Wobei das auch wieder nicht ganz richtig, ist - da die Auflösung höher wird, die PPI und damit die eigentliche Bildschärfe jedoch gleich 2160p bliebe....

Eben, entweder gibt man alle notwendigen Parameter an, horizontale und vertikale Auflösung, Pixelgeometrie und Pixeldichte. Da das alleine immer noch kein Bewertungskriterium für Bildqualität darstellt, könnte man Leuchtkraft, Farbraum, Reaktionszeiten usw. auch gleich noch mit angeben.

Oder aber man teilt es grob in Größenklassen ein und gibt denen griffige Bezeichnungen, die Leute bereits aus anderen Bereichen kennen, z.B. die Exponentialfunktion mit Basis 2.
 
Cruentatus schrieb:
Wenn dann vermutlich nur bei Blockbustern
...und P**n
Ergänzung ()

DeusoftheWired schrieb:
und eine eindeutige Bezeichnung wie UHD (3840 × 2160), weshalb sollte man sich dann für die uneindeutige Variante entscheiden?
Weil 8K griffiger klingt ist als UHD.
 
calippo schrieb:
Eben, entweder gibt man alle notwendigen Parameter an, horizontale und vertikale Auflösung, Pixelgeometrie und Pixeldichte.

PPI wäre/ist meiner Meinung nach die beste Angabe hinsichtlich Auflösung.
Plus halt ggf dann zugehörig Muster/Matrix Angabe.

Das von Dir genannte evtl halt hinzu. Wobei bei Farbräumen geht’s ja schon wieder los, FullRGB, Adobe, oder oder oder, USB lässt grüßen :freak:
 
@Cruentatus
Große Sportveranstaltungen werden seit ein paar Jahren (Olympia 2016) in 8k aufgezeichnet und übertragen.
Ansonsten taugen 65mm Filmaufnahmen auch ziemlich gut, für einen 8k scan.
 
Neben dem 8KA-Logo existieren zudem das 8K-Siegel der Consumer Technology Association (CTA) sowie das Logo „Real 8K“ von LG. Jede Vereinigung setzt dabei seine eigenen Spezifikationen und Richtlinien um, was für den Konsumenten weniger für Transparenz, sondern eher für Verwirrung sorgt.
So ein Blödsinn, jeder kocht sein eigenes Süppchen. Da hilft es nur wenn man als Konsument genau auf die technischen Daten schaut. Aber ist ja nix neues, man sollte sich nicht einfach auf irgendwelche Labels und Logos verlassen.
Die genauen Bedingungen sind allerdings nur für Mitglieder der Association einsehbar.
Schade, hätte mich auch interessiert. MFG Piet
 
  • Gefällt mir
Reaktionen: KitKat::new()
Mithos schrieb:
Wenn der Hersteller nur einen "netten" Begriff braucht, warum dann unbedingt einen falschen, wenn es doch mit UHD schon einen "tollen" gab?

Weil man etwas Plakatives für die Werbung brauchte, das dem Durchschnitts-DAU als Steigerung von 4K vorkommt. Leute, die Kaufentscheidungen innerhalb von Sekunden anhand bunter Aufkleber fällen, nicht nach dem eingehenden Studium von Datenblättern. Leider stellen diese Menschen das Brot-und-Butter-Segment der meisten Hersteller. Genauso schade ist, daß viele Dinge einen irreführenden Namen tragen, aber das hat ja Methode.

Das Siegel ist Quark, weil es

1. Konkurrenzsiegel mit abweichenden Kriterien gibt („Neben dem 8KA-Logo existieren zudem das 8K-Siegel der Consumer Technology Association (CTA) sowie das Logo „Real 8K“ von LG. Jede Vereinigung setzt dabei seine eigenen Spezifikationen und Richtlinien um, was für den Konsumenten weniger für Transparenz, sondern eher für Verwirrung sorgt.“)

2. nicht für die Öffentlichkeit nachvollziehbar vergeben wird („Neben den bereits genannten und zu erfüllenden Voraussetzungen legt die 8K Association noch Anforderungen in folgenden Bereichen fest. Die genauen Bedingungen sind allerdings nur für Mitglieder der Association einsehbar.“)

3. ein technisches Merkmal, nämlich die Auflösung („8K“) in den Namen nimmt, obwohl noch mindestens zehn andere technische Merkmale Bestandteil davon sind (Bildwiederholrate, Spitzenhelligkeit, HDMI-Standard, Codec, Bittiefe, Farbraum, Schwarzwert, Chroma, HDR, Weißpunkt-Abgleich und die nicht öffentlich einsehbaren Voraussetzungen)

Hier sollte ein Klebebildchen geschaffen werden, das bei Lieschen Müller im Laden ein „kannste kaufen“ im Kopf auslöst. Ein informierter Verbraucher kann es ignorieren und darf weiterhin das Datenblatt beim Hersteller oder die Eigenschaften vergleichbar bei geizhals studieren.

Balikon schrieb:
Weil 8K griffiger klingt ist als UHD.

Dann benutz gern übergreifend für alles diesen Begriff, aber wundere dich nicht, wenn dich Leute mißverstehen oder du nachfragen mußt. Ich bleib bei UHD und UHD-2.
 
Zuletzt bearbeitet:
KitKat::new() schrieb:
Für Videokonsum auf jeden Fall. Aber als Monitor fände ich sowas schon hilfreich. Sitze gerade vor 40" in 4k, und sehe leider Pixel 😑
Ja, zum Arbeiten ist das bestimmt hilfreich. Aber TVs verwendet man nun eher nicht zum Arbeiten. Es gibt derzeit nur einen Monitor mit 8K-Auflösung.
 
Zurück
Oben