HDR vs. 10-bit Farbtiefe

Drakonomikon

Commander
Registriert
Okt. 2005
Beiträge
2.745
Ich habe seit heute einen ASUS PG329Q. Dieser Monitor hat ein 10-bit Panel (8bit+FRC) und ist HDR tauglich. Da dies mein erster Monitor mit einem 10-bit Panel ist, habe ich den Aufwand nicht gescheut zu überprüfen ob die Ausgabe-Farbtiefe zwischen 8bpc und 10bpc (in den Nvidia-Einstellungen) wirklich einen sichtbaren Unterschied bringt. Mir ist bewusst, dass Windows Standardprogramme stets 8bpc anzeigen und habe deswegen Photoshop installiert und den 30-bit Support aktiviert, ein neues Bild in 1440p mit 32-bit Farbtiefe erstellt und einen Farbverlauf von Schwarz zu Weiß generiert. Und siehe da, bei 8-bit ist ein deutlich stärkeres Banding zu sehen als bei 10-bit. Ich bin mir bis hier hin also sicher, dass 10-bit einen sichtbaren Unterschied erzeugen.

Nun gibt es aber die Möglichkeit HDR in den Windows-Einstellungen zu aktivieren. Nach meinem Verständnis sind 10bit Farbtiefe ein Synonym zu HDR. Allerdings kann ich in den Nvidia-Einstellungen genauso gut 8bpc mit HDR aktivieren. Das ist nach meinem Verständnis ein Widerspruch. Und Photoshop ignoriert auch eiskalt die Nvidia-Einstellung der Farbtiefe solange HDR aktiv ist. Soll heißen, das Banding ist so gering wie zuvor mit 10-bit. An dieser Stelle könnte man vermuten Windows > Nvidia, sodass die Nvidia-Einstellung egal ist solange HDR aktiv ist. Aber wenn ich die Informationen im OSD des Monitors auslese, bekomme ich auch 8-bit mit HDR bzw. 10-bit mit HDR angezeigt. Das bedeutet dass die Grafikkarte ganz klar nur eine Farbtiefe von 8-bit ausgibt, wenn es so in den Nvidia-Einstellungen eingestellt ist.

In Baldurs Gate 3 kann ich einen deutlichen Unterschied zwischen SDR und HDR erkennen. Die Helligkeitsdynamik im HDR Modus ist viel größer als in SDR. Allerdings muss ich sagen, dass ich einen ähnlichen Effekt in SDR ebenso erreichen kann, wenn ich das Gamma entsprechend verringere und die Leuchtdichte (in cd/m²) weit genug erhöhe.

Meine Fragen sind:
-Wie kann HDR bei nur 8bpc Farbtiefe ausgegeben werden?
-Was tut HDR im Detail? Wird einfach nur das Gamma manipuliert?
 
Hohe Dynamik (Amplitude) bei niedriger Bandbreite schließt sich grundsätzlich nicht aus. HDR heißt per Definition nur eine hohe Differenz zwischen Hell und Dunkel, nicht viele Farben. Für die Darstellung eines HDR-Bildes braucht man also erst mal ein Panel welches möglichst viele cd/m² erreicht und idealerweise einen hohen Kontrast bietet (Schwarzwerte).
10 Bit pro Kanal bedeutet hingegen mehr Farben als 8 Bit. Das bedeutet gleichzeitig auch mehr Helligkeitsabstufung bei 10 Bit gegenüber 8 Bit. Das ist bei HDR natürlich anzustreben, weil hier die feinere Abstufung gebraucht wird. Aber nicht obligatorisch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA
HDR ist nur der Oberbegriff für erweiterten Dynamik- (und Farb)umfang gegenüber SDR.

Z.B. nutzt HDR10 10 bit Farbtiefe, um erweiterte Dynamik- und Farbinformationen gegenüber 8 bit SDR zu kodieren.
Andere HDR Verfahren, wie z.B. Dolby Vision, können auch 12 bit dafür nutzen - bedeutet dann eben noch mehr Farbabstufungen und mehr Dynamik.

Wenn du einfach nur "10 bit" hast, dann kann das alles bedeuten, weil niemand weiß, was mit den 2 zusätzlichen Bits gemacht wird. Damit könnte man z.B. ausschließlich die Farbabstufungen verfeinern. Oder eben wie bei HDR zusätzlich erweiterte Dynamikinformationen unterbringen.

Du kannst theoretisch auch HDR mit 8 bit benutzen, allerdings gibt's (soweit ich weiß) keinen Standard für so ein Format. Soll heißen: Wenn du HDR mit aktuellen Standards nutzen willst, dann brauchst du auch (mindestens) 10 bit pro Pixel.
 
10 Bit beziehen sich auf mögliche Anzahl der Dynamikabstufungen, HDR dagegen auf den Dynamikumfang. Im Prinzip sind es unterschiedliche Dinge, da aber durch die höhere Dynamik das Banding bei 8 Bit noch verstärkt auftreten würde, gibt es HDR bei Video normalerweise erst ab 10 Bit.

Drakonomikon schrieb:
Wird einfach nur das Gamma manipuliert?
In erster Linie ist es das Gamut.
 
ghecko schrieb:
10 Bit pro Kanal bedeutet hingegen mehr Farben als 8 Bit.
Das sollte man vielleicht etwas genauer ausführen. 10 Bit allein bedeutet keinen größeren Farbumfang, sondern erstmal nur mehr Abstufungen zwischen den Farben. So als würde man zwischen jeder Farbe 3 weitere Abstufungen einfügen. Das blaueste Blau ist aber nicht blauer als vorher schon (andere Farben analog). Das ist erst dann der Fall wenn man auch einen größeren Farbumfang hat, wie für HDR10/UHD üblich.
 
Marco01_809 schrieb:
10 Bit allein bedeutet keinen größeren Farbumfang, sondern erstmal nur mehr Abstufungen zwischen den Farben
Mehr Abstufungen zwischen Farben = Mehr Farben.
Um eine Potentielle Erweiterung des Farbraumes ging es in meiner Argumentation nie, der ist bei uns Menschen ohnehin natürlich begrenzt. Darüber hinaus macht keine Darstellung Sinn, also geht es quasi nur darum, wie fein die Abstufung innerhalb dieser Bandbreite ist. Aus der Diskussion über Formate mit teils begrenzten Farbräumen halte ich mich bewusst raus. Erstens weil ich in dem Thema nicht drinstecke und zweitens weil mir dies nur eine thematische Grundsatzdiskussion zu sein schien.
 
Ich weiß dass du das gleiche meintest aber für jemanden der sich gerade versucht in das Thema einzulesen ist "Mehr Farben" vielleicht nicht ganz klar. Habe es nur der Vollständigkeit halber angemerkt ;)
 
  • Gefällt mir
Reaktionen: ghecko
ghecko schrieb:
HDR heißt per Definition nur eine hohe Differenz zwischen Hell und Dunkel, nicht viele Farben. Für die Darstellung eines HDR-Bildes braucht man also erst mal ein Panel welches möglichst viele cd/m² erreicht und idealerweise einen hohen Kontrast bietet (Schwarzwerte).
Das verstehe ich. Aber dafür müsste es keinen extra HDR Modus geben. Es würde reichen die Leuchtdichte des Monitors statisch auf 600cd/m² zu erhöhen und dafür sorge zu tragen das schwarze Pixel genauso schwarz bleiben wie mit 350cd/m².

benneq schrieb:
Du kannst theoretisch auch HDR mit 8 bit benutzen, allerdings gibt's (soweit ich weiß) keinen Standard für so ein Format. Soll heißen: Wenn du HDR mit aktuellen Standards nutzen willst, dann brauchst du auch (mindestens) 10 bit pro Pixel.
Amaoto schrieb:
10 Bit beziehen sich auf mögliche Anzahl der Dynamikabstufungen, HDR dagegen auf den Dynamikumfang. Im Prinzip sind es unterschiedliche Dinge, da aber durch die höhere Dynamik das Banding bei 8 Bit noch verstärkt auftreten würde, gibt es HDR bei Video normalerweise erst ab 10 Bit.
Es ist aber durchaus möglich HDR mit nur 8-bit zu aktivieren. Es gibt auch etliche Monitore die HDR unterstützen, aber kein 10-bit Panel haben. Im Falle von Photoshop habe ich aber kein erhöhtes Banding mit 8-bit HDR gesehen. Es scheint also zu sein, dass mit HDR die Farbtiefe auf 10-bit angehoben wird. Nur wie?

Frage an alle:
Welche technische Information wird mit HDR übertragen? Wo ist das beschrieben? Das was ich im Internet so finde ist mir alles zu schwammig. Ich suche nach einer klaren technischen Beschreibung was dort im Detail passiert.
 
Es gibt einige wenige Spiele die HDR10 nativ unterstützen wie Assasins Creed Origin und Far Cry 5.
Da sieht HDR10 (HDR mit 10 bit) tatsächlich besser aus. Man kann deutlich mehr Details sehen (FC5 Himmel, Sonne).

Ohne native Unterstützung ist das Bild nur heller oder greller.

HDR mit 8bit kann man komplett vergessen. Das macht in den Farbräumen normaler PC Monitore einfach gar keinen Sinn.

Drakonomikon schrieb:
Es scheint also zu sein, dass mit HDR die Farbtiefe auf 10-bit angehoben wird. Nur wie?

Nein der gesamte HDR Farbraum wird dann in die 8 bit gequetscht. Die 8 Bit bleiben die 8 Bit. Das ist nur ein Marketing Gag weil HDR jetzt "in" ist.
Banding entsteht nur beim Auseinanderziehen, nicht beim Stauchen. Die Farbauflösung bleibt die gleiche.


Drakonomikon schrieb:
Welche technische Information wird mit HDR übertragen?

Ohne 10 Bit wird nur ein Flag gesetzt, das dem Monitor sagt mach jetzt HDR.
HDR wird über die Darstellung zertifiziert, nicht über die Quelle. Im bestenfall hast du dann 10 bit Datenübertragung, Material das seinen Farbraum auf die 10bit ausweitet und ein Wiedergabegerät das 10 bit versteht und auch darstellen kann.
Die Zertifizierung kommt dann über Helligkeit, Kontrast und Farbraum. HDR 400, 600 etc

Bei HDR mit 8bit ist es so, dass das Gerät den HDR Modus akzeptiert, aber nicht darstellen kann.

https://displayhdr.org/performance-criteria/
https://www.prad.de/lexikon/hdr/
 
Zuletzt bearbeitet:
Drakonomikon schrieb:
Dieser Monitor hat ein 10-bit Panel (8bit+FRC) und ist HDR tauglich.
Das ist nur Marketinggeblubber. Die echten 10Bitter gehen noch mal ganz anders ab, erst recht im Preis.
8Bit bedeutet aber auch nicht automatisch Banding. Das liegt eher an den billigen internen Datenpipelines der Geräte. Die etwas besseren Geräte haben 14Bit LUTs und können das 8Bit Spektrum besser "mappen". CRTs haben mit 8Bit überhaupt kein Banding (bzw. keine Quantisierungsfehler).
 
Zuletzt bearbeitet:
Drakonomikon schrieb:
Aber dafür müsste es keinen extra HDR Modus geben. Es würde reichen die Leuchtdichte des Monitors statisch auf 600cd/m² zu erhöhen und dafür sorge zu tragen das schwarze Pixel genauso schwarz bleiben wie mit 350cd/m².
Das ist auf LCD nur mit Direct LED und Local Dimming möglich aber selbst dann ist es noch kein echtes HDR
weil dafür wie bei OLED jeder Pixel einzeln dimmbar sein müsste. Bei LCD sind es nur LED Gruppen (Cluster).

Dieses alte Video erklärt Local Dimming sehr gut:


Hat eine LCD Monitor kein Local Dimming kann er kein echtes Schwarz darstellen und somit auch kein HDR.
Viele Dimming Zonen = gutes HDR, Wenige Zonen = schlechtes HDR, Keinerlei Dimming = Marketing Gag.

Die 49" Samsung Monitore dürfen HDR1000 werben obwohl sie nur lächerliche 10 Dimming Zonen haben.
während Monitore wie Acer X27P oder Asus PC-27UCX-K oder Dell UP2718Q 384 Dimming Zonen haben.

Für mich ist HDR zu nur 90% Marketing weil 90% der Leute weder OLED noch LCD mit LED Dimming haben
und somit gar kein echtes HDR sehen sondern einfach nur ein bunteres und leicht Kontrast verstärktes Bild.
 
Wenn ich mir überlege, wie HDR bei Fotos erstellt wird mittels Belichtungsreihen und dann ein neues Bild zusammengewürfelt wird, so kann ich es mir auch bei 8 Bit Displays vorstellen.
Gefühlt dreht man einfach an der Helligkeitsschraube, dunkler kann man bei Monitoren eher nicht mehr werden, aber ursprünglich normal helle Bereiche werden jetzt noch heller dargestellt, der Helligkeitsbereich wird unnatürlich auseinandergezogen, wobei bei Bildern die Maximalhelligkeit in der Regel nicht erhöht wird und je nach Bildinformation können dadurch mehr Informationen für das Auge sichtbar werden, Wolkendetails beispielsweise. Beim berechneten Computerbild erhält man aber nicht wirklich neue Informationen, denn sie liegen ja bereits vor, bei Bildern kommen neue Informationen hinzu, sowohl im dunklen Bereich, wie auch im hellen Bereich, das hat für mein Auge den Effekt, dass HDR Bilder zwar künstlich aussehen aber nicht heller und HDR Spiele sowohl künstlich wie auch absolut überstrahlt. Ich habe noch keinen HDR Monitor / TV gesehen, bei dem das Betrachten nicht nach kurzer Zeit anstrengend für die Augen wird, bei Bildern passiert das nie, da wird das Bild nur schnell langweilig, weil sie am Ende alle irgendwie gleich gekünstelt aussehen. HDR, Marketing mit dem Sinn schnell zu beeindrucken aber ohne Nutzen. Da hätte ich lieber nativ mehr Kontrast als diesen BlödsInn.
 
Meine Fr..., steht hier ein Haufen Sch... .:D

Ich werd' mir und dir jetzt mal den Kram der Erklährung zu HDR(Dynamikumfang) bzw. 10bit(Ausgabenfarbtiefe) erspahren, zumal die Klugscheisserdiskussion dies betreffend, hier eh kein Ende nehmen würde, aber:

Zitat: und habe deswegen Photoshop installiert und den 30-bit Support aktiviert, ein neues Bild in 1440p mit 32-bit Farbtiefe erstellt und einen Farbverlauf von Schwarz zu Weiß generiert.

Schon DORT, machst du einen Denkfehler, denn du siehst nach wie vor auf deinem Display "bloss" 8bit pro Farbkanal, also 24bit-Farben (eigentl. 32bit, aber der Alphakanal enthält ja eh keine Grundfarbe, sondern lediglich die Informationen zu evtl. vorliegenden Transparenzen), da du unter Programmen wie zb PS NUR DANN wirklich 10bit Farbtiefe erhalten (sehen) würdest, wenn du zusätzl. zu deinem 10bit-fähigem Bildschirm und einer 10bit-fähigen Grafikkarte und einem 10bit-fähigem Bildprogramm, auch (bei nVidia z.b.) einen Grafikkartentreiber installiert hast, der diese 10bit Farbtiefe auch darstellt! Und das ist bei nV eben NUR DANN der Fall, wenn es ein STUDIO-Treiber ist und nicht der übliche Game-Ready-TREIBER, wie es beim Otto-Normalo-User eben meist der Fall ist.

NUR DANN bekommt man bei PS auch Bilder (die nat. diese Farbinformation enthalten müssen, also explizite 10/12bit-Fotos) auch auf seinem Schirm so zu sehen.

Verabschiede dich allerdings dann schon mal auf den Großteil deiner Spiele, die meisten werden unter einem Studio-treiber dann nicht mehr wirklich funktionieren.
 
Uridium schrieb:
8Bit bedeutet aber auch nicht automatisch Banding. Das liegt eher an den billigen internen Datenpipelines der Geräte. Die etwas besseren Geräte haben 14Bit LUTs und können das 8Bit Spektrum besser "mappen".
Bei einer Farbtiefe von 8-bit je Farbkanal sind 256 Grauabstufen möglich. Mein Monitor hat 2560px in der Breite. Das sind 10px je Graustufe. Und genau dieses Banding kann ich bei 8-bit sehen. Alle 10px kommt eine neue Graustufe. Schalte ich den Monitor auf 10-bit sind 1024 Graustufen möglich, sodass nur alle 2,5px eine neue Graustufe zu sehen sein müsste. Das kann ich bestätigen. Manche Graustufen haben einen leichten Farbstich, sodass diese sich zwischen den Anderen hervorheben. Dies ist aber nur in Photoshop darstellbar, da einfache Windows Programme nur 8bit Farben darstellen können.

0ssi schrieb:
Das ist auf LCD nur mit Direct LED und Local Dimming möglich aber selbst dann ist es noch kein echtes HDR
weil dafür wie bei OLED jeder Pixel einzeln dimmbar sein müsste.
Das klingt für mich aber so, als würde nur eine Helligkeitsinformation mit HDR übertragen werden. Das wäre aber ein für mich umständlicher Weg. Denn diese Information wäre unter der Kenntnis der maximalen Helligkeit eines weißen Pixel auch im Vorfeld berechenbar und würde dem Gamma entsprechen.


eraser4400 schrieb:
[...]da du unter Programmen wie zb PS NUR DANN wirklich 10bit Farbtiefe erhalten (sehen) würdest, wenn du zusätzl. zu deinem 10bit-fähigem Bildschirm und einer 10bit-fähigen Grafikkarte und einem 10bit-fähigem Bildprogramm, auch (bei nVidia z.b.) einen Grafikkartentreiber installiert hast, der diese 10bit Farbtiefe auch darstellt! Und das ist bei nV eben NUR DANN der Fall, wenn es ein STUDIO-Treiber ist und nicht der übliche Game-Ready-TREIBER, wie es beim Otto-Normalo-User eben meist der Fall ist.
Es ist bereits seit Jahren möglich mit Consumer-Karten und dem Standardtreiber 10bpc einzustellen. Oder wo ist da mein Denkfehler? Ich kann in Photoshop einen klaren Unterschied erkennen. Ich zweifel nur daran dass es Spiele gibt, die ebenfalls 10-bit darstellen. Da bin ich mir sehr unsicher.

Ich versuche mal meine Frage an alle zu präzisieren. Denn ich verstehe nach wie vor nicht, was HDR im Detail tut:
Ausgehend davon das mit jedem Frame 8-bit Farbinformation für jedes Subpixel an den Bildschirm übertragen wird. Was wird mit HDR zusätzlich übertragen? Etwa nur die Leuchtdichte jedes Subpixels im Falle von OLED bzw. die Leuchtedichte der LEDs hinter der Pixelmaske bei LCDs?
 
Drakonomikon schrieb:
Bei einer Farbtiefe von 8-bit je Farbkanal sind 256 Grauabstufen möglich. Mein Monitor hat 2560px in der Breite. Das sind 10px je Graustufe. Und genau dieses Banding kann ich bei 8-bit sehen.
Richtig. Gerade weil der Monitor die Farben nicht genau trifft (nicht treffen kann), sieht man die Stufen deutlicher. Bei 8Bit wird getrickst und gepfuscht, was das Zeug hält (z.B. mit FRC). Darum hat man meist extra Modi für 'optimiertes Banding' oder 'Farbtreue'. Beides geht nicht (mit 8Bit). Das Quantisierungsspektrum, bzw. die 8Bit Auflösung ist einfach zu klein. Da stecken viele Jahre Entwicklung drin, um das zu vertuschen. Ändert aber nichts an der Tatsache, dass das nach wie vor weit vom idealen Modell entfernt ist, dem die (echten) 10Bitter deutlicher näher sind.
 
Zuletzt bearbeitet:
Drakonomikon schrieb:
Ich zweifel nur daran dass es Spiele gibt, die ebenfalls 10-bit darstellen. Da bin ich mir sehr unsicher.
Das hatte ich mich schon vor Jahren gefragt als HDR aufkam. Bei Filmen habe ich es soweit verstanden
wie die HDR Informationen im Content liegen und man nur ein entsprechendes Display zur Wiedergabe
benötigt. Das geht 1:1 wie gesagt nur auf OLED wobei es da leider etwas an der Maximal Helligkeit fehlt.
Ein LCD mit gutem LED Local Dimming über viele Zonen kann es simulieren und bietet mehr Helligkeit.

Spiele basieren ja eigentlich nur auf Texturen also müssten die einfach nur in 10 bit Farbtiefe vorliegen
und den Rest übernimmt die Software. Zur Darstellung benötigt man natürlich auch wieder ein echtes
HDR taugliches Display weil sonst läuft zwar HDR aber man sieht davon nur ein Bruchteil der Qualität.

Die Frage ist ob Texturen mit höherer Farbtiefe mehr Speicher bzw. mehr Rechenleistung benötigen ?
Weil ich glaube die meisten Spiele haben ja nur "8 bit Texturen" sprich selbst auf Ultra und mit HDR
(sowie einem HDR tauglichen Display) sieht man trotzdem noch leichtes Colorbanding der Texturen.
 
0ssi schrieb:
Spiele basieren ja eigentlich nur auf Texturen also müssten die einfach nur in 10 bit Farbtiefe vorliegen
und den Rest übernimmt die Software.
10 bit Texturen sind nicht mal nötig dafür. Allein durch Beleuchtung, Schatten, Blickwinkel und co. erhält man genug Abstufungen, um weit über 10 bit zu kommen.

0ssi schrieb:
Die Frage ist ob Texturen mit höherer Farbtiefe mehr Speicher bzw. mehr Rechenleistung benötigen
Na logisch benötigen die mehr Speicher. Aber Rechenleistung nicht unbedingt: Wenn die GPU Recheneinheiten darauf ausgelegt sind, dann ist es egal ob mit 8 oder 10 bit gerechnet wird. Mehr Speicherbandbreite wird natürlich benötigt.
 
benneq schrieb:
10 bit Texturen sind nicht mal nötig dafür. Allein durch Beleuchtung, Schatten, Blickwinkel und co. erhält man genug Abstufungen, um weit über 10 bit zu kommen.
Verstehe ich nicht. Bei einer beliebigen Textur mit Farbverlauf wie z.B. einer Wand oder einem Himmel
würde man die groben Farbabstufungen/Übergänge also das Colorbanding doch trotzdem noch sehen
weil durch Beleuchtung oder Schaffen ändert sich ja eigentlich nur die Helligkeit und nicht die Farbtiefe.
 
Texturen werden doch nie als rechteckige Oberflächen mit einem ganzzahligen Skalierungsverhältnis dargestellt. Jede Textur, die du in einem Spiel siehst, ist verformt, gestaucht, gestreckt, etc.
D.h. es finden in jedem Fall ununterbrochen irgendeine Art von Interpolation statt. Und dieser Interpolation kann man bei 8 bit Texturen auch im 10 bit Farbraum machen und erhält allein dadurch ein genaueres Ergebnis.

Wenn die Game Engine nun also die 8 bit Farben (255,0,90) und (255,0,91) mischen muss, dann erwartet man natürlich (255,0,90.5) als Ergebnis. Das lässt sich mit 8 bit nicht darstellen, aber mit 10 bit ist das absolut kein Problem.

Selbes gilt für die Beleuchtung: Wenn die Lichtquelle sagt: "mach die Textur 0,1% heller", dann ist das in 8 bit nicht möglich (bzw. wird halt gerundet, sodass sich gar nichts an der Helligkeit ändert), aber in 10 bit funktioniert's. Die Quelltextur kann dabei ruhig nur 8 bit (oder meinetwegen auch noch weniger) Farbtiefe haben.
 
@Uridium Das bei Monitoren gepfuscht wird, glaube ich gerne. Immer wenn etwas mit Software zu tun hat, bin ich skeptisch. Aber zumindest in meinem Falle habe ich keinen Zweifel daran, dass 10-bit zu einer besseren Darstellung führen als 8-bit. Es ist auch im Vergleich mit meinem ziemlich alten 8-bit FullHD Monitor ein sichtbarer Unterschied. Aber eben nur wenn man weiß was man sieht. Ich könnte nicht sagen, dass ich einen Unterschied im Spiel erkennen würde, sofern 10-bit überhaupt in irgend einem Spiel verfügbar sind.

Ich sehe das beim Thema Spiele genauso wie ihr. Aufgrund der ganzen Effekte einer Grafikengine müssten sich zwangsläufig Zwischenfarben ergeben die über 8-bit hinausgehen. Es sollte also ein Leichtes sein wenigstens 10-bit zu nutzen. Aber ich zweifel dennoch dass es so gemacht wird. Dafür bräuchte ich eine Spielsituation mit einem klar definierten Gradienten.

Aber welche Information wird nun mit HDR zusätzlich übertragen? Das ist für mich noch nicht geklärt.
 
Zurück
Oben