Frage zu CRT-Monitoren, Thema Lochmaske

Status
Für weitere Antworten geschlossen.
Registriert
Feb. 2022
Beiträge
6
Hallo ihr Lieben,

ich (w, 34) erinnere mich natürlich noch bestens an crt monitore.
Nun muss ich eine powerpointpräsentation erstellen/vortragen.

Mein Dozent hat mir eine aufgabenstellung dazu gegeben, die ich mit einbauen soll:

Warum ist die Auflösung (1024x768) bei 17“ Monitoren auf diese krumme Zahl begrenzt ? (Thema Lochmaske)

Ich bin total überfragt und finde nichts.

Könnt Ihr mir bitte helfen?

Liebe Grüße

C.
 
Hi,

guck mal hier und les dich mal grundsätzlich ein: https://de.wikipedia.org/wiki/Lochmaske

Die Lochmaske bestimmt die Auflösung, weil auf einer festen Breite des Monitors nur eine gewisse Anzahl an löchern passt. Laut Wiki ist der übliche Abstand 0,21 bis 0,28mm. In meinem Tabellenbuch steht was von üblicherweise 0,25mm. Das ergibt dann bei einer bestimmten Monitorgröße eine bestimmte Pixelanzahl.
 
Hallo auch,
man kann das Thema Auflösung ja unter verschiedenen Gesichtspunkten betrachten.
Der fachliche Teil, also die Zahlen 1024 und 768 sind in dem Grafikstandard XGA definiert.
Da hier aber konkret auf die Lochmaske hingewiesen wird, scheint es eher den technischen Teil zu betreffen.
Den Wikipedia Artikel zum Thema Lochmaske hast du schon gelesen?
Als Tipp: schau dir den Wert zu Lochabstand bzw. dot pitch an. Und dann setze die Bildschirmdiagonale 17" dazu ins Verhältnis.
 
Ich finde die Fragestellung allerdings nicht richtig.
Die Auflösung ist nicht auf 1024*768 begrenzt, es gab genug 17" CRT mit höherer Auflösung. Mein Iiyama Vision Master Pro damals konnte 1600*1200 darstellen (https://how-to.fandom.com/wiki/How_to_deal_with_the_Iiyama_Vision_Master_Pro_17_monitor_in_X_Windows). Als ideale Auflösung wären es da 1300*975 gewesen.

Der war mit der 0.25er Maske (ich meine es waren bei den flachen Röhren damals Schlitz- statt Lochmasken) damals schon herausragend gut, preiswerte Standardmodelle waren i.d.R. mit 0.28 Lochmaske und gebogener Röhre unterwegs.
 
Ich würde mich aus eigenem Interesse mal hier einklinken:
Die technische Funktionsweise der Lochmaske ist mir nach Lesen der entsprechenden Artikel vollkommen klar.

Nun ist es aber so, dass CRTs i.d.R. mit deutlich höheren Auflösungen betrieben werden konnten als technisch über die Lochmaske abbildbar war.
Ich erinnere mich da an meinen 15", den man auch mit 1600x1200 füttern konnte. Wurde dann natürlich sehr klein, aber ging. Wenn man da jetzt 1 und 1 zusammenzählt, bedeutet das doch, dass die GraKa viel mehr Bildpunkte ausgegeben hat, als letztenendes auf dem Monitor dargestellt wurden und man somit 2/3 der Bildinformationen verloren hat. Oder habe ich da einen Denkfehler?
 
Das Bild war nicht mehr besonders ansprechend ;) Es wurde zusehends unschärfer, je höher die Auflösung ging.
 
Moin und willkommen im Forum :)
Eine weitere Erklärung findet man auch bspw. hier:
https://www.elektronik-kompendium.de/sites/com/1312031.htm

SaxnPaule schrieb:
Ich würde mich aus eigenem Interesse mal hier einklinken:
Die technische Funktionsweise der Lochmaske ist mir nach Lesen der entsprechenden Artikel vollkommen klar.
Deine Frage in Ehren, aber ich würde den thread hier nicht kapern. Das würde die TE nur verwirren.
 
@SaxnPaule : Mag sein, aber das ist Spekulatius und an der Frage der TE vorbei. ;)
 
Hallo,
danke, ich hab mich in CRT und Lochmasken eingelesen. Habe ja auch die entsprechende PPP gemacht.

nur das mit meiner Frage im Eröffnungsthread, das verstehe ich nicht.

Kann mir jemand eine präzise Antwort schreiben?

Tut mir schrecklich leid für mein Unwissen. EDV macht mich als mal verrückt
 
Die Frage ist ganz einfach Unsinn. Weder waren 17" Monitore nur auf 1024x768 begrenzt, noch hat die Lochmaske viel mit der maximalen Auflösung zu tun gehabt.
 
  • Gefällt mir
Reaktionen: whats4, TomH22 und SilenceIsGolden
So ist es.
Man könnte maximal mal nachgoogeln ob bei einer 0,26er Lochmaske die 1024*768 den SweetSpot treffen. Aber die Frage wäre in dem Fall auch nicht präzise genug gestellt, dann sollte der Dozent die Lochmaske nennen. Ob nun 0,26 oder 0,28 macht für die Antwort schließlich einen Unterschied.
 
Wenn nicht der Hinweis mit der Lochmaske wäre, würde ich sagen, dass diese Auflösung dem früher sehr weit verbreiteten XGA entspricht:
https://de.wikipedia.org/wiki/Extended_Graphics_Array

Das hat aber wiedrum wenig mit der Lochmaske zu tun, wie schon einige angemerkt haben.
 
Mathematisch wären das 2^8*4 * 2^8*3 Pixel. Ob 1024 * 768 also krumm ist, hängt davon ab, wie du krumm definierst. In den von uns gerne verwendeten 10er Potenzen ist die Zahl krumm, in den in der Informatik verbreiteten 2er Potenzen aber nicht.

Eine CRT "malt" Linien mit einem Elektronenstrahl auf einer meist gewölbten Oberfläche, die vollflächig mit Phosphor beschichtet ist. Dieser Phosphor leuchtet dann (nicht zwingend Weiß!). Wie viele Linien gezeichnet werden können, hängt davon ab, mit was für einer Frequenz man den Elektronenstrahl steuern kann.

Bei Röhrenmonitoren kommt eine Lochmaske mit farbigen Phosphorpunkten auf der Vorderseite und drei Elektronenstrahlen zum Einsatz. Die Lochmaske fokussiert den entsprechenden Elektronenstrahl auf den entsprechenden Phosphorpunkt. Da die Anzahl der Phosphorpunkte und Löcher statisch sind, sahen falsche Auflösungen unscharf aus, wobei das nie so schlimm war wie bei den heutigen LCDs und OLED-Displays. Deswegen haben Hersteller eine bestimmte Auflösung empfohlen.

Die Frage ist also teilweise quatsch. Man kann nicht begründen, warum die Auflösung begrenzt ist, weil sie nicht begrenzt ist und sie wirkt krumm aus dem o.g. Grund.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cruse
Vieleicht ist mit krumm das Verhältnis 4:3 gemeint - ehrlich gesagt finde ich die Frage auch seltsam
 
Mir würden da noch Frequenzen einfallen, mit denen das System arbeitet. Je höher die Auflösung, desto höher die Frequenzen, desto teurer natürlich die eingebaute Technik
 
schnuckihase16 schrieb:
Warum ist die Auflösung (1024x768) bei 17“ Monitoren auf diese krumme Zahl begrenzt ? (Thema Lochmaske)
Möchte jetzt zwar nicht über den Dozenten urteilen, aber wenn man sich mit solchen Fragestellungen, angesichts heutiger Technologien, beschäftigt dann braucht man sich über IT-Fachkräftemangel in DE nicht zu wundern.
Aber vielleicht liege ich gerade falsch und solche Fragestellungen sind heutzutage nach wie vor sinnvoll, weil ja so viele CRT-Monitore noch im Einsatz sind.
 
  • Gefällt mir
Reaktionen: paccoderpster
Jake Grafton schrieb:
Die Frage ist ganz einfach Unsinn. Weder waren 17" Monitore nur auf 1024x768 begrenzt, noch hat die Lochmaske viel mit der maximalen Auflösung zu tun gehabt.
Eben. Ist das eine Vorlesung zum Thema „Mensch Maschine Interaktion“? Ich frage mich immer warum da Zeit mit obsoleten Technologien verschwendet wird. Meine Tochter hatte auch mal so eine Veranstaltung, da wurde dann intensiv über Rollkugel-Mäuse referiert, wir haben uns krankgelacht.
Aber einen Hinweis habe ich: Die Auflösung 1024x768 sind nicht „krumm“, sondern durch 16 teilbar. 16 ist 2^4. Hexadezimal geschrieben ist die Auflösung 0x400 * 0x300. 1024 ist außerdem eine Zweierpotenz.
cloudman schrieb:
Vieleicht ist mit krumm das Verhältnis 4:3 gemeint - ehrlich gesagt finde ich die Frage auch seltsam
Das Seitenverhältnis spielt mit rein, denn wenn man “quadratische“ Pixel bzw. gleiche DPI horizontal wie vertikal möchte, dann ergibt sich ein bestimmtes Verhältnis der beiden Werte.

Aber das sich 1024x768 als ein Standard in der PC Welt durchgesetzt hat, liegt an IBM, die haben diese Auflösung für ihren XGA Displayadapter gewählt, genauso wie 640x480 für VGA. Daran hat sich natürlich die Industrie orientiert.
Aber es gab damals auch völlig andere Auflösungen, z.B. bei Unix Workstations.
 
  • Gefällt mir
Reaktionen: AGB-Leser
TomH22 schrieb:
Eben. Ist das eine Vorlesung zum Thema „Mensch Maschine Interaktion“? Ich frage mich immer warum da Zeit mit obsoleten Technologien verschwendet wird. Meine Tochter hatte auch mal so eine Veranstaltung, da wurde dann intensiv über Rollkugel-Mäuse referiert, wir haben uns krankgelacht.
Genau meine Rede. Wir hatten auch mal einen Dozenten der wohl mit seinem Wissen bei den Zeiten hängen geblieben war, als HDD noch ganz "Hippe" Technik war. Als er dann von Übertragungsraten erzählte und den damit einhergehenden Problemen, wurde er auf SSDs angesprochen mit dem Hinweis, dass solche Probleme damit eigentlich nicht mehr auftreten. Da war er erst mal etwas aus dem Konzept, seinem Gesichtsausdruck nach, da er wohl über die Existenz solch einer "Wundertechnologie" gerade eben gehört hatte :).
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben