Das Alphabet im Binär-Code

L

latita

Gast
Hi Leutchens,

ich weiß jetzt nicht, ob ich hier richtig bin, aber mit programmieren hats ja schon irgendwie was zu tun... nur eher mit den Grundlagen.
Also, beim stöbern im Netz bin ich auf folgendes gestoßen, und zwar dem Alphabet im Binär-Code.
Schon damals in der Schule haben wir den BCD-Code gelernt und weiß den auch herzuleiten. Doch nun frage ich mich, wie kommt man darauf, dass das A 0100 0001 hat?
Das wäre als Zahl ja die 65...
Ich hab schon im Netz nach Antworten gesucht, aber keine vernünftige Antwort gefunden. Hat das was mit Wahrscheinlichkeiten und Algorithmen zu tun?
 

Anhänge

  • alphabet.JPG
    alphabet.JPG
    69,7 KB · Aufrufe: 239.634
okay danke, gesehen hab ich die Seiten schon mal, aber nicht richtig durchgelesen.
Bleibt für mich nur noch eine Frage:
Den Code für die Zahlen kann man ja durh 8-4-2-1 herleiten.
Aber wie kann man sich das mit dem Alphabet merken? Alles auswendig lernen wäre etwas blöd sicherlich

Edit: man könnte sich höchstens merken, dass das Alphabet eben bei 65 anfängt, aber gibt es da sowas plausibles wie bei BCD?
 
Merk dir doch einfach, das bei großen Buchstaben vorne 010 steht, und bei kleinen 011. Und hinten ganz normal die Position im Alphabet von 1 bis 26 als Binärzahl.
 
Tatsächlich...
Auf manche Sachen muss man erst gestoßen werden *bumm*
Danke schön :)
 
Naja, ist eigentlich dann kein Unterschied mehr, ob du es so machst wie von mir geschrieben, oder wenn du dir merkst, dass es ab 65 losgeht.
 
Na jaaa,
ein Unterschied ist sofern, dass ich sonst immer nachdenken würde, was 65+keine Ahnung was ist.
Ich mach mir das immer komplizierter als es ist. Wär mir auch erst später aufgefallen, was da für ne Regelmäßigkeit drin ist. Deswegen :)
 
Hallo latita,

das Prinzip ist einfach. Die Stelle an der eine 1 steht bestimmt die Potenz zur Basis 2.

Fang an von rechts zu zählen beginnend mit der 0.

An den Stellen an denen eine 1 steht, nimmst Du den Index und verwendest ihn als Potenz zur Basis 2 und addierst alle Zahlen zusammen.

Damit bekommst Du dann aus einer Binärzahl die Dezimalzahl.

z.B.

001001001001

An den Stellen 0,3,6,9 steht eine 1.

D.h.

2 hoch 0 = 1
2 hoch 3 = 8
2 hoch 6 = 64
2 hoch 9 = 512

-> 1+8+64+512 = 585 = 1001001001

MfG

Arnd
 
@anrd

also da steige ich nciht hinterher...
könntest du es mir bitte ncoheinmal gnauer erklären?
 
Zuletzt bearbeitet:
Schon mal das Datum angesehen, 6 Jahre ist eine lange Zeit. :lol:
 
zumal man es absolut nicht genauer erklären kann.
Oder willst du jetzt eine komplette liste mit den Zahlen bis 1.000.000.000 als binär darstelleung?

ansonsten:

http://de.wikipedia.org/wiki/Dualsystem

genauer gehts wohl kaum, da musst dann allerdings leider ein wenig lesen!

P.S. ich werds gefühl nicht los das du heute schon einmal hier gepostet hast um deine hausaufgaben erledigen zu lassen
 
Zuletzt bearbeitet:
@Ich bin's
Schau dir doch mal den Wiki Artikel zum Binärsystem an: Dualsystem
Falls es dir dann noch nicht klarer wird kannst du ja nochmal fragen.
Aber mach am besten dann ein neues Thema dafür auf, dann musst du dir auch kein Gemecker anhören ;)

@Mercsen
Das mit den Hausaufgaben war Schroeerg ;)
 
Zuletzt bearbeitet:
jau, aber hat ja auch ordentlich nen anpfiff bekommen dafür.

Und dieses thema passt super zu typischen informatik hausaufgaben und ein user der sich gerade neu angemeldet hat und zudem noch das forum durchsucht hat.

Ich habs heute schonmal gesagt, aber wenn man nach so etwas sucht wird man nicht zuerst auf CB treffen, das ist einfach nicht die zentrale Anlaufstelle für solche Themen.
 
Die Zuweisungen in ASCII sind meiner Ansicht nach willkürlich. Es ist einfach eine Tabelle, in der alle wesentlichen westlichen Schriftzeichen und grundlegende Steuerzeichen enthalten sind. Wozu du dir die Kodierung des Alphabets in ASCII auswendig merken willst versteh ich nicht. Zum Programmieren braucht man das normalerweise nicht wissen, denn die meisten Programmiersprachen haben Konstrukte um Buchstaben direkt in ASCII zu übersetzen (in C/C++ z.B. 'a').
 
ansonsten bieten fast alle sprachen den Datentyp char an, der ebenfalls auf der ascii tabelle beruht (oder zumindest sollte) (jaja in java auf unicode, aber da giubts methoden um den ascii wert zu bekommen, schimpft sich chr() oder so)

und ganz zur not eben die tabelle googlen oder gedruckt neben den rechner legen ;)
Wirklich merkenmuss man sich auch nur das A = 65, den rest kann man berechnen
 
Rückfrage: AW: Das Alphabet im Binär-Code

Frage zu dem Binären Code und allgemeine Grundlagen;

Wie werden Zahlen als Binärer Code dargestellt?
Wie unterscheidet der Computer Zahlen und Buchstaben oder auch Symbole und Sonderzeichen, Rechenzeichen etc. eigentlich?
Was ist ein Bit, Byte, Kilobyte... etc.? Wie viele Zahleneinheiten liegen dazwischen? Ich habe für ein Buchstaben 8 "Felder" gesehen, also sind 8 Zeichen erforderlich pro Buchstabe? Gilt das auch für Ziffern, Zahlen?
Wie werden Zahlen und Ziffern unterschieden?

Wie Rechnet eigentlich der PC? Gibt es da Unterschiede zu Großrechnern?

Ich frage das hier mal weil mir da jemand was erzählt hatte was ich nicht ganz verstanden habe!
Angeblich können die Modernen Rechner nur Grafisch Rechnen oder er meinte die PC`s sind auf Grafik optimiert.
Angeblich rechnen PCs nicht mehr Numerisch. Was ist da der Unterschied zwischen Numerischer und Grafischer Rechen bzw. hier Arbeitsweise?

Wo finde ich Infos für Einsteiger? Mein Programiererkurs liegt inzwischen über 30 Jahre zurück und ich wurde am Commodore 1026 ausgebildet. Was kann ich davon noch gebrauchen?

Wurde der Binäre Code mal geändert oder erweitert?

erhardvobeljun@hotmail.com
 
AW: Rückfrage: AW: Das Alphabet im Binär-Code

Erhard Vobel schrieb:
Wie werden Zahlen als Binärer Code dargestellt?

Steht hier im Thread doch schon. Im Prinzip ist es genau wie im gewohnten Dezimalsystem auch. Du zählst eine Stelle so lange hoch, bis dir die Zeichen ausgehen und machst dann die nächste Stelle auf. Im Dezimalsystem gibt es eben 10 Zeichen (0-9) und im Binärsystem nur zwei (0,1). Wie man das dann berechnen kann steht hier schon. Das schreibe ich jetzt nicht nochmal.

Erhard Vobel schrieb:
Wie unterscheidet der Computer Zahlen und Buchstaben oder auch Symbole und Sonderzeichen, Rechenzeichen etc. eigentlich?

Die Antwort ist denkbar einfach: der Computer unterscheidet das gar nicht. In Hochsprachen ist der verwendete Datentyp dafür ausschlaggebend, wie eine Speichereinheit behandelt wird. Ob der Wert 65 aber jetzt als Zahl oder als 'a' interpretiert wird: das muss der Programmierer wissen.

Erhard Vobel schrieb:
Was ist ein Bit, Byte, Kilobyte... etc.?

Bit = kleinste Speichereinheit (0 oder 1)
Byte = 8 Bit
KiloByte = 1024 Byte
MegaByte = 1024 KByte
usw.

Erhard Vobel schrieb:
Wie viele Zahleneinheiten liegen dazwischen? Ich habe für ein Buchstaben 8 "Felder" gesehen, also sind 8 Zeichen erforderlich pro Buchstabe?

Hä? Ein Zeichen wird häufig im ASCII-Format gespeichert (Thread lesen hilft). Im erweiterten ASCII-Format (weiß grad die genaue Bezeichnung nicht) werden 8 Bit = 1 Byte verwendet.

Erhard Vobel schrieb:
Gilt das auch für Ziffern, Zahlen?

Ein Short besteht auch nur aus 1 Byte. Damit sind aber nur Zahlen von 0-255 darstellbar. Normalerweise verwendet man eher Integer oder long, die entsprechend größer sind.


Erhard Vobel schrieb:
Wie werden Zahlen und Ziffern unterschieden?

Da Ziffern im Binärsystem ziemlich uninteressant sind (nur 0 oder 1) speichert man die Zahlen am Stück. Hier gibt es also keine Unterscheidung. Warum sollte man die Unterscheiden?

Erhard Vobel schrieb:
Wie Rechnet eigentlich der PC? Gibt es da Unterschiede zu Großrechnern?

Aus elektrischen Bauteilen werden Gatter gebaut, mit diesen Gattern werden dann schließlich einfache Mikroelektronik-Bauteile erstellt, wie zB ein Addierer. Mit so einem Addierer kann ein Rechner 2 Zahlen addieren. Es gibt natürlich noch eine Vielzahl von anderen Bauteilen.
Ein Großrechner macht das ganz genau so wie ein PC. Hier gibt es also keine Unterschiede.

Erhard Vobel schrieb:
Ich frage das hier mal weil mir da jemand was erzählt hatte was ich nicht ganz verstanden habe!
Angeblich können die Modernen Rechner nur Grafisch Rechnen oder er meinte die PC`s sind auf Grafik optimiert.
Angeblich rechnen PCs nicht mehr Numerisch. Was ist da der Unterschied zwischen Numerischer und Grafischer Rechen bzw. hier Arbeitsweise?

Ehrlich gesagt verstehe ich die Frage nicht. Nein PCs rechnen nicht "graphisch". Das passiert alles über die Register in der CPU, in denen aber nur Zahlen gespeichert werden können. Richtig ist aber, dass in einem modernen PC sehr viel auf Graphik optimiert wird. So hat man spezielle Register in der CPU, die zB immer 4 float-Werte gleichzeitig behandeln, da das für 3D-Graphik einen enormen Geschwindigkeitsvorteil bringt. Wenn man eine Anwendung so schreibt, dass man das ausnutzen kann, dann kann man aber auch "numerische" Berechnungen damit beschleunigen. So etwas wie Graphik-Rechner oder Numerik-Rechner gibt es nicht. Tatsächlich sind gerade Graphikkarten durch ihre Bauart für Großrechner interessant.


Erhard Vobel schrieb:
Wo finde ich Infos für Einsteiger? Mein Programiererkurs liegt inzwischen über 30 Jahre zurück und ich wurde am Commodore 1026 ausgebildet. Was kann ich davon noch gebrauchen?

Wurde der Binäre Code mal geändert oder erweitert?

Wie sollte man denn ein Zahlensystem verändern? Hat man das Dezimalsystem jemals verändert? Auch wenn man die Zahlen austauschen würde, so wäre das System immer noch das Gleiche. Was neu dazugekommen ist sind neue Codes, die zB Unicode speichern können. Aber das Alte ist immer noch gültig.

Tut mir leid, dass ich das mal so sagen muss aber vom Programmierkurs scheint nicht so viel übrig geblieben zu sein. Gerechnet wurde auch damals schon.
Was genau möchtest du denn eigtl wissen? Willst du programmieren lernen oder einfach etwas über Computer lernen?
 
daemon777 schrieb:
Bit = kleinste Speichereinheit (0 oder 1)
Byte = 8 Bit
KiloByte = 1024 Byte
MegaByte = 1024 KByte
usw.
Wenn wir hier schon Threads ausgraben die längst ruhen sollten, dann bitte mit korrekten Infos.
Bit = kleinste Speichereinheit (0 oder 1), das war korrekt
Byte = 8 Bit, hier könnte man noch erwähnen, dass das die kleinste adressierbare Einheit im Hautspeicher ist. Deshalb kann man mit 32bit Systemen auch nicht ohne weiteres mehr als 4GB RAM benutzen, da man mit 32bit einfach nicht mehr als ~4 Milliarden Adressen darstellen kann.

Jetzt kommt die Stelle an der man unterscheiden muss.
1 KiloByte = 1000 Byte, da Kilo ganz einfach 1000 bedeutet. 1 Kibibyte = 1024 Byte
In der Realität interessiert das zwar (inklusive mir) niemanden, aber wenn wir hier sowas besprechen sollte das nicht unerwähnt bleiben.

Edit:"Niemand" ist natürlich, wie Yuuri später angemerkt, Quatsch. Wenn man sich ernsthaft über Übertragungsraten oder Festplattengrößen unterhält kann der Unterschied schon entscheident sein und ich meinte eigentlich, dass man es nicht so eng sieht wenn man sich lax mit seinen Kumpels unterhält. Sorry, das war sehr schlecht formuliert.
 
Zuletzt bearbeitet:
Zurück
Oben