Benutzer-Werkzeuge

Webseiten-Werkzeuge


datencodierung_-_datenspeicherung

Datencodierung

ASCII-Code

ASCII (American Standard Code for Information Interchange) ist eine 7-Bit-Zeichenkodierung und bildet die Grundlage für spätere mehrbittige Zeichensätze und -kodierungen. ASCII wurde im Jahr 1967 erstmals als Standard veröffentlicht und im Jahr 1986 zuletzt aktualisiert. Die Zeichenkodierung definiert 33 nicht-druckbare sowie folgende 95 druckbare Zeichen, beginnend mit dem Leerzeichen:

   !"#$%&'()*+,-./0123456789:;<=>?
  @ABCDEFGHIJKLMNOPQRSTUVWXYZ[\]^_
  `abcdefghijklmnopqrstuvwxyz{|}~ 

Die Zeichen umfassen das lateinische Alphabet in Groß- und Kleinschreibung, die zehn arabischen Ziffern sowie einige Satz- und Steuerzeichen. Der Zeichenvorrat entspricht weitgehend dem einer Tastatur oder Schreibmaschine für die englische Sprache. In Computern und anderen elektronischen Geräten, die Text darstellen, wird dieser in der Regel gemäß ASCII dazu gespeichert.

Kodierung

Jedem Zeichen wird ein Bitmuster aus 7 Bit zugeordnet. Da jedes Bit zwei Werte annehmen kann, gibt es 2^7 = 128 verschiedene Bitmuster, die auch als die ganzen Zahlen 0–127 (hexadezimal 00–7F) interpretiert werden können.

In anderen als der englischen Sprache verwendete Sonderzeichen – wie beispielsweise die deutschen Umlaute – können mit dem 7-Bitcode nicht vollständig dargestellt werden; hierfür würden 8 bis 16 Bit benötigt. Die Datenverarbeitung benutzt in der Regel 8 Bit oder ein Byte als kleinste Einheit zur Datenspeicherung. Das höchstwertige Bit in jedem Byte ist bei Verwendung des ASCII auf den Wert 0 gesetzt.

Die Buchstaben A, B und C als Sieben-Bit-Code

Schriftzeichen Dezimal  Hexadezimal   Binär
A                65        41       (0)1000001
B                66        42       (0)1000010
C                67        43       (0)1000011

ANSI

Das American National Standards Institute (ANSI) ist die US-amerikanische Stelle zur Normung industrieller Verfahrensweisen. Obwohl die ANSI-Normen viele Bereiche abdecken, ist mit der alleinstehenden Abkürzung „ANSI“ in der Computertechnik eine bestimmte Gruppe von Zeichensätzen basierend auf ASCII gemeint. Bei Datenbanken kann die ANSI-SPARC-Architektur, auch Drei-Ebenen-Architektur, zum Einsatz kommen. Sie beschreibt die grundlegende Definition eines Datenbanksystems. Auch wird der Lichtstrom von digitalen Projektoren in ANSI-Lumen gemessen.

Unicode

Unicode ist ein internationaler Standard, in dem langfristig für jedes sinntragende Zeichen bzw. Textelement aller bekannten Schriftkulturen und Zeichensysteme ein digitaler Code festgelegt wird. Ziel ist es, das Problem unterschiedlicher, inkompatibler Kodierungen in unterschiedlichen Ländern oder Kulturkreisen zu beseitigen. Herkömmliche Computer-Zeichencodes umfassen einen Zeichenvorrat von entweder 128 (7 Bit) Codepositionen oder 256 (8 Bit) Positionen, wovon nach Abzug der Steuerzeichen 96 Elemente bei ASCII und 192–224 Elemente bei den 8-Bit ISO-Zeichensätzen als Schrift- und Sonderzeichen darstellbar sind. Diese Zeichenkodierungen erlauben die gleichzeitige Darstellung nur weniger Sprachen im selben Text, wenn man sich nicht damit behilft, in einem Text verschiedene Schriften mit unterschiedlichen Zeichensätzen zu verwenden.

In Unicode finden Zeichen der wichtigsten ISO-Zeichensätze wie die ISO-Normen der Serie 8859 eine 1:1-Entsprechung (das bedeutet, dass bei einer Konvertierung von ISO zu Unicode und zurück das gleiche Ergebnis herauskommt). Heute erledigen die meisten Webbrowser die Darstellung dieser Zeichensätze mit einer Unicode-kodierten Schrift in der Regel perfekt und vom Benutzer unbemerkt.

datencodierung_-_datenspeicherung.txt · Zuletzt geändert: 2008/10/23 22:00 (Externe Bearbeitung)