wissen.de Artikel

ASCII im Wandel der Zeit

Ein Smartphone von 2018. Neueste Technik, neueste Software, alles so aktuell wie nur möglich. Doch tatsächlich steckt darin noch ein kleines Überbleibsel aus der Zeit, als die Autos noch Heckflossen hatten und Deutschlands Bundeskanzler Adenauer hieß.

Jeder Buchstabe, jede Ziffer bekommt eine global einheitliche binäre Zeichenfolge. Das ist das ganze Geheimnis hinter ASCII.

pixabay.com, blickpixel

Jeder, der Computer nicht nur nutzt, sondern auch die technischen Hintergründe etwas ausgelotet hat, ist schon mal über ein Kürzel gestolpert. ASCII. Bei vielen beginnt das Unverständnis schon bei diesem Kürzel selbst: Ist es ASC-römisch 2? Oder sind das zwei „i“s? Letzteres ist der Fall. Denn ASCII steht für einen der wichtigsten Codes der digitalen Welt, den American Standard Code for Information Interchange. Und der hat einen sehr langen Weg aus den Urzeiten des Computers bis heute genommen.

Heckflossen und Petticoats

Wir schreiben das Jahr 1963. In den USA sitzt John F. Kennedy im Weißen Haus und in Westdeutschland begeht Konrad Adenauer sein letztes Amtsjahr als erster Bundeskanzler. In diesen Tagen waren Fernschreiber nach wie vor das wichtigste Mittel, um schriftlich Informationen auszutauschen. Und seit der Jahrhundertwendet hatte man bei diesen Geräten einen Code verwendet, welcher die einzelnen Buchstaben und Zahlen in binäre Signale umwandelte, der sogenannte Baudot-Murray-Code. Das Problem an ihm war, dass es nur ein 5-Bit-Code war. Der Gesamtumfang aller möglichen Zeichen, sprich, Buchstaben, Ziffern und Sonderzeichen, war auf magere 32 Stück beschränkt.

Bis 1963 hatte das immer halbwegs ausgereicht. Doch die enorme Zunahme an Verbindungen, mittlerweile rund um den Globus, ließen die Limitierungen des Murry-Codes immer deutlicher zutage treten. Besonders überall dort, wo die Übertragung komplexerer Informationen notwendig war, namentlich im wissenschaftlichen Bereich. Immerhin war 1963 auch die Zeit, in der die Raumfahrt das Laufen lernte. Die Zeit war daher buchstäblich reif für etwas Neues.

Vor allem für die Ingenieure hinter der aufkeimenden Raumfahrt der 60er war es essentiell, einen Code zu haben, der alle wissenschaftlich relevanten Zeichen enthielt.

NASA

Eine neue Ära

In diese Epoche fiel die Entscheidung der American Standards Association (ASA) – eine gemeinnützige Organisation, die sich als Koordinator zur Erstellung von Normen versteht – einen neu entwickelten Code zum Standard zu erheben, jenen ASCII (der übrigens As-ki ausgesprochen wird).

ASCII bestand aus sieben Bits. Und obwohl nur zwei mehr, eröffnete sich damit eine vollkommen neue Zeichenwelt, denn dadurch ließen sich nun 128 Zeichen darstellen und übertragen. Eine gewaltige Steigerung, die es nun erstmals ermöglichte, nicht nur das komplette römische Alphabet sowohl in Groß- wie Kleinbuchstaben darzustellen, sondern auch jede Ziffer und dazu noch Sonderzeichen, etwa Klammern, mathematische Symbole oder auch das Und-Zeichen. Praktisch alles, was sich auf einer Schreibmaschinentastatur im amerikanischen Layout fand. Jedes Symbol war einer festen Zahl in der Zeichenmatrix zugeordnet. So stand das „A“ beispielsweise an Platz 65, das „/“ auf der 47.

Verbesserung mit eingebaut

Unmittelbar nach seiner Einführung verbreitete sich ASCII rasend schnell, als die amerikanischen Hersteller von Fernschreibern gierig den neuen Code implementierten. Gleichsam wurde er auch für den aufkeimenden Computerbereich interessant, weil der binäre Code sich dafür perfekt eignete.

Doch nur wenige Jahre nach der Einführung wurde ASCII bereits merklich verbessert. Auslöser dafür war, dass die 7-Bit-Begrenzung es notwendig machte, länderspezifische ASCII-Codes zu schreiben – so enthielt beispielsweise die deutsche Variante die Umlaute Ä,Ö und Ü. Das aber sorgte im internationalen Sprachverkehr für Probleme – schließlich stand eine bestimmte Zeichenfolge in den jeweiligen Ländern für etwas anderes.

Schon 1965 war ASCII erweitert worden, etwa um geschweifte Klammern und das @-Symbol. Gleichsam hatten jedoch Unternehmen eine ASCII-Eigenheit ausgenutzt: Zwar war es offiziell ein 7-Bit-Code. Aber er enthielt dennoch ein achtes Bit, welches zu Prüfzwecken verwendet wurde. Die Unternehmen schrieben den Code so um, dass er dieses achte Bit als Erweiterung des Zeichensatzes nutzen konnte – wodurch die Gesamtsumme auf 256 Zeichen stieg. Damit waren die internationalen Verständigungsschwierigkeiten passé.

1968 standardisierte die ASA diese 8-Bit-Variante – die auch heute noch gültig ist. Was aber vor allem im Computerbereich für den endgültigen Durchbruch sorgte, war der damals amtierende US-Präsident Lyndon B. Johnson. Denn obschon ASCII zum Goldstandard für Fernschreiber geworden war, gab es im Computerbereich nach wie vor Schwierigkeiten. Grund dafür war, dass dort ein anderer Code mit ebenfalls acht Bit verwendet wurde, der EBCDIC. Viele Computerhersteller wehrten sich, denn die Umstellung wäre kompliziert gewesen. Allerdings hatte Präsident Johnson die durchaus reale Befürchtung, dass durch zwei parallel existierende Computer-Codesysteme Probleme mannigfaltiger Art entstehen könnten – Angefangen beim Apollo-Raumfahrtprogramm über die Verteidigung bis hin zur Administration des ganzen Landes.   

Johnson sprach daher ein indirektes Machtwort: Er ordnete an, dass sämtliche US-Regierungsbüros nur noch Computer verwenden durften, die auf ASCII basierten. Das brachte die Computerhersteller, allen voran Weltmarktführer IBM, unter enormen Zugzwang.

Noch hinter jedem heutigen Emoji stehen die gleichen Symbole, die schon in der 1968er Fassung von ASCII vorhanden waren.

pixabay.com, TeroVesalainen

Ein Code für alle – bis heute

In den folgenden Jahren feierte ASCII weltweite Erfolge. Doch so, wie die Computertechnik voranschritt, wie sich Programmiersprachen weiterentwickelten, war es ebenfalls unvermeidbar, dass auch die bisher so großzügige Zeichenzahl von ASCII an ihre Grenzen stieß.

In den 1980ern wurde das Problem überdeutlich. Vor allem durch die Tatsache, dass ASCII kaum Möglichkeiten bot, asiatische Schriftzeichen sauber umzusetzen. Hersteller Xerox begann daher, einen neuen Code zu erdenken – der aber in jedem Fall zu ASCII kompatibel sein sollte. 1991 wurde das Ergebnis dieser Entwicklung präsentiert, der Unicode-Zeichensatz. Er basierte auf 16 Bit und konnte 7161 Zeichen darstellen. Aber, und das ist das Entscheidende, die ersten Nummern von 0-128 waren mit denselben Zeichen besetzt wie bei ASCII, wodurch der Umstieg zum Kinderspiel wurde, weil sich auf der unteren Ebene nichts änderte, sondern nur neue, vornehmlich sprachspezifische Symbole hinzukamen.

Und damit kommen wir zum Smartphone des Jahres 2018: Denn egal, was man in dessen Tastatur eingibt. Ob es Buchstaben sind oder Ziffern oder auch grafische Emojis. Hinter allen davon stecken noch die Symbole, welche damals 1963 den Zahlen in der ASCII-Matrix zugewiesen wurden. Dass aus einem :-) ein gelbes, lachendes Gesicht wurde, aus einem :-* ein Kussmund, ist nur eine kleine grafische Erweiterung der Software.

Mehr Artikel zu diesem Thema

Weitere Lexikon Artikel

Weitere Artikel aus dem Wahrig Synonymwörterbuch

Weitere Artikel aus dem Wahrig Herkunftswörterbuch

Weitere Artikel aus dem Wahrig Herkunftswörterbuch

Weitere Artikel aus dem Vornamenlexikon