Vierzehnhundertzweiundachtzig

Mag sein, dass ich das eigentliche Thema der Blogparade „Digitalisierung: Was passiert da gerade eigentlich?“ etwas verfehle, aber bevor man sich über irgendwelche Folgen, Konsequenzen oder Auswirkungen auslässt, sollte man erst einmal die Grundlagen kennen.

Digitalisieren bedeutet, analoge, häufig kontinuierliche Daten in einen diskreten, beschränkten Wertebereich abzubilden. Der Begriff kommt vom lateinischen „digitus“ – Finger. Man zählt also etwas mit den Fingern ab.
Unsere herkömmlichen, elektronischen Computer kennen nur zwei Zustände – Strom fließt xoder Strom fließt nicht – die man logisch als Wahr oder Falsch, bzw. als Eins und Null interpretieren kann. Diese Informationsmenge entspricht einem Bit.

Durch die Nutzung mehrerer Bits lassen sich mit Hilfe des Binärsystems größere (natürliche) Zahlen bilden. 8bit, also 1 Byte ergeben den Wertebereich zwischen 0 und 255, nämilch 2^8 Werte. Mit 16bit kommt man schon deutlich weiter, ein vernünftiges, praxistaugliches Rechnen ist ab 32bit möglich.
Für Gleitkommazahlen gibt es den IEEE-Standard, der eine bestimmte Anzahl von Bits für Mantisse, Exponent und Vorzeichen festlegt. Auf weitere Details werde ich jetzt nicht näher eingehen. (Dass die Architektur von 64bit-Prozessoren keine Extended 80bit-Gleitkommazahlen mehr unterstützt ist ärgerlich.)

Außer Zahlen benötigt man Strings, also Zeichenketten, die aus einzelnen Zeichen bestehen.
Der ASCII-Code (bzw. seine Erweiterung ANSI) benutzt 7 (bzw. 8) Bits um Buchstaben, Ziffern, einige Sonderzeichen und Steuerzeichen darzustellen. Mit 128 (bzw. 256) unterschiedlichen Zeichen kommt man jedoch nicht weit, weshalb Unicode oder UTF-8 einen weit größeren Bereich ermöglichen.
Für Texte wird häufig noch eine Formatierung gewünscht, die ebenfalls digital dargestellt werden muss. Exemplarisch nenne ich HTML, dass Formatierungen (d.h. strenggenommen Markup) durch ASCII-Tags (oder mit CSS) darstellt, und PDF, bei dem ein binärer Ansatz verfolgt wird.

Bilder (bzw. Ausgaben auf Monitor oder Drucker) werden dadurch digitalisiert, indem man sie zeilen- und spaltenweise auf einzelne Pixel aufteilt (ich beschränke mich hier auf Rastergraphik). Jeder einzelne Pixel hat eine Farbe, die man mit RGB so beschreiben kann, dass Rot-, Grün- und Blaukanal jeweils 256 Werte annehmen können.
Auch für Töne existieren bestimmte Digitalisierungsverfahren. Gemeinsam mit den Bildern (und erst recht Filmen) haben sie gemeinsam, dass ganz schnell sehr große Datenmengen zusammenkommen, für die dann spezielle Komprimierungsmethoden entwickelt werden müssen, die den Informationsverlust gering halten, aber die Datenmengen wesentlich reduzieren.
Ich nenne als Beispiele JPEG für Bilder, und MP3 für Audiodaten.

Auch ausführbare Programme (im Gegensatz zu zu interpretierenden Scripts) werden so in einem binären Format abgespeichert, dass das Betriebssystem, auf dem das Programm später laufen soll, etwas mit der Datei anfangen kann. Der Compiler wandelt dazu die Textdateien mit dem Quellcode in das fertige Executable um.

Als letztes Beispiel für Digitalisierung nenne ich TCP/IP, das Datenverkehr im Internet ermöglicht. Bei IPv4 werden 4 Bytes für die IP-Adresse genutzt, und ein genau festgelegtes Protokoll sorgt auf Bit-Ebene dafür, dass die Daten vom anfordernden Client zum Server kommen, und umgekehrt.

Die große Kunst der Digitalisierung besteht also darin, messbare Größen so in Bits zu zwängen, dass diese eindeutig bestimmt sind, und vom Computer weiterverarbeitet werden können, sowie zusammengehörende Daten systematisch zusammenzufassen und zu strukturieren.
Dazu werden z.B. Datenbanken benutzt, in denen einzelne Datensätze, bestehend aus mehreren Datenfeldern, relational mit anderen verknüpft werden.
Das kann beliebig kompliziert werden. Über verschiedene Probleme mit XML-Dateien (die sich für einfache, nicht zu umfangreiche Datenbanken nutzen lassen) habe ich schon gelegentlich gebloggt.

Mein Job als Programmierschlampe war es, bestimmte Probleme so in Bits und Bytes zu fassen, sie mit Hilfe von Prozeduren oder Objekten als Algorithmen verständlich für Computer zu formulieren, der sie dann durch seine Rechenleistung lösen kann.
Bestimmte Berufsgruppen leben also von der Digitalisierung, während die Allgemeinbevölkerung immer abhängiger von Computern wird, indem zunehmend Gehirnleistung outgesourcet wird. Die Menschheit verlernt das eigenständige Denken. Dies sehe ich als die eigentliche Gefahr der Digitalisierung. Digital Natives sind häufig nur noch Digital Naives.

Mir ist klar, dass ich einiges stark vereinfacht habe, aber mehr auf Spitzfindigkeiten einzugehen, hätte den Text zu sehr aufgebläht. Schließlich sollen auch Laien so einen Überblick gewinnen können, und die Nerds unter euch Lesern wissen das eh alles bereits. Mehr Genauigkeit brächte auch keinen Erkenntnisgewinn, weshalb ich mich meist bemühe, die Informationsmenge kompakt darzustellen, und zu optimieren.

Über Anne Nühm (breakpoint)

Die Programmierschlampe.
Dieser Beitrag wurde unter Uncategorized abgelegt und mit , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

11 Antworten zu Vierzehnhundertzweiundachtzig

  1. Plietsche Jung schreibt:

    Für die, die dies als zu abstrakt empfinden, empfehle ich den Film TRON.
    Man hat danach ein besseres „Gefühl“ vom PC, an dem man sitzt 🙂

    Danke für den Start bei Adam und Eva. Es tat gut, mal die einfachen Grundlagen zu lesen, wenn man mal wieder zu tief in die c’t eingestiegen ist.

    Mein Nachbar ggü. ist als Prof auch Mitglied der IEEE. Der erzählt Dinge …..puh….

    Like

  2. Pingback: Gezwitschertes //1681 | breakpoint

  3. Pingback: Digiti Digitalandi //1878 | breakpoint

  4. Pingback: breakplaining: Hex //2111 | breakpoint

  5. Pingback: breakplaining: Binär //2608 | breakpoint

  6. Pingback: How To Baby #Blogparade //2792 | breakpoint

Hinterlasse einen Kommentar