Digitalisierung

Der Begriff Digitalisierung (von lat. digitus, Finger) bezeichnet etwa seit den 1970er Jahren das Umwandeln von analogen Werten in digitale Formate und ihre Verarbeitung oder Speicherung in einem digitaltechnischen System. Die Information liegt dabei zunächst in beliebiger analoger Form vor und wird dann über mehrere Stufen in ein digitales Signal umgewandelt, das nur aus diskreten Werten besteht. Zunehmend wurde jedoch unter Digitalisierung auch die Erstellung primär digitaler Repräsentationen zum Beispiel durch Digitalkameras oder digitale Tonaufzeichnungssysteme verstanden. Die so gewonnenen Daten lassen sich informationstechnisch verarbeiten, ein Prinzip, das allen Erscheinungsformen der Digitalen Revolution und der Digitalen Transformation im Wirtschafts-,

Ausweitung des Begriffsumfangs

Seit etwa 2013 wird – so zeigen Google-Suchanfragen – der Begriff der Digitalisierung in der deutschsprachigen medialen Öffentlichkeit[6] immer seltener im Sinne der ursprünglichen Bedeutung
(Umwandlung von analogen in digitale Datenformate) verwendet, sondern fast ausschließlich (und zunehmend unbestimmt) im Sinne der umfassenden Megatrends[7] der digitalen Transformation und Durchdringung aller Bereiche von Wirtschaft, Staat, Gesellschaft und Alltag. Dabei geht es um „die zielgerichtete Identifikation und das konsequente Ausschöpfen von Potentialen, die sich aus Digitaltechnik
ergeben“. Dort wird auch von „Digitalisierungsfähigkeit“ gesprochen, was wie viele andere Zusammensetzungen mit „Digitalisierung“ semantisch unsinnig ist.

Oft werden alle Formen technisch vernetzter digitaler Kommunikation wie Breitbandkommunikation, Internet der Dinge, E-Commerce, Smart Home oder Industrie 4.0 undifferenziert unter das Schlagwort subsumiert. Peter Mertens, Dina Barbian und Stephan Baier zeigen die zunehmend inflationäre und fragwürdige Verwendung des Begriffs auf, der nicht nur einen wichtigen Trend markiert, sondern auch Merkmale einer Mode (Hype, fad) trägt. Diese Mode sei mit allzu optimistischen Erwartungen und Machbarkeitsillusionen verbunden; ihre Realisierung könne zu riskanten Übertreibungen und Fehlinvestitionen führen. So ist von 2013 bis 2017 die Zahl der Google-Suchanfragen für „Digitalisierung“ und „Industrie 4.0″ um etwa 600 bis 700 Prozent gestiegen, ein klassisches Anzeichen für einen Hype.

Tatsächlich erhöht die technisch vernetzte digitale Kommunikation die Vielfalt technisch-organisatorischer Lösungsmöglichkeiten erheblich. Daher schafft sie keine langfristig stabilen Strukturen, sondern erhöht deren Flexibilität und Komplexität und reduziert ihre Berechenbarkeit durch die von ihr angestoßenen Prozesse disruptiven Wandels.

Die folgenden Ausführungen beziehen sich vorrangig auf die Digitalisierung im ursprünglichen, engeren Sinne als Prozess der Datenumwandlung.

Grundlagen

Die Digitalisierung als Erstellung digitaler Repräsentationen hat den Zweck, Informationen digital zu speichern und für die elektronische Datenverarbeitung verfügbar zu machen. Sie begann historisch meist mit einem analogen Medium (Photonegativ, Diapositiv, Tonband, Schallplatte). Das Produkt einer solchen Digitalisierung wird mitunter als Digitalisat bezeichnet. Zunehmend wird unter Objektdigitalisierung jedoch auch die Erstellung primär digitaler Repräsentationen mittels digitaler Video-, Foto- oder Tonaufzeichnung verstanden. Hier wird der Begriff Digitalisat gewöhnlich nicht verwendet.

Erste Versuche zur Digitalisierung analoger Informationen gehen auf Leibniz‘ Binärkalkül und kryptographische Experimente des 17. Jahrhunderts zurück. Pläne zum Bau einer digitalen Rechenmaschine scheiterten an den damaligen Grenzen der Mechanik. Erste praktisch bedeutsame ingenieurtechnische Umsetzungen des Prinzips finden sich in Form der Kartensteuerung des Jacquardwebstuhls und der Telegraphie.[10] Grundlagen der papierlosen Speicherung und Verarbeitung von Digitaldaten waren die Flipflop-Schaltung 1918, die – dauernde Spannungsversorgung vorausgesetzt – ein Bit über unbegrenzte Zeit speichern kann, ferner die Elektronenröhre und der Transistor (1947). Für die massenhafte Speicherung und Verarbeitung existieren seit den 1960er Jahren immer leistungsfähigere Speichermedien und seit den 1970er Jahren Mikroprozessoren.

Es wird geschätzt, dass 2007 bereits 94 Prozent der weltweiten technologischen Informationskapazität digital war (nach lediglich 3 Prozent im Jahr 1993). Auch wird angenommen, dass es der Menschheit im Jahr 2002 zum ersten Mal möglich war, mehr Information digital als analog zu speichern (der Beginn des
„Digitalen Zeitalters“).

Die zu digitalisierende Größe kann alles sein, was mittels Sensoren messbar ist. Typische Beispiele sind:
Schalldruck bei Tonaufnahmen mit einem Mikrofon, Helligkeit bei Bild- und Videoaufnahmen mit einem Bildsensor (siehe auch Bilderzeugung),
mit Hilfe von speziellen Programmen auch Text aus einem gescannten Dokument heraus, Kräfte durch Schwere oder Beschleunigung
Temperatur, magnetische oder elektrische Feldstärke

Der Sensor misst die physikalische Größe und gibt sie in Form einer – noch analogen – elektrischen Spannung oder einem elektrischen Strom wieder. Dieser Messwert wird anschließend mit einem Analog- Digital-Umsetzer in einen digitalen Wert, in Form eines (meist elektrischen) Digitalsignals, umgesetzt. Dieser Vorgang kann einmalig oder in regelmäßigen zeitlichen Abständen erfolgen. Von hier an sind die Messgrößen digitalisiert und können von einem digitaltechnischen System (zum Beispiel dem Heim-PC oder auch digitalen Signalprozessoren) weiterverarbeitet oder gespeichert werden, zum Beispiel auch in einem nicht flüchtigen Speicher wie einer Compact Disc oder einem USB-Stick.

Die heutige Digitaltechnik verarbeitet in der Regel ausschließlich binäre Signale. Da bei diesen nur zwischen zwei Signalzuständen unterschieden werden muss („0“ oder „1“ beziehungsweise „low“ oder „high“), sind dadurch die Anforderungen an die Genauigkeit der Bauteile geringer – und infolgedessen auch die Produktionskosten.

Systeminterne Repräsentation digitaler Daten

Wie die digitalisierten Werte anschließend im System intern dargestellt werden, hängt vom jeweiligen System ab. Hierbei muss zunächst die speicherunabhängige Kodierung und anschließend die Speicherung von Informationsblöcken unterschieden werden. Die Kodierung und das Format hängen von der Art der Information, den verwendeten Programmen und auch der späteren Nutzung ab. Die Speicherung kann im flüchtigen Arbeitsspeicher oder persistent zum Beispiel in Datenbanksystemen oder unmittelbar in einem Dateisystem als Dateien erfolgen.

Hierbei sind Dateiformate von wesentlicher Bedeutung, welche sowohl die binäre Kodierung als auch Metadaten standardisieren. Beispiele sind zum Beispiel Textdateien in ASCII oder Unicode-Kodierung, Bildformate, oder Formate für Vektorgrafiken, welche zum Beispiel die Koordinaten einer Kurve innerhalb einer Fläche oder eines Raumes beschreiben.

Schnittstellen in die physische Welt

Mit Blick auf die Prozessdigitalisierung sind Schnittstellen zwischen der digitalen Welt und der Außenwelt von entscheidender Bedeutung. Digitale Information wird auf analogen Geräten ausgegeben oder an physischen Gütern angebracht, um von Menschen oder von der gleichen Maschine zeitversetzt oder von anderen Maschinen erneut gelesen werden zu können.

Hierzu zählen neben klassischen Techniken wie der Ausgabe digitaler Information auf Trägermaterialien wie Papier mittels menschenlesbaren Zeichen (und deren Rückverwandlung durch Texterkennung) auch spezialisierte Techniken wie Strichcodes, 2D-Code (zum Beispiel QR-Code) oder Funknetze, die im Internet der Dinge auch ohne Sichtkontakt und ohne elektrische Verbindung zur Kommunikation zwischen Geräten verwendet werden (zum Beispiel über Wireless Local Area Networks (WLAN) oder mit Radio Frequency Identification (RFID)).

Von realen Objekten oder Prozessen können digitale Zwillinge modelliert werden, mit denen virtuelle Simulationen durchgeführt werden können, ohne die Realität zu beeinflussen.

Digitalisate

Das Endprodukt von Mediendigitalisierungen wird häufig – in Anlehnung an Begriffsbildungen wie Kondensat oder Korrelat – Digitalisat genannt.

Beispiel A
Ein Foto wird für den Druck digitalisiert:
Es entsteht eine Datei mit den gewünschten Bildpunkten.

Beispiel B
Eine Seite mit Text und Fotos wird digitalisiert, der Text per Texterkennung (OCR) in weiterbearbeitbare Form gebracht, und diese beiden im Originalsatz (Layout) mithilfe einer Auszeichnungssprache beispielsweise als PDF-Datei gespeichert: Die entstandene PDF-Datei besteht aus mehreren Einzelelementen: Raster-, Vektor- und Textdaten.
Durch das Format PDF werden die Einzelelemente auf jeweils speichersparende Art in einer Datei untergebracht.
Die Einzelelemente stellen vollwertige und nutzbare Digitalisierungen (Digitalisate
einzelner Teile) dar. Aber erst die Verbindung der Einzelelemente im Endprodukt erzeugt eine echte Reproduktion, denn diese Datei verknüpft die Einzelelemente in der ursprünglichen Anordnung, ist also eine verlegerisch korrekte Wiedergabe des Originals.

Vor- und Nachteile

Das Vorliegen von Informationen und Daten in digitaler Form besitzt unter anderem folgende Vorteile:

Digitale Daten erlauben die Nutzung, Bearbeitung, Verteilung, Erschließung und Wiedergabe in elektronischen Datenverarbeitungssystemen.
Digitale Daten können maschinell und damit schneller verarbeitet, verteilt und vervielfältigt
werden.
Sie können (auch wortweise) durchsucht werden.
Der Platzbedarf ist deutlich geringer als bei anderen Formen der Archivierung

Auch bei langen Transportwegen und nach vielfacher Bearbeitung sind Fehler und
Verfälschungen (zum Beispiel Rauschüberlagerungen) im Vergleich zur analogen Verarbeitung gering oder können ganz ausgeschlossen werden.

Ein weiterer Grund für die Digitalisierung analoger Inhalte ist die Langzeitarchivierung. Geht man davon aus, dass es keinen ewig haltbaren Datenträger gibt, ist ständige Migration ein Faktum. Fakt ist auch, dass analoge Inhalte mit jedem Kopiervorgang an Qualität verlieren. Digitale Inhalte bestehen hingegen aus diskreten Werten, die entweder lesbar und damit dem digitalen Original gleichwertig sind, oder nicht mehr lesbar sind, was durch redundante Abspeicherung der Inhalte beziehungsweise Fehlerkorrekturalgorithmen verhindert wird.

Schließlich können analoge Originale durch Erstellung digitaler Benutzungskopien geschont werden. Denn viele Datenträger, darunter Schallplatten, analog vorliegende Spielfilme und Farb-Diapositive, verlieren allein durch die Wiedergabe oder auch nur einfache Alterungsprozesse an Qualität. Auch gedruckte Bücher oder Zeitungen und Archivalien leiden unter Benutzung und können durch Digitalisierung geschont werden.

Es sei angemerkt, dass der Schritt der Digitalisierung grundsätzlich mit Qualitätsverlust bzw. Informationsverlust verbunden ist, weil die Auflösung „endlich“ bleibt. Ein Digitalisat kann jedoch in vielen Fällen so genau sein, dass es für einen Großteil der möglichen (auch zukünftigen) Anwendungsfälle ausreicht. Wenn diese Qualität durch das Digitalisat erreicht wird, spricht man von Preservation Digitisation, also der Digitalisierung zur Erhaltung (= Ersetzungskopie). Der Begriff verkennt jedoch, dass nicht alle zukünftigen Anwendungsfälle bekannt sein können. Beispielsweise ermöglicht eine hochauflösende Fotografie zwar das Lesen des Texts einer Pergamenthandschrift, kann aber zum Beispiel nicht für physikalische oder chemische Verfahren zur Altersbestimmung der Handschrift verwendet werden. Aus diesem Grund ist es auch hoch umstritten, beispielsweise Zeitungen und Bücher, die aufgrund ihrer minderwertigen Papierqualität nur durch aufwendige Restaurierung erhalten werden könnten, stattdessen zu digitalisieren und die Originale zu entsorgen.

Historische Entwicklung

Die Digitalisierung hat eine lange Entwicklung hinter sich. Bereits vor langer Zeit wurden Universalcodes verwendet. Historisch frühe Beispiele dafür sind der Jacquardwebstuhl (1805), die Brailleschrift (1829) und das Morsen (ab 1837). Das Grundprinzip, festgelegte Codes zur Informationsübermittlung zu benutzen, funktionierte auch bei technisch ungünstigen Bedingungen per Licht- und Tonsignal (Funktechnik, Telefon, Telegrafie). Später folgten Fernschreiber (unter anderem unter Verwendung des Baudot-Codes), Telefax und E-Mail. Die heutigen Computer verarbeiten Informationen ausschließlich in digitaler Form.

In der Wissenschaft ist Digitalisierung im Sinne der Veränderung von Prozessen und Abläufen aufgrund des Einsatzes digitaler Technik (Digitale Revolution, Digitale Transformation) ein querschnittliches Thema in vielen Wissenschaftsdisziplinen. Die technische Entwicklung ist dabei Kernthema in der Informatik, die wirtschaftlich-technische Entwicklung Kernthema in der Wirtschaftsinformatik. Im deutschsprachigen Raum entstand der erste Lehrstuhl, der offiziell den Begriff der Digitalisierung als Hauptaufgabe aufgreift,
2015 an der Universität Potsdam.[13]

Bereiche der Digitalisierung
Siehe auch: Retrodigitalisierung

Rein technisch gesehen wird der Prozess der Digitalisierung von einem Analog-Digital-Umsetzer durchgeführt, welcher analoge Eingangssignale in festgesetzten Intervallen, seien dies nun Zeitintervalle bei linearen Aufzeichnungen wie in der Messtechnik (siehe auch Digitale Messtechnik) oder der Abstand der

Fotozellen beim Scannen, misst (siehe auch Abtastrate) und diese Werte mit einer bestimmten Genauigkeit
(siehe Quantisierung) digital codiert (siehe auch Codec). Je nach Art des analogen Ausgangsmaterials und des Zwecks der Digitalisierung werden verschiedene Verfahren eingesetzt.

Digitalisierung von Texten

Bei der Digitalisierung von Text wird das Dokument zuerst genauso wie ein Bild digitalisiert, das heißt gescannt. Soll das Digitalisat das ursprüngliche Aussehen des Dokumentes möglichst genau wiedergeben, erfolgt keine weitere Verarbeitung und es wird nur das Bild des Textes abgespeichert.

Wenn der sprachliche Inhalt der Dokumente von Interesse ist, so wird das digitalisierte Textbild von einem Texterkennungsprogramm in einen Zeichensatz übersetzt (zum Beispiel ASCII oder bei nicht-lateinischen Buchstaben Unicode) und anschließend der erkannte Text gespeichert. Der Speicherbedarf ist dabei erheblich geringer als für das Bild. Allerdings gehen unter Umständen Informationen verloren, die nicht im reinen Text dargestellt werden können (zum Beispiel die Formatierung).

Eine weitere Möglichkeit ist die Kombination aus beidem, dabei wird neben dem digitalisierten Bild des Textes noch der Inhalt erkannt und als Metadaten hinterlegt. So kann im Text nach Begriffen gesucht werden, aber dennoch das (digitalisierte) Originaldokument angezeigt werden (zum Beispiel bei Google Books).

Digitalisierung von Bildern
Um ein Bild zu digitalisieren, wird das Bild gescannt, das heißt in Zeilen und Spalten (Matrix) zerlegt, für jeden der dadurch entstehenden Bildpunkte der Grauwert bzw. Farbwert ausgelesen und mit einer bestimmten Quantisierung gespeichert. Dies kann durch Scanner, digitale Fotografie, durch satellitengestützte oder medizinische Sensoren erfolgen. Zur finalen Speicherung des Digitalisates können gegebenenfalls Methoden der Bildkompression eingesetzt werden.

Bei einer Schwarz-Weiß-Rastergrafik ohne Grautöne nimmt dann der Wert für ein Pixel die Werte „0“ für „Schwarz“ und „1“ für „Weiß“ an. Die Matrix wird zeilenweise ausgelesen, wodurch man eine Folge aus den Ziffern 0 und 1 erhält, welche das Bild repräsentiert. In diesem Fall wird also eine Quantisierung von einem Bit verwendet.

Um ein Farb- oder Graustufenbild digital zu repräsentieren, wird eine höhere Quantisierung benötigt. Bei Digitalisaten im RGB-Farbraum wird jeder Farbwert eines Pixels in die Werte Rot, Grün und Blau zerlegt, und diese werden einzeln mit derselben Quantisierung gespeichert (maximal ein Byte/Farbwert = 24 Bit/Pixel). Beispiel: Ein Pixel in reinem Rot entspricht R=255, G=0, B=0.

Im YUV-Farbmodell können die Farbwerte eines Pixels mit unterschiedlicher Quantisierung gespeichert werden, da hierbei die Lichtstärke, welche vom menschlichen Auge genauer registriert wird, von der Chrominanz (= Farbigkeit), die das menschliche Auge weniger genau registriert, getrennt sind. Dies ermöglicht ein geringeres Speichervolumen bei annähernd gleicher Qualität für den menschlichen Betrachter.

In Großformatscannern werden die einzelnen Farbauszüge der Druckfilme eingescannt, zusammengefügt und „entrastert“, damit die Daten wieder digital für eine CtP-Belichtung vorhanden sind.

Digitalisierung von Audiodaten
Die Digitalisierung von Audiodaten wird oft als „Sampling“ bezeichnet. Zuvor in analoge elektronische Schwingungen verwandelte Schallwellen (etwa aus einem Mikrofon) werden stichprobenartig schnell hintereinander als digitale Werte gemessen und gespeichert. Diese Werte können umgekehrt auch wieder schnell hintereinander abgespielt und zu einer analogen Schallwelle „zusammengesetzt“ werden, die dann wieder hörbar gemacht werden kann. Aus den gemessenen Werten würde sich eigentlich bei der Rückumwandlung eine eckige Wellenform ergeben: Je niedriger die Sampling-Frequenz ist, umso eckiger ist die Wellenform bzw. das Signal. Dies kann sowohl durch mathematische Verfahren reduziert werden (Interpolation, vor der D/A Wandlung) als auch durch analoge Filter vermindert werden. Die Bittiefe bezeichnet beim Sampling den „Raum“ für Werte in Bits, die u. a. für die Auflösung des Dynamikumfangs notwendig sind. Ab einer Samplingfrequenz von 44,1 Kilohertz und einer Auflösung von 16 Bit spricht man von CD-Qualität.

Aufgrund der großen anfallenden Datenmengen kommen verlustfreie und verlustbehaftete Kompressionsverfahren zum Einsatz. Diese erlauben, Audiodaten platzsparender auf Datenträgern zu speichern (s. flac, MP3).

Gängige Dateiformate für Audio sind: wav, aiff, flac, mp3, aac, snd oder ogg Vorbis.

Gängige Umsetzverfahren siehe Analog-Digital-Umsetzer.

Schallplatten können berührungslos softwaregestützt gelesen und digitalisiert werden, indem ein hochauflösendes optisches Digitalisat des Tonträgers von einem Programm „abgetastet“ wird. Dieses Verfahren wird bei der Rekonstruktion historischer Tonaufnahmen verwendet.

Ökonomische und rechtliche Folgen von Digitalisierung

Die grundlegenden Vorteile der Digitalisierung liegen in der Schnelligkeit und Universalität der Informationsverbreitung. Bedingt durch kostengünstige Hard- und Software zur Digitalisierung und der immer stärkeren Vernetzung über das Internet entstehen in hohem Tempo neue Anwendungsmöglichkeiten in Wirtschaft, Verwaltung und Alltag. Wenn die Logik von Produktions- und Geschäftsmodellen, Wertschöpfungsketten, Wirtschaftszweigen, Verwaltungsroutinen, Konsummustern oder auch die Alltagsinteraktion und die Kultur einer Gesellschaft dadurch tiefgreifend verändert werden, spricht man von
digitaler Transformation. Diese zieht Chancen, aber auch Risiken nach sich. Exemplarisch dafür ist der:

Einfluss auf das Rechtssystem
Die Digitalisierung stellt neue Anforderungen an das Rechtssystem, wobei die Rechtswissenschaft erst vor
einigen Jahren begonnen hat, sich mit diesem Problem zu befassen. Die „Theorie des unscharfen Rechts“ geht davon aus, dass sich das Recht insgesamt in einer digitalisierten Umwelt grundlegend ändert. Nach ihr relativiert sich die Bedeutung des Rechts als Steuerungsmittel für die Gesellschaft deutlich, da sich die Ansprüche der Gesellschaft zusätzlich an immateriellen Gütern orientieren, welche die Nationengrenzen überschreiten.

Die Möglichkeit der vereinfachten und verlustfreien Reproduktion hat zu verschiedenen Konflikten zwischen Erstellern und Nutzern digitaler Inhalte geführt. Industrie und Verwertungsgesellschaften reagieren auf die veränderten Bedingungen insbesondere mit urheberrechtlicher Absicherung von geistigem Eigentum und der technischen Implementierung von Kopierschutz.

Kostenbetrachtung

Ein wesentliches Merkmal digitaler Inhalte ist eine Veränderung der Kostenstruktur. Eine Kostenreduktion betrifft oft die Vervielfältigung und den Transport der Informationen (zum Beispiel über das Internet). So sinken die Kosten zunächst für jede weitere digitale Kopie (siehe Grenzkosten). Einmal zentral im Internet zur Verfügung gestellt, können digitale Daten jederzeit und gleichzeitig überall auf der Welt zur Verfügung gestellt werden.

Dagegen können die Kosten durch erhöhte Aufwendungen im Bereich der urheberrechtlichen Absicherung von geistigem Eigentum und der technischen Implementierung von Kopierschutz wieder steigen. Auch Anforderungen an die Sicherheit der Datenübertragung und Zuverlässigkeit der Computeranlagen wirken sich kostensteigernd aus.

Einfluss auf betriebliche Abläufe im Unternehmen

In den betrieblichen Abläufen eines Unternehmens ermöglicht die Digitalisierung eine Effizienzsteigerung und damit eine Verbesserung ihrer Wirtschaftlichkeit. Der Grund hierfür ist, dass Betriebsabläufe durch den Einsatz von Informations- und Kommunikationstechnik schneller und kostengünstiger abgewickelt werden können als dies ohne Digitalisierung möglich wäre. Dies wird beispielsweise durch die Umwandlung
von physischen Dokumenten und analogen Informationen in eine digitale Form realisiert. Viele Unternehmen lassen beispielsweise Briefe, die sie in physischer Form erhalten, einscannen und per E-Mail verteilen.

Sicherheit

Durch die Speicherung von Daten auf vernetzten Computern besteht insbesondere für Unternehmen, Politiker und Verbände die Gefahr, dass Hacker Zugang zu diesen Daten bekommen. Auch besteht die Gefahr, dass Daten von unberechtigten Personen ausgewertet, verbreitet und verändert werden. Ein Schutz dagegen ist teilweise nur mit erheblichem technischen Aufwand möglich.