06.11.2013 Aufrufe

analoge & digitale Bilder - Visuelle Kompetenz im Medienzeitalter

analoge & digitale Bilder - Visuelle Kompetenz im Medienzeitalter

analoge & digitale Bilder - Visuelle Kompetenz im Medienzeitalter

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

<strong>analoge</strong> & <strong>digitale</strong> <strong>Bilder</strong><br />

Theoretische Staatsexamensarbeit<br />

<strong>im</strong> Fach Kunsterziehung<br />

an der<br />

Staatlichen Akademie der Bildenden Künste<br />

Stuttgart<br />

vorgelegt bei: Prof. Dr. Hans Dieter Huber<br />

Prof. Cordula Güdemann<br />

von Michael Rottmann<br />

aus Stuttgart<br />

abgegeben am 12.03.2002


1. VORBEMERKUNG...................................................................................................................4<br />

2. EINE ETYMOLOGISCHE UND GESCHICHTLICHE ANNÄHERUNG.........................................7<br />

2.1 ANALOG...............................................................................................................................7<br />

2.1.1 Zum Begriff..................................................................................................................7<br />

2.1.2 Begriffsgeschichte „analog“.......................................................................................9<br />

2.1.6 Zusammenfassung...................................................................................................14<br />

2.2 DIGITAL .............................................................................................................................15<br />

2.2.1 Zum Begriff................................................................................................................15<br />

2.2.2 Begriffsgeschichte „digital“......................................................................................15<br />

2.2.3 Zusammenfassung...................................................................................................18<br />

2.3 EINE KURZE GESCHICHTE DER RECHNERTECHNIK................................................................19<br />

2.3.1 Geschichte der <strong>analoge</strong>n Rechner..........................................................................19<br />

2.3.2 Der Übergang zum <strong>digitale</strong>n Rechner......................................................................20<br />

2.4 DAS BINÄR- UND DEZIMALSYSTEM......................................................................................21<br />

2.5 KONSEQUENZEN ................................................................................................................23<br />

3. ANALOGE UND DIGITALE BILDMEDIEN..............................................................................25<br />

3.1 GRUNDSÄTZLICHES ............................................................................................................25<br />

3.2 ANALOGE UND DIGITALE DARSTELLUNGEN..........................................................................26<br />

3.2.1 Einführung.................................................................................................................26<br />

3.3 FUNKTIONSWEISE ANALOGER / DIGITALER MEDIEN AM BEISPIEL DER FOTOGRAFIE..............27<br />

3.3.1 Analoge Fotografie....................................................................................................27<br />

3.3.2 Digitale Fotografie....................................................................................................28<br />

3.4 WAS UNTERSCHEIDET ANALOGE UND DIGITALE FOTOGRAFIE...............................................30<br />

3.4.1 Kameramodelle.........................................................................................................31<br />

3.4.2 Die Bezeichnung Digital Imaging.............................................................................32<br />

3.4.3 Technische Differenzen der Verfahren....................................................................32<br />

3.4.3.1 Informationsmodifikation......................................................................................32<br />

3.4.3.2 Zeitlichkeit............................................................................................................34<br />

3.4.4 Unmittelbare Wahrnehmung als Differenz...............................................................35<br />

3.4.5 Medientheoretische Unterscheidung........................................................................36<br />

3.4.6 Die veränderte Authentizität.....................................................................................37<br />

3.4.7 Abbildungen, Mengen und andere mathematischen Begriffe..................................41<br />

3.4.7.1 Der Mengenbegriff..............................................................................................41<br />

3.4.7.2 Der Abbildungsbegriff.........................................................................................42<br />

3.4.7.3 Abbildungstypen.................................................................................................42<br />

3.4.7.4 Der Isomorphismus..............................................................................................43<br />

3.5 DIGITALISIERUNG / ANALOGISIERUNG ................................................................................44<br />

3.5.1 Einführung.................................................................................................................44<br />

3.5.2 Umwandlung von <strong>Bilder</strong>n...........................................................................................45<br />

2


3.5.3 Umwandlung abstrakt betrachtet - Theorie..............................................................47<br />

3.7 SPEZIFISCHE EIGENSCHAFTEN............................................................................................50<br />

3.7.1 Analoge Bildmedien..................................................................................................50<br />

3.7.1 Digitale Bildmedien...................................................................................................52<br />

3.8 ZUSAMMENFASSUNG..........................................................................................................53<br />

4. BILDTHEORIE........................................................................................................................55<br />

4.1 EINFÜHRUNG......................................................................................................................55<br />

4.2 WAS IST EIN BILD? „BILDHAFTIGKEIT“ IN DER SYMBOLTHEORIE VON GOODMAN ..................58<br />

4.2.1 Einführung.................................................................................................................58<br />

4.2.2 Denotation oder das Problem der Ähnlichkeit.........................................................59<br />

4.2.3 Exemplifikation.........................................................................................................61<br />

4.2.4 Differenz zwischen <strong>Bilder</strong>n und anderen Symbolen................................................61<br />

4.2.5 Diskret, dicht, stetig und andere Begriffe.................................................................64<br />

4.2.5 Bildhaftigkeit nach Goodman...................................................................................69<br />

4.2.6 „Analoge“ und „<strong>digitale</strong>“ Symbolsysteme nach Goodman......................................71<br />

4.3 WAS IST EIN DIGITALES BILD?...........................................................................................72<br />

4.3.2 Das <strong>digitale</strong> Bild........................................................................................................73<br />

4.3.3 Ein struktureller Widerspruch und ein Lösungsvorschlag......................................74<br />

4.3.4 Syntaktische Veränderung und eine seltsame Verwandtschaft...............................76<br />

4.4 DIGITALE BILDER OHNE APPARATE?..................................................................................78<br />

4.5 SUBSTANZ DES DIGITALEN BILDES......................................................................................79<br />

4.5.1 Einführung.................................................................................................................79<br />

4.5.2 Begriff des Codes.....................................................................................................80<br />

4.5.3 Interpretation und Prozess.......................................................................................82<br />

5. VERÄNDERTE PRODUKTIONSBEDINGUNGEN.....................................................................85<br />

5.1 GESTALTUNGSMÖGLICHKEITEN...........................................................................................85<br />

5.2 GESTALTUNG ALS ÄSTHETISCHES EXPERIMENT...................................................................89<br />

5.3 DAS PROBLEM DER VERLORENEN SPUREN..........................................................................90<br />

5.4 DIE VERÄNDERTE ZEITLICHKEIT IM BILD .............................................................................91<br />

5.5 NEUE WERKZEUGE FÜR DIE GESTALTUNG...........................................................................91<br />

5.6 VOM STATISCHEN ZUM BEWEGTEN BILD..............................................................................93<br />

5.6.1 An<strong>im</strong>ation und Morphing...........................................................................................93<br />

5.6.2 Generative <strong>Bilder</strong>......................................................................................................95<br />

5.6.3 Interaktive <strong>Bilder</strong>.......................................................................................................96<br />

5.7 ORIGINAL UND KOPIE.........................................................................................................98<br />

5.8. STÖRUNGEN .....................................................................................................................98<br />

6. ABSCHLIESSENDE ZUSAMMENFASSUNG UND AUSBLICK............................................101<br />

7. LITERATURLISTE...............................................................................................................109<br />

3


1. Vorbemerkung<br />

Wenn man als bildender Künstler arbeitet, benutzt man Medien, mit denen man kommuniziert.<br />

Es gibt mittlerweile <strong>digitale</strong> Medien, wie die Digitalfotografie, die als so genannte<br />

Weiterentwicklungen der <strong>analoge</strong>n Medien verfügbar sind. Die <strong>digitale</strong>n Gestaltungs- und<br />

Reproduktionstechniken gewinnen zunehmend an Bedeutung und auch die freien Künste<br />

lassen sich <strong>im</strong>mer stärker auf die neuen Medien mit ihren eigenen Gestaltungsmöglichkeiten<br />

und ihrer eigenen Ästhetik ein. Aber es scheint <strong>im</strong>mer noch relativ unklar, was eigentlich die<br />

spezifischen Eigenschaften <strong>analoge</strong>r beziehungsweise <strong>digitale</strong>r Medien sind, nach welchen<br />

Kriterien die verschiedenen Medien klassifiziert werden können.<br />

Digitale Medien werden in der Praxis eigentlich <strong>im</strong>mer mit technischen Apparaten erzeugt. Am<br />

Beispiel der Analog- und Digitalfotografie soll exemplarisch die Funktionsweise der beiden<br />

Verfahren gezeigt werden. Es stellt sich dann natürlich die grundsätzliche Frage, wie<br />

überhaupt Apparate funktionieren, die <strong>digitale</strong> <strong>Bilder</strong> erzeugen, wie also die Digitalisierung<br />

vonstatten geht. Man könnte sich Gedanken machen, ob es überhaupt grundsätzlich eines<br />

Apparates bedarf um <strong>digitale</strong> <strong>Bilder</strong> zu erzeugen. Denn in den Apparaten finden Abläufe statt,<br />

die von Menschen erdacht und konstruiert wurden und somit den Apparat in seiner<br />

Funktionsweise erst ausmachen. Diese Abläufe könnten vielleicht auch manuell ausgeführt<br />

werden. Es wäre also denkbar, dass man <strong>digitale</strong> <strong>Bilder</strong> auch ohne den Einsatz von<br />

technischen Apparaten, sozusagen einfach mit der Hand herstellen könnte.<br />

Dies führt zu einem Verständnis der grundsätzlichen Funktionsweise von <strong>analoge</strong>n und<br />

<strong>digitale</strong>n Medien, wozu auch das abstrakte Verständnis der Vorgänge bei Digitalisierungsund<br />

Analogisierungsprozessen gehört. In Gegenüberstellung der beiden Verfahren kann man<br />

die charakteristischen Eigenschaften der beiden Mediengattungen herausarbeiten und damit<br />

<strong>im</strong>plizit gleichzeitig die jeweiligen Nicht-Eigenschaften. Ein Vergleich dieser spezifischen<br />

Eigenschaften wird zeigen, ob es sich tatsächlich um disjunkte 1 Mengen von Eigenschaften<br />

handelt, so dass wir also von unterschiedlichen Bezeichnungen ausgehen können. Dann<br />

wäre die gebräuchliche Unterscheidung der Begriffe „analog“ und „digital“ sinnvoll. Noch<br />

einmal anders gesagt: Wenn man feststellen würde, dass es Mischformen von Medien gibt,<br />

die sowohl als analog, wie auch als digital zu bezeichnen sind, dann müsste man sich<br />

Gedanken über den Sinn der Bedeutung der Begriffe machen. Die gemeinsamen<br />

Eigenschaften von analog und digital müssten herausgenommen werden und die<br />

verbleibenden jeweiligen spezifischen in neuen Begriffen formuliert werden.<br />

Im Rahmen der Untersuchung der Eigenschaften, wird es von Interesse sein, wie sich die<br />

spezifischen Eigenschaften auf die äußere Erscheinungsform auswirken. Wie wirken die<br />

verschieden hergestellten <strong>Bilder</strong> auf uns? Sind rein visuelle Unterschiede erkennbar?<br />

Es stellt sich weiterhin die Frage, was analog und digital <strong>im</strong> Kontext künstlerischer Arbeit<br />

bedeutet. Wie haben sich die künstlerischen Gestaltungsmöglichkeiten erweitert oder haben<br />

1 Zum Begriff „disjunkt“ vgl. Kapitel 3.4.7.1<br />

4


sie sich zu einem Besseren verändert? Denn man kann davon ausgehen, dass <strong>analoge</strong> wie<br />

auch <strong>digitale</strong> Gestaltungstechniken ihre spezifische Besonderheiten haben. Dass sich diese<br />

verändert haben, zeigen die neuen Sehgewohnheiten in den Medien. Auch die Frage der<br />

Echtheit der <strong>Bilder</strong> steht sofort <strong>im</strong> Raum. Denn in den modernen Printmedien werden die <strong>Bilder</strong><br />

auf jeden Fall digitalisiert, egal welchen Ursprungs sie sind. 2 Grund genug, um sich mit den<br />

Medien und ihren gestalterischen Möglichkeiten zu beschäftigen.<br />

Wie bereits erwähnt sollen vor allem die Medien, die man als bildender Künstler verwendet, <strong>im</strong><br />

Vordergrund stehen, eben die Bildmedien. In diesem Zusammenhang soll also auch eine<br />

Beschreibung verschiedener Medien und ihrer neuen Gestaltungsmöglichkeiten folgen. Was<br />

passiert, wenn man die Medien ineinander überführt, also Medienbrüche vollzieht? Welche<br />

Eigenschaften gehen verloren, welche verändern sich be<strong>im</strong> Analogisieren oder Digitalisieren<br />

von Medien?<br />

Bedingt durch die längere Geschichte der so genannten <strong>analoge</strong>n Medien wurden über diese<br />

viel mehr Abhandlungen verfasst. Deshalb wird es sinnvoll sein, <strong>im</strong> Folgenden vertieft die<br />

<strong>digitale</strong>n Medien beziehungsweise die <strong>digitale</strong>n <strong>Bilder</strong> „ins Auge zu fassen“. Auch die neuen<br />

Gestaltungsmöglichkeiten werden untersucht. Wenn man Grafikprogramme anwendet, um<br />

<strong>digitale</strong> <strong>Bilder</strong> zu bearbeiten, hat man eine best<strong>im</strong>mte Auswahl an möglichen Operationen, die<br />

man auf das <strong>digitale</strong> Bild anwenden kann. Das heißt, man bewegt sich in einem vorgegebenen<br />

System, in dem es abgesteckte Grenzen gibt. Was ist also überhaupt möglich in der <strong>digitale</strong>n<br />

Bildbearbeitung, was nicht. Auf den ersten Blick scheint es so, wie wenn viele der<br />

Werkzeuge, die die Grafikprogramme zur Verfügung stellen, eine Umsetzung, eine Art<br />

S<strong>im</strong>ulation der traditionell hergebrachten Werkzeuge sind. So gibt es eigentlich in jedem<br />

Programm einen Radierer, der die Wirkung eines tatsächlichen Radiergummis nachahmt. Es<br />

gibt also nachahmende Werkzeuge und eine Gruppe neuer Werkzeuge. Welche Werkzeuge<br />

kommen aber hinzu? Denn auch hier ergibt sich vielleicht ein Hinweis auf die spezifischen<br />

Eigenschaften <strong>digitale</strong>r Medien.<br />

Ein weiteres Feld wären die Störungen. Sie geben zusätzlich Aufschluss über die<br />

Funktionsweise und Grenzen eines Mediums. Was sind aber Störungen bei <strong>digitale</strong>n <strong>Bilder</strong>n,<br />

wie sehen sie aus? Dies kann natürlich nur eine abstrakte Untersuchung sein.<br />

Von großem Interesse ist die Frage, was die eigentliche Substanz des <strong>digitale</strong>n Bildes ist?<br />

Das <strong>digitale</strong> Bild muss sich ja <strong>im</strong>mer in irgendeiner Art und Weise manifestieren, wobei die<br />

verschiedenen Manifestationen durchaus sehr voneinander abweichen können. Wie hängen<br />

alle Manifestationen zusammen, was verbindet sie? Kann man in diesem Zusammenhang<br />

vielleicht vom „Code“ sprechen, der hinter allen Manifestationen steht?<br />

Dabei wird eine tiefgründige Untersuchung des Bildes unumgänglich sein. Denn wenn man<br />

nach der eigentlichen Substanz des <strong>digitale</strong>n Bildes fragt, muss man zunächst einmal klären,<br />

was man unter einem Bild versteht. Dabei soll es <strong>im</strong>mer um <strong>Bilder</strong> gehen, die in der praktischen<br />

2 Vgl. Peter Jenny, Bildkonzepte, Verlag Hermann Schmidt, Mainz 2000, S.205<br />

5


künstlerischen Arbeit entstehen. Mit „Bild“ seien also hier darstellende, visuelle <strong>Bilder</strong> gemeint.<br />

Klangbilder und Metaphern sind demnach, als <strong>Bilder</strong> in einem viel weiteren Sinn, nicht gemeint.<br />

Die Frage, was man unter Bildhaftigkeit versteht, führt auf eine Rekapitulation der<br />

Betrachtungen von Nelson Goodman. Hier schließt sich der Kreis, weil Goodman sich bereits<br />

1968 Gedanken über die Begriffe „analog“ und „digital“ machte, <strong>im</strong> Zusammenhang mit dem<br />

Versuch, eine allgemein gültige Symboltheorie zu entwerfen. Nelson Goodman beklagt in<br />

seinem Buch „Sprachen der Kunst - Entwurf einer Symboltheorie“ bereits 1968 die<br />

Unvereinbarkeit der beiden Begriffe und das Problem diese zu definieren: „Aber es fällt<br />

leichter, den Unterschied zwischen <strong>analoge</strong>n und <strong>digitale</strong>n Maschinen oder Systemen zu<br />

illustrieren als ihn zu definieren, und einige geläufige Vorstellungen darüber sind irrig.“ 3<br />

Um die Bildtheorie Goodmans zu vertiefen, wird ein mathematischer Exkurs notwendig sein,<br />

weil er an einigen Stellen seiner Theorie diese mit mathematischen Beispielen erklärt und<br />

illustriert. Zwischen Kunst und Mathematik hat es schon <strong>im</strong>mer viele Berührungspunkte<br />

gegeben. So haben manche strukturelle Eigenschaften der Mathematik in der Kunst eine Rolle<br />

gespielt. Die Entwicklung der Digitaltechnik schließlich führte zu einer neuen Verbindung von<br />

Kunst und Mathematik. Die so genannte Computergrafik arbeitet mit digital vorliegenden <strong>Bilder</strong>n,<br />

die „rechenbar“ sind. Hinter jeder Funktion in einem Grafikprogramm, wie zum Beispiel<br />

Photoshop eines ist, steckt viel Mathematik.<br />

In der vorliegenden Arbeit wird es also um eine grundsätzliche und umfassende Klärung der<br />

Begriffe „analog“ und „digital“ hinsichtlich des Bildes gehen. Denn die Begriffe „analog“ und<br />

„digital“ sind in aller Munde, aber sie werden, wie so oft in der Umgangssprache, sehr<br />

unscharf verwendet, weil die genauen Bedeutungen unklar sind. Es scheint daher sinnvoll,<br />

als Ausgangspunkt der wissenschaftlichen Arbeit eine begriffliche Annäherung durch eine<br />

etymologische Betrachtung der beiden Klassifikationsbegriffe zu erreichen. Es muss überprüft<br />

werden, ob die beiden Begriffe <strong>im</strong> Rahmen einer gründlichen Untersuchung überhaupt<br />

aufrecht erhalten werden können, und wenn ja, ob sie hinreichend gut sind, um den<br />

Sachverhalt angemessen zu beschreiben. Vielleicht wird es notwendig werden, neue<br />

Begriffe einzuführen.<br />

Diese Arbeit soll einen breit gefächerten Überblick über das Themenfeld geben. Ich halte es<br />

für notwendig, sich mit den Bedingungen der <strong>digitale</strong>n Medien auseinandersetzen, denn sie<br />

werden heute schon sehr stark in der gestalterischen Produktion der angewandten Künste<br />

eingesetzt und werden dies in Zukunft mit Sicherheit noch mehr werden. Die freien Künstler<br />

beschäftigen sich ebenfalls seit den 60er Jahren, mit diesen Medien.<br />

3 Nelson Goodman, Sprachen der Kunst - Entwurf einer Symboltheorie, 2. Auflage, Suhrkamp, Frankfurt am Main 1998<br />

6


2. Eine etymologische und geschichtliche Annäherung<br />

Die Sprache ist das Medium, in dem wir abstrakt denken, in dem wir Erkenntnisse formulieren.<br />

Wenn wir uns <strong>im</strong> Folgenden mit den Begriffen „analog“ und „digital“ auseinander setzen, soll<br />

zunächst geklärt werden, was uns die deutsche Sprache für Bedeutungen anbietet.<br />

Obwohl viele zumindest ein intuitives Verständnis von den Begriffen „analog“ und „digital“<br />

haben, ist die exakte Bedeutung nicht sofort ersichtlich. Betrachtet man verschiedene<br />

Definitionen in Lexika oder Büchern, so wird deutlich, dass es keine einheitlich akzeptierte<br />

Definition gibt. Die Bedeutungen sind vielfältig und besitzen wie so oft eine gewisse Breite.<br />

Im Sprachgebrauch treten somit Probleme auf, die einer näheren Betrachtung bedürfen.<br />

Beispielsweise wird „analog“ häufig mit „kontinuierlich“ gleichgesetzt, dabei bewegt sich der<br />

Stundenzeiger fast jeder Analoguhr schrittweise, also nicht kontinuierlich, sondern diskret 4 .<br />

Es scheint also eine andere Bedeutung hinter dem Präfix zu stecken. Weiterhin wurden in der<br />

Geschichte Rechner entwickelt, die analog arbeiteten, aber mit diskreten Werten operierten,<br />

bei denen nicht sofort klar ist, ob sie als analog oder digital zu bezeichnen sind.<br />

Für uns ist es wichtig, wie wir die verschiedenen Aspekte verwenden und auf künstlerische<br />

Erzeugnisse beziehen können.<br />

Im Folgenden werden deshalb die grundlegenden Bedeutungen der beiden Begriffe<br />

umfassend dargestellt. Die zugehörige historische Betrachtung soll ein Gefühl für die<br />

verschiedenen Bedeutungen der Begriffe geben und soll so zusätzliche Klärung schaffen.<br />

2.1 analog<br />

2.1.1 Zum Begriff<br />

Das deutsche Wort „analog“ ist das zugehörige Adjektiv des Substantivs „Analogie“ und<br />

besitzt heute die Bedeutungen „entsprechend“, „ähnlich“ oder auch „gleichartig“. Oder es wird<br />

<strong>im</strong> Sinne von „kontinuierlich“, „stufenlos“ verwendet.<br />

Das Adjektiv „analog“ wurde <strong>im</strong> 18. Jahrhundert über das französische Wort „analogue“<br />

(„entsprechend“), aus dem gleichbedeutenden griechischen „análogos“ entlehnt, was<br />

eigentlich soviel wie „dem Logos, der Vernunft entsprechend“ bedeutet. Das zugehörige<br />

Substantiv „Analogie“ ist von dem griechischen Wort „analogía“ (αναλογια) abgeleitet und<br />

erscheint als wissenschaftlicher Terminus bereits <strong>im</strong> 17. Jahrhundert. 5<br />

4 Den Begriff „diskret“ werden wir noch öfter in dieser Arbeit verwenden. Er soll <strong>im</strong> Sinne von „abgegrenzt, abgrenzbar“<br />

beziehungsweise <strong>im</strong> mathematischen Verständnis von „in einzelne Punkte zerfallend“, „abzählbar“ oder auch „Zahlenwerte, die durch<br />

endliche Intervalle voneinander getrennt stehen“ verstanden werden. Vergleiche hierzu auch Kapitel 4<br />

5 Duden - Das Herkunftswörterbuch der deutschen Sprache, hg. von der Dudenredaktion, Band 7, 2. völlig neu bearbeitete und<br />

erweiterte Auflage, Dudenverlag , Mannhe<strong>im</strong> 1989<br />

7


Im Griechischen ist „analogía“ die Übereinst<strong>im</strong>mung verschiedener Größen- oder<br />

Funktionsverhältnisse „ana ton auton logon“ (<strong>im</strong> gleichen „logos“ oder „verhältnismäßig“). Der<br />

Begriff Analogie stammt also aus der griechischen Geistesgeschichte und ist ursprünglich ein<br />

Begriff der Philosophie, speziell der Mathematik, der in der pythagoreischen Schule entwickelt<br />

wurde. Seit Cicero entspricht das lateinische Wort „proportio“, auch „proportionalitas“ dem<br />

griechischen Wort „analogía“ und beide besitzen <strong>im</strong> Deutschen die Bedeutung „Entsprechung“<br />

oder „Verhältnisgleichheit“.<br />

Der Begriff wird in den verschiedenen Wissensbereichen in wechselnder Bedeutung, teils in<br />

einem weiten, teils in einem engen Sinn angewandt. Allgemein gilt jedoch, dass die Analogie<br />

dazu gebraucht wird, um Unbekanntes aus Bekanntem zu erschließen, oder um Ungleiches<br />

mit Ungleichem, also eigentlich Inkommensurables in Zusammenhang zu bringen. Dies<br />

geschieht aufgrund von Ähnlichkeit, oder enger gefasst aufgrund von Verhältnisgleichheit<br />

beziehungsweise Verhältniseinheit. Damit wird dem relationalen, dem verbindenden Charakter<br />

der Analogie Rechnung getragen. Durch Analogie kann der Zusammenhang ganz<br />

verschiedener Wirklichkeitsbereiche aufgedeckt und begrifflich ausgedrückt werden, da es<br />

sich bei der Analogie um eine Ähnlichkeit zwischen eigentlich unähnlichen Dingen handelt.<br />

Die Analogie ist also ein in der Philosophie und anderen Wissenschaften gebräuchlicher<br />

Begriff zur Bezeichnung eines Verfahrens oder von Ergebnissen der relationalen<br />

Verknüpfung von Sachverhalten. Dies kann sowohl <strong>im</strong> Erkenntnisprozess, zum Beispiel be<strong>im</strong><br />

<strong>analoge</strong>n Problemlösen, als auch <strong>im</strong> Wissen statt finden.<br />

Im Unterschied zur Äquivalenz, der Übereinst<strong>im</strong>mung in einer best<strong>im</strong>mten Hinsicht und der<br />

Gleichheit, also der Übereinst<strong>im</strong>mung in allen Hinsichten, ist die Analogie das Ergebnis eines<br />

Vergleichs, aufgrund dessen zwischen Eigenschaften oder Zuständen von Gegenständen<br />

oder Systemen auf die Relation der Ähnlichkeit, eines richtigen Verhältnisses oder einer<br />

Entsprechung geschlossen wird. Die Analogie ist Ähnlichkeit unterschiedlichen Grades<br />

hinsichtlich best<strong>im</strong>mter Aspekte und Eigenschaften zwischen unterschiedlichen<br />

Gegenständen oder Systemen, die <strong>im</strong> Grenzfall Identität erreichen kann.<br />

Die Analogie bezeichnet also einander strukturell oder funktional ähnliche Eigenschaften oder<br />

Zustände. Zum Beispiel kann das Verhältnis zwischen einem Gegenstand oder einem System<br />

und einem repräsentierenden Modell als Analogie bezeichnet werden.<br />

Die Analogie kann auch zur Gewinnung neuer Erkenntnisse verwendet werden. Dies kann<br />

beispielsweise geschehen, indem bekanntes Wissen auf neue Sachverhalte übertragen<br />

wird. 6 Auch so genannte Analogieschlüsse sind ein Mittel der Erschließung von noch<br />

Unbekanntem aus Bekanntem. Um die Funktionsweise eines Analogieschlusses zu verstehen,<br />

6 Vgl. hierzu auch den Vortrag von Frau Prof. Dr. Gabi Reinmann-Rothmeier „Pädagogisch-didaktische Ideen zur Repräsentation und<br />

Kommunikation von Wissen <strong>im</strong> Netz“ gehalten anlässlich des Symposiums „Bildkompetenz und Wissensvernetzung“ am 23.11.2001<br />

<strong>im</strong> Rahmen des Forschungsprojektes „<strong>Visuelle</strong> <strong>Kompetenz</strong> <strong>im</strong> <strong>Medienzeitalter</strong>“ an der Akademie der Bildenden Künste Stuttgart:<br />

„Be<strong>im</strong> Aufbau von Wissen mit Hilfe der Netztechnologie sind aus pädagogisch-psychologischer Sicht Kriterien und Standards für eine<br />

lernfreundliche Informationsgestaltung <strong>im</strong> Netz zu entwickeln. Diesbezüglich sind Ideen erforderlich, wie man die Nutzer in ihren<br />

Fähigkeiten unterstützen kann, damit diese Informationen <strong>im</strong> Netz besser und schneller verstehen. Nach Auffassung von Prof. Dr.<br />

Reinmann-Rothmeier erscheint in diesem Zusammenhang ein narrativer Ansatz mit systematischem Einsatz von Analogien und<br />

Geschichten mit bildhafter Begleitung sinnvoll. Dabei wäre mit einem Rückgriff auf Analogien, Geschichten in Verbindung mit bildhafter<br />

Begleitung eine Verbesserung der Darstellung und der Vermittlung von Wissen zu erzielen.“<br />

8


etrachte man folgenden Sachverhalt: A habe die Merkmale a, b, c, x; B habe die Merkmale a,<br />

b, c; wahrscheinlich hat B auch das Merkmal x. Die Merkmale von B st<strong>im</strong>men mit den ersten<br />

drei Merkmalen von A überein und aufgrund der Ähnlichkeit von A und B in drei Merkmalen<br />

wird auf die Möglichkeit geschlossen, dass B ebenfalls das vierte Merkmal x hat. Ein<br />

einfaches Beispiel wäre folgender Sachverhalt: Schüler A ist ein guter Schüler am<br />

Gymnasium (Merkmal a), beendet die Schule mit einem guten Abschluss (Merkmal b), bringt<br />

während seiner Studienzeit gute Leistungen (Merkmal c) und schließt sein Studium mit guten<br />

Noten ab (Merkmal x), so ist zu erwarten, dass Schüler B, der ebenfalls ein guter Schüler (a),<br />

mit gutem Abschluss (b) und guten Leistungen während des Studiums (c) sein Studium mit<br />

guten Noten abschließen wird.<br />

Eigenschaften<br />

A<br />

B<br />

C<br />

X<br />

⇒<br />

Eigenschaften<br />

a<br />

b<br />

c<br />

wahrscheinlich x<br />

Abbildung 1 : Schematische Darstellung des Analogieschlusses<br />

2.1.2 Begriffsgeschichte „analog“<br />

Die Begriffsgeschichte des Wortes „analog“ ist sehr alt. Bei den frühen griechischen<br />

Philosophen, vor allem bei den Pythagoreern, also circa 400 vor Christus, tritt der Aspekt des<br />

richtigen, harmonischen beziehungsweise angemessenen Verhältnisses hervor. Dieser<br />

Schule zufolge ist alles durch Zahlenverhältnisse beziehungsweise musikalische Intervalle<br />

best<strong>im</strong>mt und dadurch harmonisch und proportional geordnet, sowohl jede Sache an sich, wie<br />

auch der Kosmos als Ganzes. Die Analogie entwickelte sich ursprünglich als Begriff der<br />

Mathematik, genauer der pythagoreischen Schule. Er wurde dort zunächst in der Form der<br />

arithmetischen beziehungsweise geometrischen Analogie verwendet. Hier bedeutet er also<br />

zunächst jede Art von Gleichheit je nach der Verbindung zweier Zahlen. Später trat aber<br />

mehr die Gleichheit von Verhältnissen, die durch Teilung zustande kommen, in den<br />

Vordergrund. Die so genannte geometrische Proportion.<br />

Die pythagoreische Entdeckung der Proportionalität von musikalischen Intervallen führte<br />

bereits früh zu einer grundlegenden mathematischen Erörterung der Analogie, die sich auf die<br />

weitere Entwicklung des Begriffes best<strong>im</strong>mend auswirkte. Der erste überlieferte Nachweis<br />

dieser mathematischen Proportionslehre findet sich bei Archytas von Tarent 7 . Schon <strong>im</strong><br />

frühesten Zeugnis von Archytas von Tarent, werden drei Arten von <strong>analoge</strong>n Verhältnissen<br />

7 Archytas von Tarent, VS 47 B 2, zitiert nach: Historisches Wörterbuch der Rhetorik, Gert Ueding (Hrsg.), Band 1, Niemeyer Verlag,<br />

Tübingen 1992, S.500<br />

9


aufgeführt, die auch als musikalische Mittel bezeichnet werden. Er spricht von den folgenden<br />

drei Arten <strong>analoge</strong>r Verhältnisse:<br />

Nach der ersten stehen drei Glieder einer Reihe von Zahlen (Größen) derart „<strong>im</strong> Verhältnis“<br />

zueinander, dass die erste - und größte (z.B. 10) - um ebenso viel größer ist als die zweite<br />

(6) wie die zweite größer ist als die dritte (2). Bei dieser arithmetisch genannten Analogie<br />

(Abbildung 2) handelt es sich um die Gleichheit von Differenzen (z.B. 10-6 = 6-2).<br />

6-2 10-6<br />

Abbildung 2 : arithmetische Analogie<br />

Die zweite, die geometrische Analogie, besagt Gleichheit von Verhältnissen, die durch die<br />

Teilung zustande kommen (Abbildung 3). Das Verhältnis der ersten Zahl zur zweiten ist auch<br />

hier gleich dem der zweiten zur dritten (8:4 = 4:2). Eine dritte Art der Analogie ist die<br />

harmonische, die beide vorhergehenden verbindet: Die erste Zahl übertrifft die zweite um<br />

eben den Teil ihrer Größe, um welchen Teil ihrer selbst die dritte Zahl von der zweiten<br />

übertroffen wird. Wenn also die Zahl 6 um ein Drittel ihrer Größe (um 2) die Zahl 4 übertrifft,<br />

so übertrifft die Zahl 4 ihrerseits die Zahl 3 um ein Drittel von deren Größe (um 1).<br />

Da die harmonische Analogie in einer ihrer Eigenschaften der arithmetischen Analogie<br />

entgegengesetzt ist, wurde sie ursprünglich auch die entgegengesetzte Analogie genannt.<br />

4 : 2 8 : 4<br />

Abbildung 3 : geometrische Analogie<br />

In allen drei Fällen dient die Analogie der Best<strong>im</strong>mung der „Mitte“, die den Abstand zwischen<br />

den Außengliedern überbrückt und sie in eine Reihe bindet.<br />

Umgekehrt kann die Analogie als ein Prinzip der Reihenbildung betrachtet werden, wenn von<br />

der kleinsten Zahl aus in gleichen Abständen oder Verhältnissen fortgeschritten wird. In<br />

10


eiden Hinsichten finden wir die Analogie-Lehre bei Euklid 8 und Nikomachos 9 erwähnt.<br />

Gleiches findet sich bei Empedokles, der in diesem Punkt durch die Pythagoreische Lehre<br />

beeinflußt worden ist: „Die weißen Knochen sind nicht zufällig zusammengefügt aus zwei<br />

Teilen Erde, zwei Teilen Wasser und vier Teilen Feuer, sondern göttlich durch den Le<strong>im</strong> der<br />

Harmonia.“ 10 Das Best<strong>im</strong>men der Mitte fand nicht nur Anwendung in der Musik und<br />

Mathematik, sondern auch in der Kosmologie, wo nach der Weltordnung gefragt wurde, und in<br />

der Ethik, wo es um die Best<strong>im</strong>mung des Gerechten ging.<br />

Platon hat als erster den Begriff der Analogie in der Philosophie verwendet. Bei ihm hat die<br />

Analogie in verschiedener Weise Verwendung gefunden. So wird in der Philosophie Platons<br />

die Analogie unter anderem auch zu einem kosmologischen Strukturprinzip, weil Gott die Dinge<br />

analog und ebenmäßig geordnet hat, und in der Ethik ist das Gute von <strong>analoge</strong>r Bedeutung für<br />

die sinnliche und die Ideen-Welt. Der Aufstieg zum Guten ist dem der Sonne analog. Er benutzt<br />

in seinen Dialogen an vielen Stellen Beispiele, Gleichnisse und Vergleiche als Mittel der<br />

Beweisführung. So wird <strong>im</strong> „Phaedon“ 11 die Unsterblichkeit der Seele anhand von<br />

Vergleichen bewiesen und in der „Politeia“ 12 die Gerechtigkeit des einzelnen Menschen mit<br />

der des Staates verglichen. Die Analogie ist in der Funktion eines kosmischen<br />

Ordnungsprinzipes zu sehen, das die vier Elemente zusammenfügt und in dasselbe Verhältnis<br />

setzt. Dabei werden die entferntesten Elemente (Feuer und Erde), die äußeren Glieder und die<br />

dazwischen liegenden Elemente (Luft und Wasser), die Mittelglieder derart ins Verhältnis<br />

gesetzt dass gilt: wie das Feuer zur Luft, so die Luft zum Wasser, und wie die Luft zum<br />

Wasser, so das Wasser zur Erde. Auf diese Weise hat Gott nach Platon die sichtbare und<br />

greifbare Welt als eine vollkommene Einheit verknüpfen und gestalten können.<br />

Bei Aristoteles tritt die kosmologische Anwendung der Analogie ganz zurück. Er knüpft in<br />

seiner Naturforschung eher an die mathematische Auffassung der Analogie an. In seiner<br />

„Metaphysik“ ist die Analogie das prädikative Verfahren der Herstellung von Beziehungen<br />

zwischen nicht zusammengehörenden Sachverhalten: „Der Gattung nach sind alle Dinge<br />

eines, die es der Gestalt nach sind, - während nicht alle Dinge, die der Gattung nach eines<br />

sind, auch der Gestalt nach eines sind. Solche Dinge sind aber sämtlich der Analogie nach<br />

eines, während nicht alle Dinge, die der Analogie nach eines sind, dies auch der Gattung<br />

nach sind.“ 13 Dieses Verfahren setzt er ein, um zum Beispiel unterschiedliche Lebewesen<br />

aufgrund <strong>analoge</strong>r Funktionen klassifizieren zu können: „was dem Vogel der Flügel, ist dem<br />

Fisch die Flosse“. 14<br />

In der „Poetik“ tritt die Analogie hervor bei der Metaphernbildung oder der Wortübertragung,<br />

wo Wörter in uneigentlicher Bedeutung verwendet werden. Bei der Bildung einer Metapher<br />

8 Euklid, Die Elemente Kapitel V und VII (nach Eudoxos), zitiert nach: Historisches Wörterbuch der Philosophie, Joach<strong>im</strong> Ritter<br />

(Hrsg.), Band 1, Schwabe & Co. Verlag, Stuttgart 1971, S. 214<br />

9 Nikomachos, Introductio arithmetica II, zitiert nach: ebd.<br />

10 Empedokles, VS 31 B 96, zitiert nach: Historisches Wörterbuch der Rhetorik (1992), S. 500<br />

11 Platon, Phaedon, zitiert nach: Historisches Wörterbuch der Rhetorik (1992), S. 501<br />

12 Platon, Politeia, zitiert nach: dito, S. 502<br />

13 Aristoteles, Metaphysik, zitiert nach: Enzyklopädie Philosophie, Hans Jörg Sandkühler (Hrsg.), Felix Meiner Verlag, Hamburg 1999,<br />

S.48<br />

14 Aristoteles, De part. an<strong>im</strong>al. I, zitiert nach: Historisches Wörterbuch der Philosophie (1971), S. 217<br />

11


gemäß der Analogie wird anstelle der zweiten Größe die vierte oder umgekehrt anstelle der<br />

vierten die zweite gesetzt. Verhält sich zum Beispiel die Weinschale (2) ähnlich zu Dionysios<br />

(1) wie der Schild (4) zu Ares (3), so kann man die Weinschale (2) Schild (4) des Dionysios<br />

oder den Schild (4) Schale (2) des Ares nennen. Oder, verhält sich das Alter (2) ähnlich zum<br />

Leben (1) wie der Abend (4) zum Tag(3), so kann man das Alter (2) als Abend (4) des<br />

Lebens und den Abend (4) als Alter (2) des Tages benennen. 15 Die Analogie kann in dieser<br />

Funktion auch dafür benutzt werden, um einen passenden Ausdruck für etwas zu finden, wo<br />

eine eigene Bezeichnung fehlt. So gibt es kein eigenes Wort für die Tätigkeit der Sonne, die ihr<br />

Licht ausstrahlt. Da sich jedoch diese Tätigkeit (2) ähnlich zum Sonnenlicht (1) verhält wie das<br />

Säen (4) zum Samen (3), kann man sagen ,dass die Sonne ihr Licht (1) sät (4). 16 In beiden<br />

Fällen geschieht eine Übertragung gemäß der Analogie.<br />

In der Stoa wurde die Analogie in der Erkenntnislehre und Ethik verwendet. Das sinnliche<br />

Wahrgenommene kann aufgrund der Analogie vergrößert oder verkleinert werden, wodurch<br />

man zu neuen Vorstellungen und Begriffen, zum Beispiel von Riesen und Zwergen, kommen<br />

kann. Die Stoa hat die Analogie aber vor allem als ein induktives Verfahren geprägt: Analogien<br />

führen von Bekanntem zu Unbekanntem aufgrund eines beiden gemeinsamen „logos“. 17<br />

Die Analogielehre des lateinischen Mittelalters knüpft hauptsächlich an die antiken Vorgaben<br />

an. Bedeutend sind vor allem die Anwendungen der Analogielehre in der Grammatik, der<br />

theologisch-philosophischen Spekulation seit dem 13. Jahrhundert und in den mathematischen<br />

und naturwissenschaftlichen Werken des Spätmittelalters. In den Künsten besaß die Analogie<br />

große Bedeutung. Es war eine gängige Vorstellung, dass die Einhaltung der Proportionen<br />

unmittelbar mit dem Grad der Schönheit verbunden war. Von allen Definitionen der Schönheit<br />

hatte eine <strong>im</strong> Mittelalter besonders Erfolg. Sie stammte von Augustinus: „Quid est corporis<br />

pulchritudo? Congruentia partium cum quadam coloris suavitate.“ 18 (Worin besteht die<br />

körperliche Schönheit? Im richtigen Verhältnis der Teile zueinander in Verbindung mit einer<br />

gewissen Lieblichkeit der Farben.)<br />

Die Theoretiker und Verfasser praxisbezogener Abhandlungen bezogen sich auf Vitruv,<br />

durch den die Theorie der Proportionen in das Mittelalter weitergegeben wurde (später durch<br />

Leonhardo da Vinci illustriert). Diese finden in Vitruvs Schriften nicht nur die Termini<br />

„proportio“ und „symmetria“, sondern auch Definitionen wie: „ratae partis membrorum in omni<br />

opere totiusque commodulatio o ex ipsius operis membris conveniens consensus ex<br />

partibus separatis ad universae figurae speciem ratae partis responsus.“ 19 In der also von<br />

der „Symmetrie der Elemente eines best<strong>im</strong>mten Teiles und des Ganzen in jedem Werk“ und<br />

vom „harmonischen Zusammenst<strong>im</strong>men der Elemente des Werkes und der Korrespondenz der<br />

einzelnen Teile eines best<strong>im</strong>mten Teiles zum Bild der gesamten Figur“ die Rede ist.<br />

15 Aristoteles, Poetik, zitiert nach: Historisches Wörterbuch der Rhetorik (1992), S. 502-503<br />

16 Aristoteles, Poetik, zitiert nach: ebd.<br />

17 Cicero, De finibus III, zitiert nach: Historisches Wörterbuch der Rhetorik (1992), S. 504<br />

18 Augustinus, Epistula 3, zitiert nach: Umberto Eco, Kunst und Schönheit <strong>im</strong> Mittelalter, Deutscher Taschenbuch Verlag, München<br />

1993, S.49<br />

19 Vitruv, De architectura III, zitiert nach: dito, S.50<br />

12


In der neuzeitlichen Wissenschaft tritt der Begriff in verschiedenen Kontexten in Erscheinung.<br />

Die Linguistik sieht die Analogie als die Erscheinung, dass Sprachmittel, die einander in<br />

irgendeiner Hinsicht (Inhalt, Gestalt, Formenbildung oder Fügungsweise) entsprechen, sich<br />

auch in den übrigen Stücken mehr oder weniger nacheinander richten. Das Prinzip der<br />

Übertragung von Lautungen und Wortformen fand in der zweiten Hälfte des 19. Jahrhunderts<br />

große Beachtung bei den Junggrammatikern. In der Literaturwissenschaft spielt sie eine Rolle<br />

bei dem Vergleich von literarischen Texten, wo sie als strukturelle Entsprechung zweier<br />

Erzählungen gilt. Gleichsam wird sie hier als Metapher und Gleichnis studiert.<br />

Mit dem Begriff der Analogie bezeichnet man in der Biologie Ähnlichkeiten verschiedener<br />

Organismen, die nicht auf Verwandtschaft beruhen, sondern unabhängig voneinander<br />

entstanden sind, zum Beispiel die Flügel der Insekten und der Vögel, die Linsenaugen der<br />

Tintenfische und die der Wirbeltiere. In diesen Fällen bedeutet analog nicht homolog. Da die<br />

Analogie meist auf gleicher Funktion der Strukturen beruht, wurde häufig Gleichheit der<br />

Funktion als Kriterium gesetzt.<br />

In der Logik wird sie als Methode des Schlussverfahrens behandelt, wo ihr zusätzlich noch<br />

als Modell, Entsprechung und strukturelle Abbildung ein bedeutender Wert bei der<br />

Formulierung von Hypothesen und Theorien zuerkannt wird. Allgemein gilt, dass die Analogie<br />

als Modell und Übereinst<strong>im</strong>mung sowohl in den Geistes- wie auch in den<br />

Naturwissenschaften zunehmend an Bedeutung gewinnt. In der neueren Diskussion wird<br />

mittlerweile zwischen struktureller- und funktionaler Analogie unterschieden. Unter einer<br />

struktureller Analogie versteht man dabei die völlige oder teilweise Übereinst<strong>im</strong>mung der<br />

Strukturen zweier Systeme, wobei von der konkreten stofflichen Realisierung der jeweiligen<br />

Systeme abstrahiert wird. Eine bekannte strukturelle Analogie ist die Analogie zwischen dem<br />

Bohrschen Atommodell (Nils Bohr) und dem Sonnensystem. In beiden Systemen gibt es einen<br />

Mittelpunkt, um den <strong>im</strong> einen Fall die Elektronen, <strong>im</strong> anderen die Planeten auf konzentrischen<br />

Bahnen um denselben kreisen.<br />

13


Eine funktionale Analogie liegt dann vor, wenn zwei Systeme, die sich sowohl nach der Art<br />

ihrer Elemente, als auch in ihrem strukturellen Aufbau voneinander unterscheiden, <strong>im</strong> Hinblick<br />

auf die Funktionen, die sie erfüllen können, übereinst<strong>im</strong>men. Die funktionalen Analogien, wie<br />

zum Beispiel <strong>im</strong> Begriffspaar Schiffssteuermann, Staatssteuermann sind ungenauer als<br />

strukturelle und sind der Metapher, dem Symbol und der Allegorie verwandt. 20<br />

2.1.6 Zusammenfassung<br />

Zusammenfassend ist für die weiteren Gedankengänge in der vorliegenden Arbeit folgendes<br />

wesentlich: Zum einen kann „analog“ also soviel wie „gleichartig“ , „ähnlich“ , „entsprechend“<br />

bedeuten, <strong>im</strong> Sinne einer vorhandenen Analogie zwischen zwei Systemen oder<br />

Gegenständen. Dabei unterscheidet man heute zwischen der funktionalen und strukturellen<br />

Analogie. Desweiteren kann die Analogie als Schlussverfahren verwendet werden und es ist<br />

möglich eigentlich Ungleiches miteinander in Verbindung zu bringen. Im technischen<br />

Verständnis wird das Adjektiv <strong>im</strong> Sinne von „kontinuierlich“, „stufenlos“ verwendet. Diese<br />

Bedeutung wird <strong>im</strong> Zusammenhang der Geschichte des Begriffes „digital“ <strong>im</strong> Folgenden<br />

zusätzlich erläutert, denn sie entstand als Gegenstück zur Bedeutung des Begriffes „digital“.<br />

20 Dazu eine kurze Erinnerung der Begriffe Metapher, Symbol und Allegorie.<br />

Die Allegorie ist ein in Literatur und Bildender Kunst bekanntes Mittel zur Veranschaulichung eines oft abstrakten Gedankens, einer<br />

Vorstellung durch eine bildhafte Darstellung. Als Beispiel mag das Leben als Fastnachtsspiel in der Literatur dienen oder das Schiff und<br />

die Schiffahrt für die Staatsführung. Eine allegorische Figur nennt man auch die Darstellung eines abstrakten Begriffs als Person, zum<br />

Beispiel die Justitia mit den ausgeglichenen Waagschalen in der Hand als Verkörperung der Gerechtigkeit. Oder die Germania als<br />

Verkörperung des Deutschen Staates.<br />

Die Metapher ist ein sprachliches Verfahren der Übertragung der darzustellenden Wirklichkeit auf eine bildhafte Wirklichkeit.<br />

Darstellungsbereich und Abbildungsbereich sind durch ein gemeinsames semantisches (bedeutungsmäßiges) Merkmal miteinander<br />

verbunden. Ein Beispiel wäre der Ausdruck „ am Fuß des Berges“ (vergleiche auch die Bezeichnung „Piemont“ in Italien (am Fuß des<br />

Berges, eben der Alpen)) oder Flussbett. Gemeinsames Merkmal ist hier die Eigenschaft „ganz unten“. Die Metapher wird seit der<br />

Antike auch als verkürzter Vergleich erklärt. Es geht aber weniger um ein rationales Vergleichen zweier Gegenstandsbereiche als<br />

vielmehr um das Zusammenbringen von „Auseinanderliegendem“ in einem Bild.<br />

Ein Symbol ist eine Darstellung abstrakter geistiger oder seelischer Vorstellungen und Erfahrungen in konkreten oder anschaulichen<br />

Gegenständen, Sachverhalten oder Handlungen nennt man Symbol. Zum Beispiel ist Wasser seit jeher das Symbol des Lebens, aber<br />

auch des Todes, die Taube ist ein Symbol für den Frieden und das Herz ein Symbol für die Liebe.<br />

14


2.2 digital<br />

2.2.1 Zum Begriff<br />

Das Adjektiv „digital“, besitzt <strong>im</strong> deutschen mehrere Bedeutungen. Zum einen hat es die<br />

Bedeutung „mit dem Finger“ und berührt hierbei die medizinische Fachterminologie. Zum<br />

anderen bedeutet „digital“ soviel wie „in Stufen, in Schritten erfolgend.“ Es steht dann <strong>im</strong><br />

direkten Gegensatz zu analog <strong>im</strong> Sinne von kontinuierlich. Daneben erscheint es in der<br />

Technik <strong>im</strong> Sinn von „Informationen, Daten in Ziffern darstellend“. 21 Dazu hat sich in neuerer<br />

Zeit die eventuell unter dem Einfluss des englischen Wortes „digitalize“ aufgekommene<br />

Verbableitung „digitalisieren“ gebildet. Dies bedeutet in der Physik und der Technik in diskrete<br />

Einzelschritte auflösen, Informationen computergerecht umwandeln, ziffernmäßig darstellen.<br />

So wird bei einer Digitaluhr die Uhrzeit oder auf einem Thermometer die Temperatur unter<br />

Zuhilfenahme von Ziffern dargestellt. Das zugehörige Verbalsubstantiv heißt „Digitalisierung“.<br />

Das Wort „digital“ wird mittlerweile als Präfix oft in einem anderen Sinn verwendet. Infolge des<br />

Marktangebotes und der Werbung wird das Wort häufig in Verbindung mit den Begriffen<br />

„modernste Technik“ oder „neuartige Technik“ gebraucht. Es suggeriert so die Modernität, der<br />

als digital ausgezeichneten Medien.<br />

2.2.2 Begriffsgeschichte „digital“<br />

Über das Wort „digital“ lässt sich angesichts der wesentlich kürzeren Begriffsgeschichte<br />

deutlich weniger sagen. Das deutsche Adjektiv „digital“ in der Bedeutung „in Stufen, in<br />

Schritten erfolgend“ und „Informationen, Daten in Ziffern darstellend“ wurde Mitte des 20.<br />

Jahrhunderts aus dem gleichbedeutenden englischen „digital“ entlehnt, ist also über die<br />

englische Fachsprache ins Deutsche gekommen. In der Bedeutung „mit Hilfe des Fingers“ ist<br />

es <strong>im</strong> Deutschen wesentlich älter. Das Wort „digital“ hat also zwei Wurzeln.<br />

Betrachtet man zunächst die ältere Bedeutung kann man folgendes feststellen. Das Wort<br />

wurde aus dem lateinischen Wort „digitalis“ entlehnt, was soviel wie „mit dem Finger“ heißt,<br />

von lateinisch „digitus“, „der Finger“ oder auch „die Zehe“. (vgl. auch dt. „der Fingerhut“, mit<br />

dem lateinischen Namen „Digitalis“)<br />

Der Finger wurde unter anderem zum Zeigen verwendet zum Beispiel be<strong>im</strong> Vortrag einer<br />

Rede in gewissen Haltungen und best<strong>im</strong>mten Bewegungen. (vgl. auch Zeigefinger). 22<br />

Zum anderen ist es eine Andeutung auf das Zählen. Denn früher wurde mit den Fingern<br />

gezählt, woher unter anderem unser dekadisches Zahlensystem herrührt. So war die<br />

Bezeichnung „digiti“ für „Fingerzahlen“ noch <strong>im</strong> 18. Jahrhundert sehr geläufig, so dass sie <strong>im</strong><br />

„Grossen vollständigen Universal Lexikon“ aus dem Jahr 1734 wie folgt beschrieben wird:<br />

„digiti heißen bei einigen die Zahlen von 0 - 9 oder die s<strong>im</strong>plen Einheiten in der dekadischen<br />

21 Duden - Das Fremdwörterbuch, hg. von der Dudenredaktion, Band 5, 5. neu bearbeitete und erweiterte Auflage, Dudenverlag,<br />

Mannhe<strong>im</strong> 1990<br />

22 Eckart Zundel, Clavis Quintilianea, wissenschaftliche Buchgesellschaft, Darmstadt 1989, S.28<br />

15


Rechnung, weil man solche gemeiniglich an Fingern abzuzehlen pflegt, daher man sie auch<br />

Fingerzahlen <strong>im</strong> Teutschen nennen könnte.“ 23<br />

In der Medizin gibt es heute noch Fachtermini, die sich auf die Bedeutung „mit dem Finger“<br />

beziehen. Im Jahre 1929 wurde das Adjektiv „digital“ <strong>im</strong> Brockhaus 24 noch ausschließlich <strong>im</strong><br />

medizinischen Kontext erwähnt. Die zweite Bedeutungsebene wurde erst später, Mitte des<br />

20. Jahrhunderts ins Deutsche übernommen.<br />

In dieser, der anderen Herkunft von „digital“ steckt das heutige englische Wort „digit“, was<br />

soviel wie „Zeichen“, „Ziffer“ oder auch „Dez<strong>im</strong>alstelle“ bedeutet. Das englische Wort „digit“<br />

stammt von dem sehr alten englischen Ausdruck „digit“ ab. Der Ausdruck aus der Arithmetik<br />

(um 1398), bezeichnete ebenfalls zunächst die ersten Ziffern bis Zehn, die man mit den<br />

Fingern abzählen kann (vgl. oben „digiti“). Der Ausdruck „digit“ wurde dann als Attribut in der<br />

Form „digite number“ verwendet (um 1613).<br />

Das Wort „digital“ <strong>im</strong> Sinne von „mit diskreten Werten operierend“, also nicht kontinuierlichen<br />

entwickelte sich in der Elektrotechnik, parallel zu den technischen Errungenschaften. In dieser<br />

Bedeutung wurde es zuerst in den 30er Jahren, um 1938 verwendet und hat sich dann in der<br />

Elektrotechnik, bedingt auch durch den 2. Weltkrieg, bis 1945 stark verbreitet. 25 Gleichzeitig<br />

entstand „analog“ <strong>im</strong> Sinne von „kontinuierlich“ als Gegenstück. Das Wort „digital“ wurde dabei<br />

vermutlich erstmals <strong>im</strong> Umkreis der letzten Version des Differential Analyzers von Vanevar<br />

Bush geprägt, das bereits ein analog-<strong>digitale</strong>r Hybrid war. Also ein Apparat, der eine<br />

Mischform aus <strong>analoge</strong>m und <strong>digitale</strong>m Rechner darstellte und zur Berechnung von<br />

Differential-Gleichungen eingesetzt wurde. Diese bereits als digital bezeichneten Rechner<br />

gingen als Weiterentwicklung aus den Analogrechnern hervor.<br />

„Claude E. Shannon war 1936 als Forschungsassistent für den Differential Analyzer ans MIT<br />

gekommen, nachdem er seinen Abschluß als Bachelor sowohl in Mathematik als auch in<br />

Elektrotechnik gemacht hatte. Shannon schrieb einen Aufsatz über die mathematische<br />

Theorie des Differential Analyzers und entwickelte eine Standardnotation für die<br />

Einstellungen des Analyzers, die einfacher und allgemeiner war als die von Vanevar Bush<br />

entwickelte. Shannon begann sich jedoch auch für die Schalter als solche zu interessieren<br />

und für ihr Potential für Berechnungen (nicht nur für die Beschreibung von Berechnungen).<br />

Seine Magisterarbeit von 1937 “A Symbolic Analysis of Relay and Switching Circuits”<br />

untersuchte die logische Struktur und die Synthese von Relaisschaltkreisen “in automatic<br />

telephone exchanges, industrial motor-control equipment, and in almost any circuits<br />

designed to perform complex operations automatically.” Shannon ging explizit von der<br />

Struktur und der Notation der elektrischen Netzwerktheorie aus und zeigte, dass “several of<br />

the well-known theorems on <strong>im</strong>pedance networks have roughly analogous theorems in relay<br />

circuits.” Er wendete Boolesche Algebra auf Systeme von Relais an und zeigte, wie sie<br />

analysiert und zusammengesetzt werden konnten durch binäre Arithmetik und klassische<br />

23 Johann Heinrich Zedler, Grosses vollständiges Universal Lexikon, Band 7, Akad. Druck- und Verlagsanstalt, Graz 1961<br />

(Erstveröffentlichung 1734)<br />

24 Der große Brockhaus, A-Z, Band 4, Brockhaus Verlag, Leipzig 1929<br />

25 Josette Rey-Debove und Gilberte Gagnon (Hrsg.), Dictionnaire des Anglicismes, Verlag Le Robert, Paris 1988<br />

16


Wahrheitswertlogik mit ihren Funktionen von „Nicht“, „Oder“ und „Und“. Einmal in Algebra<br />

übersetzt, konnten Schaltfunktionen nach gewöhnlichen Regeln manipuliert werden, was den<br />

Planer in die Lage versetzte, den effektivsten Schaltkreis für eine gegebene logische<br />

Funktion zu entwerfen. Mit einem Schlag führte Shannon damit den Entwurf von<br />

Schaltungssystemen in die Welt der mathematischen Logik und der Netzwerktheorie ein. Als<br />

Shannons Arbeit veröffentlich wurde, war ein junger Ingenieur namens George Stibitz in der<br />

Abteilung für Mathematik in den Bell Laboratories damit beschäftigt, Rechenmaschinen aus<br />

alten Telefonrelais zu bauen. “I was delighted", erinnerte sich Stibitz später, " with the<br />

s<strong>im</strong>plicity and conciseness.” Er übernahm sofort Shannons netzwerkähnliche Notation.<br />

Stibitz prägte ebenfalls einen neuen Begriff für Rechenmaschinen die Schaltkreise,<br />

Boolesche Algebra und den Binärcode verwendeten: er nannte sie digital.“ 26<br />

Die Bedeutung „mit diskreten Werten operierend“, „mit Zeichen arbeitend“ oder auch<br />

„Informationen, Daten in Ziffern darstellend“ kam also daher, dass die neuen Rechenanlagen<br />

in der Lage waren mit einem Symbolvorrat, eben mit vorher festgelegten Zeichen zu arbeiten.<br />

Da es besonders einfach war die Schaltungen mit den zwei Stromzuständen „fließt“ und<br />

„fließt nicht“ zu realisieren, wurden die zu lösenden Probleme binär, also auf zwei Zeichen<br />

reduziert, codiert. Für die Vereinfachung der Schaltungen konnte dann die Boolesche Algebra<br />

eingesetzt werden, die es erlaubt, über einfache Berechnungen komplizierte Schaltzustände<br />

auf weniger komplexe zu vereinfachen. Nachdem der Begriff in dieser Bedeutung geprägt<br />

war, wurde er durch technische Entwicklungen und deren Verbreitung in der Alltagskultur<br />

zunehmend bekannt. Es gab mehrere bedeutende Phasen in denen der Begriff an Popularität<br />

gewann.<br />

Der erste Schub war in den 60er Jahren, als die Digitaltechnik zunehmend Einzug in die<br />

Alltagswelt hielt. Die Digitaltechnik wurde in der Verkehrstechnik, zum Beispiel bei<br />

Signalanlagen oder in Fahrkartenautomaten eingesetzt. So meldete die Stuttgarter Zeitung vom<br />

1.12.1967: „Elektronische Rechenmaschinen kommen in Deutschland mehr und mehr in<br />

Gebrauch, die sich aus den verschiedensten Bausteinen der Digitaltechnik<br />

zusammensetzen.“<br />

Bald darauf, in den frühen 70er Jahren kamen die ersten Digitaluhren auf den Markt. Mit der<br />

Verbreitung der Digitaluhren wurde der Begriff sehr populär. FAZ vom 14.4.1971: „die [...]<br />

erste quarzgesteuerte Digitaluhr (Ziffern statt Zeigeranzeige) mit Batteriebetrieb.“<br />

In den frühen 80er Jahren brachte Sony ein neues Medium auf den Markt, dass als Ersatz der<br />

bisher bekannten Schallplatte gedacht war, die Compact Disc, kurz CD. Die Scheibe war klein<br />

und handlich, glänzte verheisungsvoll silbern, war anscheinend robuster gegenüber Kratzern<br />

und sollte wesentlich bessere Klangqualität bieten.<br />

FAZ 3.3.1983 über die Compact Disc: „Über die Technik der neuen, zwölf Zent<strong>im</strong>eter großen,<br />

silberglänzenden Scheiben soll hier nur gesagt werden, dass sie anstelle der bisherigen<br />

26 Diese Informationen konnte ich freundlicherweise von Herrn Prof. Dr. Bernhard Siegert, Bauhaus Uni We<strong>im</strong>ar, Fakultät Medien<br />

erhalten.<br />

17


„<strong>analoge</strong>n“ Schallrille eine ziffernmäßig „digital“ verschlüsselte Folge von Impulsen in Form<br />

mikroskopisch kleiner Erhebungen „pits“ speichern...“<br />

Und auch in der Kommunikationstechnik sollte bald die Umstellung auf die <strong>digitale</strong> Technik<br />

erfolgen. So stellte die Deutsche Bundespost ein neues Verfahren der Übermittlung bei<br />

Telefongesprächen zur Verfügung. Die Informationen wurden nicht mehr als Strom<strong>im</strong>pulse<br />

analog zu den zu übermittelnden Schallfrequenzen, sondern codiert als binäres Signal<br />

geschickt. Darüber hinaus war es nun möglich schnellere Datenverbindungen aufzubauen,<br />

um zum Beispiel Videokonferenzen mit Bildtelefonen zu führen oder Datenpakete zu<br />

verschicken. FAZ 9.1.1985: „Die Übertragung von Telefongesprächen erfolgt heute noch auf<br />

„<strong>analoge</strong>“ Weise: Die elektronischen Signale sind dabei ein Abbild der akustischen<br />

Schwingungen. Künftig wird jedoch der Telefonverkehr in der <strong>digitale</strong>n Sprache des<br />

Computers als eine Zahlenfolge aus 0 und 1 abgewickelt.“<br />

Heute werden bei Neuinstallationen ausschließlich <strong>digitale</strong> Anschlüsse geschaltet. So wird<br />

das <strong>analoge</strong> Netz zunehmend durch das <strong>digitale</strong> ersetzt. Spiegel vom 17.5.1993: „Ab Januar<br />

löst das <strong>digitale</strong> Fernmeldenetz ISDN (Integrated -Services Digital Network) der Telekom<br />

die Analogvermittlung [...] nach und nach ab.“<br />

2.2.3 Zusammenfassung<br />

Der Begriff „digital“ hat <strong>im</strong> deutschen zwei Wurzeln. Zum einen kann er in der Bedeutung „mit<br />

dem Finger“ verwendet werden. In diesem Sinne ist er oft noch <strong>im</strong> medizinischen Kontext zu<br />

finden. Zum anderen wird er heute überwiegend in einer technischen Bedeutung <strong>im</strong> Sinne von<br />

„Informationen, Daten in Ziffern darstellend“, „in Stufen, in Schritten“ oder auch „diskret“<br />

benutzt.<br />

Diese Bedeutung entstand durch den Einsatz von „Ziffern“ oder „Zahlen“ in der Arbeitsweise<br />

der Automaten. Durch die veränderte Rechnertechnologie war es möglich geworden, diese<br />

so genannte „Ziffernrechenmaschine“ vielseitig einzusetzen, indem man sie mit Symbolen<br />

programmiert. 27<br />

Der eigentliche Unterschied des Digitalrechners ist es also, dass er mit vorgegebenen Zeichen<br />

arbeiten konnte und somit vielseitig für die unterschiedlichsten Probleme einsetzbar war. Dazu<br />

musste er lediglich programmiert werden. Für die notwendigen Operationen der<br />

Problemlösung verwendete er einen Code, der aus festgelegten Symbolen bestand. Wenn<br />

man heute vom Rechner oder dem Computer spricht, meint man eigentlich diesen, den<br />

Digitalrechner. Um die unterschiedliche Arbeitsweisen besser verstehen zu können, soll <strong>im</strong><br />

Folgenden ein kurzer Abriss der Geschichte der Rechner gezeigt werden.<br />

27 Im Gegensatz zum bisher verwendeten Analogrechner, der speziell zur Lösung eines best<strong>im</strong>mten Problems gebaut wurde. Ein<br />

Analogrechner stellte eine physikalische Analogie zu einem Problem dar.<br />

18


2.3 Eine kurze Geschichte der Rechnertechnik<br />

Heutzutage verbindet man mit Computer automatisch eine digital arbeitende elektronische<br />

Rechen-Maschine. Bis in die Mitte des 20. Jahrhunderts wurden mit dem Begriff „Computer“<br />

jedoch noch Menschen bezeichnet, die teilweise mit mechanischen Tischrechenmaschinen<br />

ausgestattet aufwendige Berechnungen durchführten. Es ist kaum noch bekannt, dass es<br />

zwei Arten von Recheninstrumenten und Rechenmaschinen gab, von denen manche analog,<br />

andere digital arbeiteten.<br />

2.3.1 Geschichte der <strong>analoge</strong>n Rechner<br />

Analoge Rechengeräte gab es bereits in der Antike. Schon von den Griechen wurden<br />

Astrolabien gebaut, mit deren Hilfe die Positionen der Gestirne am Firmament zu einem<br />

gegebenen Datum oder aus dem Stand der Gestirne die (lokale) Uhrzeit best<strong>im</strong>mt werden<br />

kann. Astrolabien bestehen aus gegeneinander verdrehbaren Metallplatten sowie Zeigern, auf<br />

denen Koordinaten, Winkel- und Zeitskalen, Sternzeichen sowie weitere Hilfslinien eingraviert<br />

sind. Nach dem manuellen Einstellen der Scheiben und Zeiger lassen sich einzelne<br />

astronomische Werte ablesen. Es gab weiterhin Geräte, deren Einstellung sich fortwährend –<br />

entweder manuell oder durch einen Mechanismus angetrieben – veränderte, wodurch die<br />

angezeigten Positionen der Gestirne analog zu den beobachtbaren Positionen am Firmament<br />

wandern. Das älteste bekannte Gerät wird nach seinem Fundort als Antikythera-<br />

Mechanismus bezeichnet und stammt aus dem 1. Jahrhundert vor Christus. Eine<br />

Röntgenanalyse des nicht mehr funktionsfähigen Mechanismus ergab, dass er die Bewegung<br />

der Sonne <strong>im</strong> Tierkreis, Mondphasen sowie Auf- und Untergänge der hellen Sterne angezeigt<br />

haben muss<br />

Diese Geräte waren speziell auf astronomische „Berechnungen“ zugeschnitten. Aber auch<br />

zur Lösung allgemeiner Probleme bediente man sich verschiedenster nicht rechnerischer<br />

Methoden. Im Altertum wurden viele Probleme geometrisch mit Lineal und Zirkel gelöst. Zur<br />

Vereinfachung geometrischer Konstruktionen und Berechnungen wurden später eine Reihe<br />

von geschlitzten und mit Gelenken verbundenen Linealen entworfen. Darauf wurden<br />

verschiedene Skalen für spezielle (beispielsweise trigonometrische) Funktionen angebracht.<br />

Mit Hilfe eines Zirkels konnten dann einzelne Werte best<strong>im</strong>mt werden. Im 17. Jahrhundert<br />

erlangten Quadranten und Proportionalzirkel als wichtige Rechenhilfsmittel eine weite<br />

Verbreitung. Mit ihnen war neben dem Ablesen geometrischer und astronomischer Skalen<br />

unter Zuhilfenahme eines Zirkels auch das Multiplizieren und Dividieren möglich.<br />

Die Einführung logarithmischer Skalen in der ersten Hälfte des 17. Jahrhunderts reduzierte die<br />

Multiplikation zweier Zahlen auf die Addition von zwei logarithmischen Strecken - ebenfalls mit<br />

Hilfe eines Zirkels. Einfacher wurde das Rechnen mit logarithmischen Skalen durch die<br />

19


Einführung des Rechenschiebers, bei dem zwei oder mehr Skalen gegeneinander verschoben<br />

werden können. Das Problem bei all diesen Geräten ist die geringe Genauigkeit (2–4<br />

Dez<strong>im</strong>alstellen), die durch Verlängerung der Skalen erhöht werden kann. Man konstruierte für<br />

genauere Berechnungen längere Rechenschieber oder ordnete die logarithmischen Skalen<br />

auf Walzen an.<br />

Bei allen bisher beschriebenen Instrumenten ist das Ergebnis <strong>im</strong>mer direkt von der Einstellung<br />

abhängig. Beispielsweise ergibt die Multiplikation durch Aneinanderlegen zweier<br />

logarithmischer Skalen, innerhalb einer gewissen Genauigkeit, <strong>im</strong>mer dasselbe Resultat, das<br />

für weitere Berechnungen in einem anderen Medium aufbewahrt werden muss – meist durch<br />

Aufschreiben auf Papier. Zur Vereinfachung vieler Rechnungen ist es von Vorteil, dieses<br />

Übertragen von Werten zu reduzieren und Zwischenergebnisse direkt weiterverwenden zu<br />

können. Be<strong>im</strong> Ausrechnen eines best<strong>im</strong>mten Integrals wird das Ergebnis durch eine<br />

Summation von Funktionswerten erzielt, wobei der jeweils aktuelle Funktionswert zum<br />

bisherigen Wert addiert wird. Solch ein „Aufsummieren“ lässt sich mit speziellen<br />

mechanischen Integratoren durchführen, bei denen <strong>im</strong> Integrator das Zwischenergebnis<br />

„gespeichert“ wird.<br />

In der ersten Hälfte des 19. Jahrhunderts, wurden eine Reihe so genannter Plan<strong>im</strong>eter<br />

entwickelt, mit denen graphisch aufgezeichnete Funktionen integriert und Flächeninhalte<br />

best<strong>im</strong>mt werden konnten. Lord Kelvin zeigte bereits, dass sich durch eine rückgekoppelte<br />

Zusammenschaltung der Kugelintegratoren seines Harmonic Analysers prinzipiell auch<br />

Differentialgleichungen beliebigen Grades lösen lassen. Das von den Kugelintegratoren<br />

übertragene Drehmoment reichte jedoch nicht aus, um mehrere mit Reibung behaftete<br />

mechanische Elemente miteinander zu verbinden.<br />

2.3.2 Der Übergang zum <strong>digitale</strong>n Rechner<br />

In den 1920er Jahren wurde unter der Leitung von Vannevar Bush am MIT ein Gerät zur<br />

Behandlung von Differentialgleichungen zweiter Ordnung – der so genannte Produktintegraph<br />

– entwickelt. Bei diesem wurden ein elektrischer Stromzähler und ein Scheibenintegrator als<br />

zweites Integrationsglied miteinander verbunden.<br />

Dabei stellte sich der mechanische Scheibenintegrator als das einfachere und genauere<br />

Integrationsglied heraus. Um mehrere Scheibenintegratoren zusammenschalten zu können,<br />

musste jedoch das Problem der Ungenauigkeit durch Reibung und Schlupf gelöst werden.<br />

Harold Hazen, ein Mitarbeiter Bushs schlug vor, einen von C. W. Niemann entwickelten<br />

mechanischen Drehmomentverstärker einzusetzen. Damit konnten nun in der ersten Version,<br />

sechs Scheibenintegratoren zusammen mit anderen mechanischen Rechengetrieben sowie<br />

manuell bedienbare Eingabetische für spezielle Funktionswerte und Ausgabetische zum<br />

Aufzeichnen der Ausgabefunktion gekoppelt werden. Da der Umbau für eine neue<br />

Differentialgleichung sehr aufwendig war, wurde dieser Differential Analyzer <strong>im</strong><br />

20


Wesentlichen dort eingesetzt, wo eine Differentialgleichung für sehr viele Werte berechnet<br />

wurde. Beispielsweise best<strong>im</strong>mte man während des zweiten Weltkriegs<br />

Geschossflugbahnen, so genannte Trajektorien, mit unterschiedlichen Koeffizienten und<br />

Anfangsbedingungen, um daraus Schießtabellen zu generieren. Der Differential Analyser<br />

wurde auf der ganzen Welt nachgebaut und hat die Entwicklung des ENIAC (Electronic<br />

Numerical Integrator and Computer) maßgeblich beeinflusst, der als schnelles elektronisches<br />

Pendant zum an der Moore School eingesetzten Differential Analyzer geplant wurde. Der<br />

ENIAC wiederum gilt als wichtiger Ausgangspunkt für die Entwicklung elektronischer Rechner.<br />

Da der Umbau des mechanischen Differential Analysers sehr aufwendig war, wurde der<br />

zweite große Differential Analyser von Vannevar Bush 1942 zwar mit Scheibenintegratoren,<br />

aber mit „elektronischen Wellen“ gebaut. 28<br />

Wie oben bereits gezeigt, wurden die Rechner dann vollständig elektronisch. Die Mechanik<br />

wurde durch elektrische Schaltungen ersetzt, so dass der Rechner flexibel programmierbar<br />

wurde. Der <strong>digitale</strong> Rechner war geboren. Der Begriff digital wird sehr oft mit binär in<br />

Verbindung gebracht. So wird häufig vom Digitalrechner gesprochen, der ja mit einem binären<br />

Zahlensystem arbeitet. Der Digitalrechner ist eine Maschine, die nicht mechanisch, sondern mit<br />

einem vorgegebenen Vorrat an Zeichen, konkret Zahlen arbeitet. Grundsätzlich kann dies mit<br />

allen Zahlensystemen realisiert werden, aber die binäre, also auf zwei Zustände reduzierte<br />

Darstellung ist sehr geschickt. Denn sie kann sehr einfach mit den zwei Zuständen Strom<br />

„fließt“ oder „fließt nicht“ umgesetzt werden. Wie also die beiden Begriffe zusammenhängen<br />

soll <strong>im</strong> Folgenden gezeigt werden.<br />

2.4 Das Binär- und Dez<strong>im</strong>alsystem<br />

Für die meisten Menschen scheint das be<strong>im</strong> Zählen übliche dez<strong>im</strong>ale Zahlensystem<br />

naturgegeben zu sein. Es wird selten als Erfindung des Menschen angesehen. Von den<br />

ersten Anfängen des Zählens und des Ordnens bis zu unserem, den Alltag beherrschenden<br />

dez<strong>im</strong>alen Zahlensystem war es ein langer Weg. Die Erfindung des Dez<strong>im</strong>alsystems muss<br />

man aus der heutigen Sicht als geniale Leistung bezeichnen. Um hiervon eine Vorstellung zu<br />

bekommen, wollen wir uns kurz mit der allgemeinen Problematik des Zählens<br />

auseinandersetzen. Dabei versteht man, dass andere Zahlensysteme genauso natürlich sind<br />

wie das dez<strong>im</strong>ale.<br />

Ein Schäfer der Abends seine Schafe durchzählen wollte, konnte dies einfach tun, indem er<br />

die Menge der Schafe mit der Menge der kleinen Steine in seinem Lederbeutel verglich. Wenn<br />

die Mengen übereinst<strong>im</strong>mten konnte er beruhigt sein Schäferstündchen beginnen. Die<br />

Grenzen dieses vergleichenden Systems waren aber schnell erreicht, denn mit zunehmender<br />

Größe der Herde, hätte der Schäfer eine ebenso große Menge an Vergleichsgegenständen<br />

28 Vgl. Vortrag: Andreas Brennecke, Physikalische Analogien und Ziffernrechenmaschinen – Von mechanischen Rechengeräten zu<br />

Integrieranlagen und programmgesteuerten Maschinen.<br />

Quelle: http://iug.uni-paderborn.de/iug/veroffentlichungen/2000/anbr_greifswald/text.html (11.3.2002)<br />

21


herumtragen müssen. Dieses Problem konnte mit einer Übertragung der konkreten<br />

Vergleichsgegenstände auf abstrakte Zeichen gelöst werden. Nehmen wir an, der<br />

vorgeschichtliche Mensch habe Feuersteine hergestellt und sie zum Tausch angeboten. Um<br />

dieses Geschäft bewältigen zu können, hat er Symbole erfunden (und mit anderen Menschen<br />

vereinbart), die jeweils die Anzahl der Tauschobjekte oder deren Wert repräsentierten.<br />

Dies mag ursprünglich so ausgesehen haben, wie es Abbildung 4 (links) zeigt. Dieses<br />

Strichlisten-Verfahren ist heute noch gebräuchlich zum Beispiel bei einer Verkehrszählung<br />

oder auf dem Bierdeckel in der Gaststätte. Auch der Ausdruck „etwas auf dem Kerbholz<br />

haben“ ergibt sich übrigens so. Das Kerbholz war ein Gegenstand auf dem zum Beispiel<br />

Schulden eingeritzt wurden, um Streitigkeiten zu vermeiden. Jeder konnte den Stand ablesen<br />

und einer nachträglichen falschen Behauptung war vorgebeugt.<br />

Mit der wachsenden Anzahl der zu zählenden Elemente n<strong>im</strong>mt bei diesem System natürlich<br />

auch die Anzahl des wiederkehrenden gleichen Symbols zu. Bei großen Stückzahlen wird<br />

das Ganze bald nicht mehr überschaubar.<br />

Eine andere denkbare Möglichkeit der Darstellung von Zählergebnissen zeigt Abbildung 4<br />

(rechts). Für jede best<strong>im</strong>mte Anhäufung von abzuzählenden Elementen wird ein der Anzahl<br />

entsprechendes Symbol gesetzt. Das Problem hierbei ist, dass mit größer werdender Anzahl<br />

der Elemente irgendwann einmal der Vorrat an Symbolen erschöpft ist. Darüber hinaus führt<br />

die Vielfalt der Symbole unvermeidlich zu Verwirrungen und zu Mißverständnissen.<br />

I<br />

II<br />

III<br />

I<br />

∆<br />

Abbildung 4 : Zählen nach dem Strichlisten-Verfahren / Zählen durch Symbol-Zuordnung<br />

Die große Errungenschaft des Zählens war die Begrenzung der Symbole. Das erstaunliche<br />

war, dass ein System entwickelt werden konnte, das mit einer endlichen Anzahl von<br />

Symbolen beliebig viele Zahlen beschreiben konnte. Dazu mussten die wenigen festgelegten<br />

Symbole mehrfach verwendet werden. Die ersten Ansätze dazu finden sich bereits bei den<br />

Römischen Zahlen. Je nach Kombination der Symbole ergeben sich verschiedene<br />

Zahlenwerte, wobei das Repertoire der zur Verfügung stehenden Symbole begrenzt ist.<br />

Allerdings war das System sehr unübersichtlich und damit nicht sehr praktisch. Dies zeigt<br />

sich auch darin, dass in dieser Zeit nur sehr wenige mathematische Weiterentwicklungen<br />

entstanden.<br />

Der wesentliche Trick war dann ein so genanntes Positionssystem zu entwickeln. Dabei<br />

verwendet man eine begrenzte Anzahl von verschiedenen Symbolen. Diese werden je nach<br />

der Position auf der sie stehen unterschiedlich gewichtet.<br />

22


Im dez<strong>im</strong>alen Zahlensystem werden die zehn verschiedenen Ziffern 0 bis 9 in der so<br />

genannten Stellenschreibweise eingesetzt. So ist zum Beispiel die Zahl 124,3 als eine<br />

Abkürzung der ausführlichen Summenschreibweise 1 * 100 + 2 * 10 + 4 * 1 + 3 * 0.1<br />

aufzufassen. Die einzelnen Ziffern werden entsprechend ihrer Position <strong>im</strong> Stellensystem mit<br />

Gewichten multipliziert, die Potenzen von 10 sind. Die 10 ist dabei die so genannte Basis, da<br />

alle Gewichte in der Form 10 hoch x dargestellt werden können. Die Basis dieser Potenzen<br />

gibt dem Zahlensystem den Namen „Zehnersystem“, also „Dez<strong>im</strong>alsystem“ oder auch<br />

„dez<strong>im</strong>ales Zahlensystem“.<br />

Dez<strong>im</strong>alzahl ... 1 2 4 , 3 ...<br />

Stelle ... 2 1 0 -1 .... 1 * 100 + 2 * 10 + 4 * 1 + 3* 0.1<br />

Gewichtung 100 10 1 0.1<br />

Abbildung 5 : Schematische Darstellung der Funktionsweise des Dez<strong>im</strong>alsystems<br />

Man könnte natürlich ohne weiteres eine andere Zahl als Basis für ein Zahlensystem wählen.<br />

So wird be<strong>im</strong> „Binären-“ oder „Dualsystem“ die Zwei als Basis genommen. Jetzt werden alle<br />

Zahlen mit den Gewichten der Form 2 hoch x multipliziert. Wenn man zum Beispiel die dez<strong>im</strong>ale<br />

Zahl 11 binär darstellen will, muss man sie schrittweise in Potenzen von 2 auflösen. Dies sieht<br />

dann so aus: 1 * 8 + 0 * 4 + 1 * 2 + 1 * 1. Also entspricht die binäre Zahl 1011 der dez<strong>im</strong>alen<br />

11. Mit genau diesem Zahlensystem arbeiten die Digitalrechner, weil alle Zahlen mit nur zwei<br />

Symbolen, eben der Null und der Eins dargestellt werden können. Mit Computern können aber<br />

nicht nur Zahlen, sondern auch Schrift oder <strong>Bilder</strong> verarbeitet werden. Dies geschieht zum<br />

Beispiel bei der Schrift durch Zuordnung von Buchstaben zu binären Zahlen. Die<br />

Informationen müssen also codiert werden. Damit nicht jeder Rechner ein anderes System der<br />

Zuordnung verwendet, wurden in diesem Zusammenhang Standards definiert. Einer dieser<br />

Standards ist der so genannte ASCII-Code (American Standard Code for Information<br />

Interchange). Er legt zum Beispiel fest, dass der Buchstabe „A“ den binären Code „1000001“<br />

besitzt (dez<strong>im</strong>al 65). Über die Begriffe „Code“ und „Information“ wird <strong>im</strong> Folgenden noch<br />

ausführlich zu sprechen sein. Denn wie bereits gesagt, werden ja auch <strong>Bilder</strong> derart codiert<br />

und um diese wollen wir uns speziell kümmern.<br />

2.5 Konsequenzen<br />

Die Klärung der Begriffe und der Rückblick in die Begriffsgeschichte haben eine gute<br />

Vorstellung von den Bedeutungen der Begriffe gegeben. Es ist jetzt klar, dass der Begriff<br />

„digital“ in seiner Bedeutung, wenn er <strong>im</strong> Zusammenhang mit Medien verwendet wird, sehr<br />

23


jung ist. Die neue Bedeutung <strong>im</strong> Sinne von „in Stufen, in Schritten“ wurde erst mit der<br />

Entwicklung der „Ziffernrechenmaschinen“, also den „<strong>digitale</strong>n“ Rechnern geprägt. Diese sind<br />

als Weiterentwicklung der bis dahin vorhandenen „<strong>analoge</strong>n“ Rechner beziehungsweise<br />

Rechenmaschinen entstanden. Wir haben gesehen, dass die „<strong>digitale</strong>n“ Rechner <strong>im</strong><br />

Unterschied zu den <strong>analoge</strong>n Apparaten elektronisch und mit einem Zeichenvorrat arbeiten,<br />

also mit einem vorgegebenen Symbolsystem. Dabei ist dieses Symbolsystem in seinem<br />

Umfang beschränkt, besitzt nur endlich viele verschiedene Symbole.<br />

Wir können festhalten, dass die Frage, warum <strong>analoge</strong> Medien, als analog bezeichnet<br />

werden, zunächst nur teilweise beantwortet werden kann. Eine Möglichkeit der<br />

Beantwortung ergibt sich aus der Bedeutung und der Begriffsgeschichte, indem man sagt,<br />

dass <strong>analoge</strong> <strong>Bilder</strong> eine Entsprechung, dessen was sie darstellen, aufweisen. Dies wäre<br />

zum Beispiel bei einem gemalten oder gezeichneten Porträt der Fall oder bei einer Fotografie<br />

mit ihrer hohen „Wiedergabetreue“. In allen Fällen besteht sozusagen eine Ähnlichkeit<br />

zwischen dem Bild und dem Abgebildeten. Dabei besitzt das Wort „analog“, wenn man es in<br />

dieser Bedeutung versteht, kein zugehöriges Gegenstück in den Bedeutungen des Wortes<br />

„digital“. In diesem Sinne kann <strong>im</strong> Übrigen auch ein <strong>digitale</strong>s Bild analog sein. Wenn man daran<br />

denkt, dass man eine Porträtfotografie auch „einscannen“, also in den Computer einlesen kann<br />

und diese dann digital vorliegt. Hierbei würde es sich dann um ein <strong>analoge</strong>s <strong>digitale</strong>s Bild<br />

handeln. Ein erster Eindruck der sich aufzwängt ist, dass wir mit den begrifflichen<br />

Annäherungen keine besonders klare Vorstellung der spezifischen Eigenschaften der beiden<br />

Medienklassen erhalten haben. Es scheint als wären die Begriffe nicht selbsterklärend.<br />

Aber da gibt es ja noch die andere Bedeutungsebene der beiden Begriffe: „Analog“ <strong>im</strong> Sinne<br />

von „kontinuierlich“, als Gegenstück zu „digital“ <strong>im</strong> Sinne von „in Stufen, in Schritten“ oder<br />

auch „diskret“. Um dies auf die Situation der <strong>Bilder</strong> zu übertragen und den Zusammenhang zu<br />

den Eigenschaften herstellen zu können, müssen wir uns <strong>im</strong> Folgenden etwas eingehender<br />

mit den Medien und ihren Produktionsbedingungen beschäftigen.<br />

24


3. Analoge und <strong>digitale</strong> Bildmedien<br />

3.1 Grundsätzliches<br />

Es gibt so genannte <strong>analoge</strong> und <strong>digitale</strong> Bildmedien 29 . Ziel dieses Kapitels soll es sein, die<br />

Eigenschaften der <strong>analoge</strong>n und <strong>digitale</strong>n Medien darzulegen. Wenn man dann die<br />

Unterschiede betrachtet, kann man feststellen, welches die spezifische Eigenschaften der<br />

<strong>analoge</strong>n und <strong>digitale</strong>n Medien sind. Am Beispiel der Fotografie werden die Verfahren<br />

vorgestellt und ihre Unterschiede heraus gearbeitet.<br />

Die Fotografie bietet sich aus zwei Gründen an. Zum einen gibt es in der Fotografie beide<br />

Verfahren, also sowohl die <strong>analoge</strong>, als auch die <strong>digitale</strong> Verarbeitung. Dies macht einen<br />

Vergleich sinnvoll und auch einfacher. Zum anderen habe ich durch eigene künstlerische<br />

Arbeit mit diesem Medium selbst praktische Erfahrungen sammeln können.<br />

Um die Erkenntnisse allgemein zu halten, sie also nicht ausschließlich auf die Fotografie zu<br />

beziehen, wird <strong>im</strong> Anschluss das grundsätzliche Prinzip der Digitalisierung und des inversen<br />

Verfahrens der Analogisierung erläutert. Schließlich sollen also die beiden abstrakten<br />

Transformationsprozesse dargestellt werden.<br />

Im Folgenden werde ich mich <strong>im</strong> wesentlichen auf Veröffentlichungen von Christian<br />

Wittwer 30 , sowie Gottfried Jäger 31 beziehen, weil ich bei der Durchsicht der Literatur viele<br />

meiner Gedanken dort bereits angedacht fand.<br />

29 „Das Wort Medium kann in drei verschiedenen Bedeutungen verstanden werden. So wird es <strong>im</strong> allgemeinen Sprachgebrauch<br />

(erstens), als Wort, heißt Medium „Mittel“ oder „Vermittelndes“. In verschiedenen Disziplinen wird Medium sodann (zweitens) als<br />

Fachbegriff verwendet. In diesem Sinn spricht die Pädagogik von den „Unterrichtsmedien“, die Literaturwissenschaft vom Medium<br />

„Literatur“, die Musikwissenschaft vom „Medium Musik“, die Kunstwissenschaft vom „Medium Kunst“, die Sprachwissenschaft vom<br />

„Medium Sprache“. In diesem Zusammenhang spielt aber der Medienbegriff keine zentrale Rolle für die jeweilige Fachwissenschaft;<br />

vielmehr wird „Medium“ in aller Regel nur <strong>im</strong> übertragenen, <strong>analoge</strong>n Sinn gebraucht, oder es dominiert der Charakter des<br />

Instrumentellen. Darauf kann kaum deutlich genug hingewiesen werden: Wenn man vom Licht oder vom Rad, von der Uhr oder von der<br />

Schreibmaschine usf. als von „Medien“ spricht (z.B. Marshall McLuhan), dann sind damit stets nur ganz allgemein, oft metaphorisch<br />

umkleidet, Werkzeuge oder Mittel oder Instrumente gemeint. In dieser Form kann schlechthin alles ein Medium sein.<br />

Einige Disziplinen widmen sich zentral dem „Medium“, und hier kann man nicht mehr lediglich von Begriffen oder gar nur Wörtern<br />

sprechen, sondern hier wurde (drittens) komplexere theoretische Bedeutungen von „Medium“ als spezifische Phänomen entwickelt.<br />

Schon in der Terminologie unterscheiden sich die Auffassungen beträchtlich voneinander: Einmal heißt Medium „Zeichenvorrat“<br />

(Informatik und Kybernetik), dann „technischer Kanal“ (Kommunikationssoziologie und Massenkommunikationsforschung/Publizistikwissenschaft),<br />

dann wiederum „ästhetisches Kommunikationsmittel“ (Einzelmedientheorie und<br />

Medienwissenschaft) oder schließlich „gesellschaftliche Interaktion“ (Soziologie, speziell Systemtheorie). Neuerdings wird verstärkt<br />

vom einzelnen Medium als einem eigenständigen „System“ gesprochen; teilweise meint System hier aber auch die Gesamtheit aller<br />

Medien.“ Werner Faulstich (Hrsg.), Grundwissen Medien, 4. Auflage, Wilhelm Fink Verlag, München 2000, S. 21<br />

Das Wort Medium wird <strong>im</strong> Folgenden in der Bedeutung „ästhetisches Kommunikationsmittel“ verwendet werden.<br />

30 Christian Wittwer, Das <strong>digitale</strong> Bild ist keine Fotografie, in: Neue Zürcher Zeitung 8.11.1996<br />

31 Gottfried Jäger, Andreas Dress (Hrsg.), Visualisierung in Mathematik, Technik und Kunst, Vieweg, Braunschweig, Wiesbaden 1999<br />

25


3.2 Analoge und <strong>digitale</strong> Darstellungen<br />

3.2.1 Einführung<br />

Um <strong>analoge</strong> und <strong>digitale</strong> Medien zu verstehen, ist es nützlich zunächst eine Vorstellung von<br />

<strong>analoge</strong>n und <strong>digitale</strong>n Darstellungen zu haben. Eines der augenfälligsten<br />

Unterscheidungsmerkmale zwischen <strong>analoge</strong>r und <strong>digitale</strong>r Darstellung findet man bereits bei<br />

der Darstellung von Größen- und Sachzusammenhängen. Zur Darstellung von Größen, zum<br />

Beispiel physikalischer Natur, können zwei grundsätzlich verschiedene Prinzipien<br />

angewendet werden. Beide gebräuchliche Darstellungsformen, die <strong>analoge</strong> wie auch die<br />

<strong>digitale</strong> Darstellung, sind gewiß bekannt. Dennoch kurz zur Erinnerung ein erstes Beispiel:<br />

Europa<br />

Asien<br />

Afrika<br />

Amerika<br />

Australien und Ozeanien<br />

10 000 000 km 2<br />

44 200 000 km 2<br />

29 800 000 km 2<br />

42 000 000 km 2<br />

8 900 000 km 2<br />

Abbildung 6: <strong>analoge</strong> bzw. <strong>digitale</strong> Darstellung der Landflächen der Erdteile<br />

Es sind die Landflächen der Erdteile vergleichend darzustellen. In der <strong>analoge</strong>n<br />

Darstellungsform (Abbildung 6 links) werden die Landflächen der Erdteile zum Beispiel durch<br />

Rechtecke dargestellt, deren Länge ein Maß für die Größe der Erdteile sind und die mit einem<br />

Vergleichsnormal, zum Beispiel 1 cm = 10 Mill. km 2 , verglichen werden müssen. Es besteht<br />

eine Analogie zwischen den Rechtecklängen und den Landflächen der Erdteile. Oder mit<br />

anderen Worten: Die Längen der dargestellten Rechtecke stehen <strong>im</strong> richtigen Verhältnis zu<br />

den Landflächen der Erdteile, es besteht Verhältnisgleichheit.<br />

Bei der <strong>digitale</strong>n Darstellung der gleichen Gegebenheiten werden die Erdteilflächen durch<br />

Zahlenangaben, das heißt durch ein Aneinanderreihen verschiedener Ziffern (digits),<br />

dargestellt (Abbildung 6 rechts). Es ist ersichtlich, dass durch Hinzufügen weiterer Ziffern die<br />

Genauigkeit der Flächenangaben erhöht werden könnte.<br />

In der alltäglichen Welt sind nahezu alle Erscheinungen analog. Dabei können die<br />

physikalischen Größen, mit denen Vorgänge beschrieben werden, beliebige Zwischenwerte<br />

annehmen. Ein weiteres Beispiel kann diese verdeutlichen: Ein Auto beschleunigt von 0 auf<br />

100 km/h. Während der Beschleunigung durchläuft es alle Geschwindigkeiten, die es<br />

zwischen 0 km/h und 100 km/h gibt, also unendlich viele. Mit einem mechanischen<br />

Tachometer, der mit einem Zeiger arbeitet, kann jeder dieser unendlich vielen<br />

Geschwindigkeiten angezeigt werden, weil der Zeiger ebenfalls unendlich viele Positionen<br />

überstreicht beziehungsweise anzeigt. Anschaulich verändert sich der Zeigerausschlag mit<br />

26


steigender Geschwindigkeit. Der Zeiger ist daher ein <strong>analoge</strong>s Meßgerät. Ganz anders sieht<br />

es mit einem Tachometer aus, der die Geschwindigkeit mit Ziffern angibt. Dieser Tachometer<br />

wird mit einer Geschwindigkeit von 0 km/h beginnen und dann während der Beschleunigung<br />

über 1 km/h, 2 km/h usw. bis 100 km/h hochzählen. Ein solcher Tachometer liefert <strong>digitale</strong><br />

Daten. Er kann nur eine endliche Anzahl von Werten anzeigen. Alle Zwischenwerte werden<br />

entweder aufgerundet oder abgerundet. Während also <strong>analoge</strong> Daten kontinuierliche Werte<br />

mit beliebig vielen Zwischenstufen annehmen können, sind <strong>digitale</strong> Daten auf diskrete Werte<br />

beschränkt. Dies ist als ein bedeutender Unterschied der beiden Darstellungsformen<br />

festzuhalten.<br />

3.3 Funktionsweise <strong>analoge</strong>r / <strong>digitale</strong>r Medien am Beispiel der Fotografie<br />

Diese beiden grundsätzlichen Prinzipien wirken auch in den künstlerischen Medien. Die<br />

Fotografie bietet bei einer Untersuchung den Vorteil, dass beide Verfahren in der Fotografie<br />

realisiert wurden. Im Folgenden werden die beiden Methoden zunächst von ihrer technischen<br />

Seite beleuchtet. Daran schließt ein gründlicher Vergleich beider Medien an. Ausgehend vom<br />

anschaulichen Beispiel, können dann die abstrakten Vorgänge <strong>im</strong> Digitalisierungs- und<br />

Analogisierungprozess beschrieben werden.<br />

3.3.1 Analoge Fotografie<br />

„Fotografie ist die technologische Verknüpfung des optischen Prinzips der<br />

perspektivischen Wahrnehmungsweise mit dem chemischen Aufzeichnungsverfahren der<br />

empfindlichen fotografischen Schicht.“ 32<br />

Was Bernd Busch hier kurz und prägnant beschreibt, sind die beiden Grundlagen der<br />

<strong>analoge</strong>n Fotografie. Hinter dem chemischen Aufzeichnungsverfahren stecken konkret die<br />

lichtempfindlichen Eigenschaften von Silberhalogeniden, von der chemischen Verbindung<br />

aus Silber und Halogenen (Brom, Chlor oder Iod). Bei der Belichtung eines Filmes, der aus<br />

einer festen Dispersion von feinsten Silberhalogenidkörnern in einem Schutzkolloid<br />

(Gelatine) auf einer transparenten Trägerschicht aus Celluloseacetat oder Polyester<br />

besteht, gehen die Silberhalogenide chemische Reaktionen ein und bilden ein so genanntes<br />

latentes Bild (die Dispersion wird <strong>im</strong> Allgemeinen Sprachgebrauch auch als Emulsion<br />

bezeichnet). Bei der Entwicklung eines Filmes wird das latente – verborgene – Bild sichtbar<br />

und beständig. Die so erhaltene Abbildung wird als Negativ bezeichnet, da in ihr dunkle<br />

Stellen des Ursprungsmotivs hell, helle aber dunkel wiedergegeben werden. Bei<br />

Farbnegativen sind Farbwerte komplementär wiedergegeben. In einem zweiten<br />

32 Bernd Busch, Belichtete Welt - Eine Wahrnehmungsgeschichte der Fotografie, Fischer Verlag, Frankfurt am Main 1995, S. 8<br />

27


Belichtungsprozess, bei dem der fotografische Papierabzug entsteht, werden diese Werte<br />

erneut umgekehrt und so den realen Farbgegebenheiten des Motivs angepaßt (Negativ-<br />

Positiv-Verfahren). Die für die Fotografie relevanten physikalischen Grundsätze sind<br />

maßgeblich solche der geometrischen Optik. Dies gilt sowohl für die <strong>analoge</strong>, als auch für<br />

die <strong>digitale</strong> Fotografie. Fotografische Filme weisen hinsichtlich ihrer Reaktionen auf<br />

verschiedene Wellenlängen des Lichtes unterschiedliche Eigenschaften auf. Die ersten<br />

Schwarzweißfilme reagierten nur auf die kürzeren Wellenlängen des sichtbaren Spektrums,<br />

also auf blaues Licht. Später wurden den Filmemulsionen chemische Stoffe<br />

(Sensibilisatoren) beigemischt, um die fotografische Schicht auch für andere Wellenlängen<br />

empfänglich zu machen. So ist der orthochromatische Film für jedes Licht (außer für rotes)<br />

empfindlich und stellte somit eine deutliche Verbesserung gegenüber dem blauempfindlichen<br />

Schwarzweißfilm dar. Be<strong>im</strong> panchromatischen Film endlich sind der Emulsion auch<br />

Sensibilisatoren für rotes Licht beigemischt, wodurch der Film für den gesamten sichtbaren<br />

Spektralbereich empfänglich wird. Daher benutzt die Mehrzahl der Amateur- und<br />

Berufsfotografen heute den panchromatischen Filmtyp. Eine spezielle Art des<br />

Schwarzweißfilmes ist der Reprofilm, der in erster Linie zur Reproduktion in den<br />

graphischen Künsten verwendet wird. Reprofilme sind extrem kontrastreich, so dass <strong>Bilder</strong><br />

entstehen, die als Werte nur Schwarz und Weiß, also keinerlei Grauabstufungen,<br />

aufweisen. Weitere Spezialfilme sind für Wellenlängen empfindlich, die über das sichtbare<br />

Spektrum des Lichtes hinausgehen. Dazu gehören zum Beispiel Infrarotfilme. Sofortbildfilme<br />

für spezielle Kameras, die Ende der vierziger Jahre von Polaroid entwickelt wurden, geben<br />

die fertigen Abzüge kurz nach der Aufnahme aus, dabei ist der Entwickler als Paste in das<br />

Filmpapier integriert.<br />

3.3.2 Digitale Fotografie<br />

Von Digitaler Fotografie spricht man, wenn zur Aufnahme Kameras eingesetzt werden, bei<br />

denen anstelle des Films eine aus CCD-Elementen gebildete Rezeptionsfläche in der<br />

Fokussierebene liegt. Dieser Chip wandelt die einfallende Lichtenergie in elektrische Energie<br />

um. Als Bildsensor ist er das Herzstück der Digitalen Kamera und seine Qualität entscheidet<br />

letztlich über die Qualität der Fotos. Zu den wichtigsten Charakteristika zählen die Anzahl der<br />

Sensorzellen (Pixelauflösung) und die Art, wie die Farbinformation gewonnen wird.<br />

Die Mehrzahl aller <strong>digitale</strong>n Video- und Fotokameras ist derzeit noch mit CCD-Bildsensoren<br />

ausgestattet. Jedes Sensorelement besteht aus einer lichtempflindlichen Fotozelle und einer<br />

ebenso winzigen Speicherzelle. Fotozellen wandeln Licht in elektrische Spannung, die sofort<br />

in der Speicherzelle als elektrische Ladung gespeichert wird. Das Akronym „CCD“ steht dabei<br />

für „charge coupled devices“ (etwa „ladungsgekoppelte Halbleiterelemente“). Der Name<br />

verweist auf die zeilenweise Zusammenschaltung der einzelnen Elemente, die das lineare<br />

28


„Herausschieben“ der elektrischen Ladungen mittels eines Taktsignals erlaubt. Die Ladungen<br />

werden einfach von Element zu Element durchgereicht,<br />

bis die Zeile leer ist. Auf diese Weise<br />

entsteht aus den ursprünglich parallel<br />

vorliegenden Informationen ein serielles Signal,<br />

wie es die Computertechnik benötigt. CCD-<br />

Sensoren, die nur aus einer Zeile bestehen,<br />

arbeiten übrigens seit langem in Faxgeräten und<br />

Flachbettscannern. Der Papiertransport oder das<br />

Bewegen eines Schlittens unter dem<br />

Vorlagenglas schafft dabei die zweite D<strong>im</strong>ension,<br />

die dem Zeilensensor fehlt. In Kameras<br />

Analog-Digital-Wandler, ein elektronisches<br />

Gerät, mit dem <strong>analoge</strong> Daten für elektronische<br />

Anlagen wie Digitalcomputer, <strong>digitale</strong> Kassettenund<br />

Videorekorder und Kommunikationsgeräte in<br />

<strong>digitale</strong> Daten umgewandelt werden. Als Eingabe<br />

erhält der Wandler <strong>analoge</strong> oder kontinuierlich<br />

variierende elektrische Wellen, deren Werte in<br />

gleichbleibenden Zeitabständen gemessen werden<br />

(Sampling). Diese Werte drückt das Gerät als<br />

<strong>digitale</strong> Zahl aus. Die sich ergebenden Digitalcodes<br />

können in verschiedenen Arten von<br />

Kommunikationssystemen verwendet werden.<br />

sind ganze CCD-Matrizen (Flächensensoren) eingebaut, doch das Prinzip bleibt gleich. In<br />

<strong>digitale</strong>n Video- und Fotokameras wird das <strong>analoge</strong> Signal mit einem Analog-Digital-Wandler<br />

(A/D-Wandler) in Zahlenwerte umgewandelt. Das Hauptkennzeichen eines Bildsensors ist<br />

die Anzahl der Sensorzellen. Sie best<strong>im</strong>mt maßgeblich die erzielbare Bildauflösung und wird<br />

bei Digitalkameras oft als Pixelauflösung angegeben. Strenggenommen ist die in Pixel<br />

gemessene Bildauflösung jedoch nur dann mit der Anzahl der CCD-Zellen identisch, wenn es<br />

sich um einen Sensor für Schwarzweiß-Aufnahmen handelt. Bei den Farbdigitalkameras für<br />

den Consumerbereich liegt die theoretisch erzielbare Bildauflösung, physikalisch bedingt,<br />

<strong>im</strong>mer unter der Anzahl der Sensorzellen.<br />

CCD-Sensoren sind nämlich, genauso wie Silberhalogenidkristalle, grundsätzlich nicht farbsondern<br />

nur lichtempflindlich. Es gibt momentan verschiedene Verfahren, um zu den<br />

Farbinformationen zu gelangen. Man kann beispielsweise drei Filterfolien in den Grundfarben<br />

Rot, Grün und Blau nacheinander über den Sensorchip legen und jeweils eine Aufnahme<br />

machen. Eine andere Möglichkeit ist das Ausleuchten des Motivs mit Lampen in den drei<br />

Grundfarben, ebenfalls nacheinander. Da für eine Farbaufnahme drei Einzelaufnahmen<br />

notwendig sind, heißen diese Kameras Multi-Shot-Kameras.<br />

Statt einen Chip durch drei Farbfilter dre<strong>im</strong>al zu belichten, kann man auch drei Sensorchips,<br />

die jeweils ihren eigenen Farbfilter tragen, optisch parallel schalten (mittels halbdurchlässiger<br />

Spiegel). Auch hierbei entstehen drei <strong>Bilder</strong> in den Grundfarben, doch nun mit einer einzigen<br />

Aufnahme, man spricht von One-Shot-Kameras. Diese Technik ist aber nur in professionellen<br />

Video- und Digitalkameras verwirklicht.<br />

Außerhalb der Studios sind solche Techniken zu langsam, zu teuer oder beides.<br />

Digitalkameras für den Consumer-Markt arbeiten deshalb mit Sensorchips, deren<br />

lichtempfindliche Zellen jede für sich farbempfindlich gemacht wurden. Dazu dienen<br />

fotochemisch aufgebrachte, transparente Lack-Linsen in den Grundfarben Rot, Grün und<br />

Blau. Die Farben wechseln von Zelle zu Zelle. Ähnlich arbeitet das Auge, dessen Netzhaut ja<br />

bekanntlich ebenfalls drei Sorten von farbempfindlichen Zäpfchen enthält.<br />

29


Die Farbfähigkeit wird bei dieser Methode allerdings mit einer Verringerung der Auflösung<br />

erkauft, denn für ein Bild-Pixel mit der vollen RGB-Farbinformation werden die Werte von drei<br />

Fotozellen benötigt. In der Praxis versucht man durch geschickte Interpolation den<br />

Auflösungsverlust zu verringern. Trotzdem kann die Pixel-Auflösung einer Digitalkamera, die<br />

nach diesem Prinzip arbeitet, nie mit der Anzahl der lichtempfindlichen Elemente auf dem<br />

Sensorchip identisch sein. Letztere wird aber in der Werbung und in den Produktinformationen<br />

als Pixel-Auflösung beworben. Eine Kamera mit einer Auflösung von 1,5 Megapixel (1,5<br />

Millionen) Sensorzellen hat streng genommen nur eine physikalische Auflösung von etwa<br />

500.000 Pixeln, auch wenn sie durch Interpolation beispielweise 1,3 Millionen Pixel große<br />

<strong>Bilder</strong> liefert. Die Physik setzt sich trotz aller Interpolationstricks durch, in diesem Fall durch<br />

Kantenunschärfe und Farbsäume bei Strukturen, die bei echten 1,5 Millionen Pixeln noch<br />

einwandfrei abgebildet werden müssten.<br />

Ganz so streng muss man jedoch nicht sein, denn schließlich ist auch das Auge ein sehr<br />

unvollkommenes Gebilde. Bekanntlich ist es für Farbinformationen wesentlich weniger<br />

empfindlich als für Helligkeitsunterschiede. Die Farbauflösung darf also geringer sein als die<br />

Schwarz-Weiß-Auflösung eines Bildes. 33<br />

3.4 Was unterscheidet <strong>analoge</strong> und <strong>digitale</strong> Fotografie<br />

Nachdem jetzt die technischen Grundlagen vorgestellt worden sind, kann man sich genauer<br />

auf die veränderten Produktionsbedingungen einlassen. Dabei gibt es verschiedene Punkte an<br />

denen man die Veränderungen ausmachen kann. Diese werden <strong>im</strong> Folgenden einzeln<br />

besprochen. Wie bereits kurz erwähnt, kann man durch die verschiedenen<br />

Produktionsbedingungen davon ausgehen, dass die erzeugten <strong>Bilder</strong> Unterschiede aufweisen<br />

werden. Insofern ist eine Untersuchung dieser Art von erheblichem Interesse, um die<br />

spezifischen Eigenschaften der <strong>analoge</strong>n und <strong>digitale</strong>n <strong>Bilder</strong> zu erhalten. Ein anderer Aspekt<br />

zielt auf die Qualität der Arbeiten, die mit den neuen Verfahren hergestellt werden. Denn erst<br />

durch das Wissen um die spezifischen Eigenschaften, können die Möglichkeiten ausgeschöpft<br />

werden und das Medium <strong>im</strong> künstlerischen Prozess sinnvoll eingesetzt werden.<br />

Dazu Gottfried Jäger: „Die Unterscheidung erweist sich heute als notwendig, um eine<br />

„Fotografie nach der Fotografie“ zu beschreiben. Es ist dabei unumgänglich, sich das<br />

bisher Selbstverständliche, die <strong>analoge</strong> Eigenschaft des Fotos, erneut bewußt zu machen,<br />

um das „andere“ das <strong>digitale</strong> Foto, von ihm zu unterscheiden.“ Und ein anderer Aspekt: „Es<br />

ist wichtig, diese Unterschiede kenntlich zu machen, denn die Präzision künftiger<br />

Kommunikation wird von dieser Unterscheidung mit abhängig sein.“ 34<br />

33 Vgl. T<strong>im</strong> Daly, Handbuch <strong>digitale</strong> Photographie, Benedikt Taschen Verlag, Köln 2000, S.32-34<br />

34 Gottfried Jäger, Abbildungstreue. Fotografie als Visualisierung: Zwischen <strong>Bilder</strong>fahrung und <strong>Bilder</strong>findung, in: Gottfried Jäger,<br />

Andreas Dress (Hrsg.) (1999), S. 146-147<br />

30


Das Verständnis für Digital Imaging führt also zur Präzisierung zukünftiger Bildfindungen, über<br />

die ja die visuelle Kommunikation abläuft. Diese ist aber nur mit einem vorhandenen Wissen um<br />

die <strong>analoge</strong> Fotografie möglich. Auch deshalb scheint es mir sinnvoll <strong>im</strong> Folgenden einen<br />

gründlichen Vergleich anzustellen.<br />

3.4.1 Kameramodelle<br />

Betrachtet man zunächst die äußere Erscheinung der Kameramodelle, muss man feststellen,<br />

dass sich die Geräte eigentlich kaum voneinander unterscheiden. Erst sehr spät kamen die<br />

Hersteller auf die Idee, das Design der <strong>digitale</strong>n Fotoapparaten zu verändern. Denn durch die<br />

neue Technik sind gewisse Konstruktionsvorgaben nicht mehr notwendig und man kann den<br />

inneren Aufbau der Apparate neu gestalten. So ergibt sich heute ein neues Erscheinungsbild<br />

der Digitalkameras, die bekannten Gehäuseformen wurden durch veränderte abgelöst. Bisher<br />

wurde durch die äußere Ähnlichkeit suggeriert, dass beide Apparate auch gleich arbeiten.<br />

Aber wie zuvor gezeigt wurde, hat man es mit zwei sehr verschiedenen Verfahren der<br />

Aufzeichnung von Bildinformationen zu tun.<br />

Christian Wittwer, der 1996 in der Neuen Zürcher Zeitung eine Serie von Artikeln zur <strong>digitale</strong>n<br />

Fotografie veröffentlichte, beschreibt die Situation wie folgt: „Äußerlich haben sich die<br />

Geräte erst spät gewandelt, denn anstatt von Grund auf neue Kameramodelle zu<br />

konstruieren, werden schon vorhandene Gehäuse (von Nikon und Canon) zu Digitalkameras<br />

umgerüstet, wodurch bestehendes Zubehör weiter eingesetzt werden kann. Dies hat den<br />

Nachteil, dass eine enge Verwandtschaft zwischen <strong>analoge</strong>r und <strong>digitale</strong>r Bildtechnologie<br />

angenommen wird, dies umso mehr, als das Endresultat, das Bild als Farbprint oder<br />

Druckerzeugniss, keine Rückschlüsse auf seine Entstehungsgeschichte mehr zulässt.“ 35<br />

Dies zeigt die Problematik. Im Prinzip stellt er dasselbe fest, spricht aber noch einen<br />

interessanten Punkt an. Er bemerkt, dass man am Endresultat keine Rückschlüsse mehr auf<br />

die Enstehungsgeschichte des Bildes ziehen kann. Hierin besteht natürlich ein großes<br />

Problem. Wenn man an den fertigen vorliegenden <strong>Bilder</strong>n nicht mehr erkennen kann, wie sie<br />

erzeugt wurden, ist es zum Beispiel unmöglich auf die bisher gewohnte hohe Authentizität<br />

des <strong>analoge</strong>n Bildes zu vertrauen. Das ist ein sehr sensibler Bereich. Denn es könnten den<br />

Bildkonsumenten sehr leicht „gefakte“ <strong>Bilder</strong> untergeschoben werden, denen sie hilflos<br />

ausgeliefert sind. 36 Auf die Differenz der Authentizität wird noch eingehend in Kapitel 3.4.6<br />

eingegangen.<br />

35 Christian Wittwer (1996), S. 37<br />

36 vgl. hierzu auch Christian Doelker, Ein Bild ist mehr als ein Bild: visuelle <strong>Kompetenz</strong> in der Mult<strong>im</strong>edia-Gesellschaft, Klett-Cotta,<br />

Stuttgart 1997, S.24-28<br />

31


3.4.2 Die Bezeichnung Digital Imaging<br />

In einem seiner Artikel n<strong>im</strong>mt Wittwer eine aus meiner Sicht sinnvolle Begriffsbest<strong>im</strong>mung vor.<br />

Er sieht den Begriff der „Digitalen Fotografie“ als unzutreffend an und äußert: „Der Begriff<br />

Digitale Fotografie ist irreführend, denn er <strong>im</strong>pliziert, dass es sich bei der neuen <strong>digitale</strong>n<br />

Bildtechnologie nur um eine technische Weiterentwicklung der konventionellen<br />

Silbersalzverfahren handelt.“ und schlägt weiter vor: „Digital Imaging ist als Begriff<br />

konsistenter.“ Er begründet seine Aussage wie folgt: „ ...denn er verweist nicht mehr auf den<br />

vom griechischen "phos"=Licht und "graphein"=schreiben abgeleiteten Begriff Photographie,<br />

also auf den Vorgang des selbsttätigen Einschreibens von Information in die<br />

lichtempfindliche fotografische Schicht. Zudem umfasst Digital Imaging mehr, nämlich alle<br />

Verfahren zur Bearbeitung und Visualisierung <strong>digitale</strong>r Daten.“ 37<br />

Ich halte diese Argumentation und die daraus resultierende Begriffsbest<strong>im</strong>mung für sinnvoll<br />

und werde <strong>im</strong> weiteren die neue Bezeichnung verwenden. Denn Digital Imaging ist, wie<br />

gesagt, nicht nur eine Weiterentwicklung der <strong>analoge</strong>n Fotografie, sondern birgt vielmehr neue<br />

Eigenschaften und Möglichkeiten, wie die der Bearbeitung und Visualisierung <strong>digitale</strong>r Daten.<br />

Zunächst einmal n<strong>im</strong>mt die Loslösung vom Ausdruck „Fotografie“ die Nähe zur konventionellen<br />

Fotografie. Und Digital Imaging meint mehr. Es ist nicht nur der Moment der Aufnahme, sondern<br />

ist vielmehr als ein Prozess zu verstehen. Der Ausdruck weist so deutlicher auf die<br />

unterschiedlichen Verfahren hin.<br />

3.4.3 Technische Differenzen der Verfahren<br />

Nachdem wir uns bereits die technischen Unterschiede vor Augen geführt haben, werden<br />

nun die daraus resultierenden Konsequenzen, die ja <strong>im</strong> Bild wirken, betrachtet.<br />

3.4.3.1 Informationsmodifikation<br />

Eine aus der Technik resultierende Differenz ist die, der unterschiedlichen<br />

„Informationssammlung“. Es werden also unterschiedliche Abbilder eines Urbildes erzeugt.<br />

Konkret heißt das: Wenn man mit einer konventionellen Kamera und einer Digitalkamera vom<br />

gleichen Standpunkt aus, also vom gleichen Punkt <strong>im</strong> Raum, eine Aufnahme mit denselben<br />

Einstellungen macht, entstehen nicht dieselben <strong>Bilder</strong>, weil nicht dieselben Objektpunkte<br />

„eingesammelt“ werden. Für dieses Problem der Differenz liefert Jäger eine Beschreibung,<br />

indem er den Unterschied zwischen <strong>analoge</strong>r und Digital Imaging <strong>im</strong> Bild wie folgt erklärt: „Im<br />

konventionellen Foto entspricht jeder Bildpunkt einem - „seinem“ - Objektpunkt. Beide<br />

Punkte sind durch den Lichtstrahl ursächlich miteinander verknüpft: Das Bild ist Ergebnis<br />

37 Christian Wittwer (1996), S. 37<br />

32


einer Analogie zwischen der Welt außerhalb und innerhalb der Kamera. Es entsteht bei der<br />

Belichtung und in der Regel in einem kurzen Augenblick, „mit einem Mal“, als komplexer,<br />

ganzheitlicher Vorgang, nicht etwa durch einen Aufbau Punkt für Punkt. Diese beiden<br />

Prinzipen, Analogie und Komplexität, sind bei der <strong>digitale</strong>n Bildherstellung aufgehoben. Das<br />

„Foto“ mutiert von einem komplexen in ein lineares Medium. Sein Bild ist nicht mehr wie<br />

vorher „mit einem Mal“ da, sondern es wird Punkt für Punkt und Zeile für Zeile in einen<br />

elektronischen Datenträger eingelesen - gescannt - , dort entsprechend gespeichert und<br />

später weiterverarbeitet.“ 38<br />

In seiner Beschreibung steckt zunächst eine brauchbare Definition für den Begriff analog,<br />

indem er das Bild als „Ergebnis einer Analogie zwischen der Welt außerhalb und innerhalb<br />

der Kamera“ sieht. Es besteht sozusagen Verhältnisgleichheit zwischen dem erzeugten Bild<br />

und den Objekten, die abgebildet wurde. Dies wäre auch sehr nahe an der Bedeutung des<br />

Begriffes, die uns die Etymologie geliefert hat (vgl. Kapitel 2.1.1).<br />

Die Aussage, dass <strong>im</strong> konventionellen Foto jeder Bildpunkt „seinem“ Objektpunkt entspricht, ist<br />

intuitiv nachvollziehbar, aber entspricht so nicht den technischen Gegebenheiten. Dann<br />

müssten beide Punktmengen gleichmächtig sein, die Anzahl der Punkt <strong>im</strong> Urbild und <strong>im</strong><br />

resultierenden Foto gleich groß sein. Es würde sich also um eine bijektive Abbildung<br />

handeln 39 . Tatsächlich aber gibt es natürlich nur endlich viele Molekülstrukturen auf der<br />

Oberfläche, die sich durch eintreffende Photonen verändern können. Es werden also mehrere<br />

einfallenden Lichtstrahlen, in etwa wie in einem Trichter, zusammengefasst und an ein Molekül<br />

gebunden. Die Information anderer Lichtstrahlen geht dabei vielleicht ganz verloren. Die<br />

Aussage, dass somit beide Punkte ursächlich miteinander verknüpft sind, ist somit nicht<br />

haltbar.<br />

Was man sagen kann ist, dass die <strong>analoge</strong> Fotografie zur Zeit noch die wesentlich höhere<br />

Auflösung bietet. Es findet aber auch bei der <strong>analoge</strong>n Fotografie ein „massiver“<br />

Informationsverlust statt. Dabei spreche ich hier nicht das Problem der Reduktion der<br />

Informationskanäle an. Also das Wegfallen von Sound, Gerüchen, Zeitverlauf, der dritten<br />

D<strong>im</strong>ension etc.. Mit zunehmender Verbesserung des Aufzeichnungsverfahren be<strong>im</strong> Digital<br />

Imaging wird diese Grenze aber irgendwann genommen werden. Da die technischen<br />

Möglichkeiten ständig weiterentwickelt werden, wird es nur eine Frage der Zeit sein, bis dies<br />

geschehen wird. Jäger spricht aber auch von der Mutation des Fotos von einem komplexen in<br />

ein lineares Medium. Das wäre also eine Überführung vom überdeterminierten Bild 40 in eine<br />

lineare Form, also eine Art Text. Dies scheint mir ein weiterer wichtiger Punkt. Denn <strong>im</strong> Text<br />

ist die Lesart bekannt und die Überbest<strong>im</strong>mung aufgehoben. Dies ist ja tatsächlich so, denn<br />

38 Gottfried Jäger , Abbildungstreue. Fotografie als Visualisierung: Zwischen <strong>Bilder</strong>fahrung und <strong>Bilder</strong>findung, in: Gottfried Jäger,<br />

Andreas Dress (Hrsg.) (1999), S. 146<br />

39 Zu den Begriffen „gleichmächtig“ und „bijektiv“ siehe Kapitel 3.4.7.2<br />

40 Gottfried Boehm spricht <strong>im</strong> Zusammenhang der konkreten Kunsterfahrung, der Rezeption von <strong>Bilder</strong>n, von einem unausschöpfbaren<br />

Potenzial, das durch eine unerhörte Überdetermination gekennzeichnet ist, weil es eine unabsehbare Zahl von Konjunktionen der<br />

Bildelemente gibt. Gottfried Boehm: Kunsterfahrung als Herausforderung der Ästhetik, in: Willi Oelmüller (Hrsg.), Kolloquium Kunst<br />

und Philosophie 1: Ästhetische Erfahrung, Schöningh Verlag, Paderborn 1981, S.19<br />

33


das als codierte Information vorliegende <strong>digitale</strong> Bild kann nur reproduziert werden, indem es<br />

ausgelesen und erzeugt wird. Also ist die Lesart in dieser Weise bekannt.<br />

3.4.3.2 Zeitlichkeit<br />

Die entstehende Linearität bewirkt aber noch eine weitere Veränderung des Bildes. Die<br />

Zeitlichkeit, die <strong>im</strong> Bild steckt ist eben eine andere, wie die der <strong>analoge</strong>n Fotografie. In der<br />

<strong>analoge</strong>n Fotografie können die Lichtstrahlen für einen festgelegten Zeitraum, eben während<br />

der Belichtungszeit, durch das Linsensystem auf den Film gelangen. Dabei gelangen alle<br />

Lichtstrahlen synchron, was Jäger als ganzheitlichen und komplexen Vorgang beschreibt,<br />

gleichzeitig auf den Film und werden dort festgehalten. Dagegen haben wir be<strong>im</strong> Digital<br />

Imaging das „lineare Herausschieben“ der Bildinformationen. Wenn <strong>im</strong> <strong>analoge</strong>n<br />

Aufzeichnungsprozess jeder Raumpunkt seine relative Position zum Nachbarpunkt behält,<br />

werden die Bildpunkte be<strong>im</strong> Digital Imaging neu angeordnet und verlieren so die frühere<br />

Zeitlichkeit. Während be<strong>im</strong> <strong>analoge</strong>n Foto die Struktur der Bildpunkte zueinander auf eine<br />

gewisse Weise erhalten bleibt, wird diese be<strong>im</strong> Digital Imaging aufgelöst.<br />

Betrachtet man den Vorgang genauer wird es wirklich komplexer. Denn ein Lichtstrahl<br />

bewegt sich mit einer <strong>im</strong>mens hohen Geschwindigkeit von ca. 300.000 km/s und dennoch<br />

benötigt er Zeit für den Weg den er zurückgelegt hat. Sind also die Objekte die fotografiert<br />

werden in unterschiedlichem Abstand zur Fotokamera, so benötigen die ausgesandten<br />

Lichtstrahlen verschiedene Zeiten. Dies würde aber bedeuten, das man generell <strong>im</strong><br />

festgehaltenen Bild verschiedene Zeitlichkeiten festhält. Also noch einmal etwas abstrakter:<br />

Belichtet man <strong>im</strong> Zeitraum t0 bis t1 den Film, so sind die Objekte <strong>im</strong> Abstand s0 Distanzeinheiten<br />

(z.B. Meter) zur Realzeit t0 - k0 bis t1 -k0 festgehalten und die Objekte <strong>im</strong> Abstand s1<br />

Distanzeinheiten (z.B. Meter) zur Realzeit t0 - k1 bis t1 -k1. Wobei sich die Verschiebungs-<br />

Summanden k1 und k2 aus der Zeit die das Licht vom Objekt auf den Film benötigt berechnen.<br />

Also k0 = s0 / c und k1 = s1 / c , wobei c = const. die Lichtgeschwindigkeit darstellt. Der<br />

Sachverhalt spielt natürlich bei geringen Distanzdifferenzen eine kleine Rolle. Mit<br />

zunehmenden Distanzdifferenzen ∆s entsteht ein nicht unerheblicher Unterschied in der<br />

festgehaltenen Realzeit der Objekte. Dies wird besonders offensichtlich bei astronomischen<br />

Aufnahmen, wie man sie auch zum Beispiel <strong>im</strong> Werk von Thomas Ruff 41 sehen kann. Ruff<br />

thematisiert genau dieses Phänomen, indem er Sternenbilder aus dem Archiv der ESO<br />

(European Southern Observatory) ankauft, nachbearbeitet und ausstellt. Als<br />

Lichtzeichnungen <strong>im</strong> ursprünglichsten Sinn zeigen sie genau die unterschiedliche Zeitlichkeit<br />

der Sterne zu einem best<strong>im</strong>mten Aufnahmezeitpunkt. Das gezeigte Phänomen wirkt aber<br />

sowohl bei der <strong>analoge</strong>n, wie auch be<strong>im</strong> Digital Imaging, führt also zu keiner Unterscheidung.<br />

41 Thomas Ruff: Fotografien 1979 - heute, hg. von Thomas Winzen, Ausstellungskatalog: Baden-Baden 2001/02, Verlag der<br />

Buchhandlung Walther König, Köln 2001, S.193<br />

34


3.4.4 Unmittelbare Wahrnehmung als Differenz<br />

Einen anderen Aspekt der Unterscheidung erwähnt Wittwer. Für ihn „handelt es sich be<strong>im</strong><br />

fotografischen Bild um ein <strong>analoge</strong>s Medium, denn die Information ist für den Menschen<br />

unmittelbar erfassbar und nicht codiert.“ 42 Eine Fotografie ist also dann analog, wenn sie für<br />

unser kognitives System unmittelbar wahrnehmbar ist. Ich halte diese Auffassung für<br />

fragwürdig, denn wie bereits erläutert (vgl. Kapitel 3.3.1) entsteht <strong>im</strong> Verlauf des <strong>analoge</strong>n<br />

<strong>Bilder</strong>zeugungsprozesses zunächst ein so genanntes latentes Bild. Dies ist der Schritt, wenn<br />

das Licht, das von den aufgenommenen Objekten reflektiert wurde, auf den Film auftritt. Wir<br />

haben jetzt einen Zustand, in dem die Bildinformationen übertragen wurden, die eigentliche<br />

Abbildung also statt gefunden hat und dennoch kann zu diesem Zeitpunkt die Information nicht<br />

unmittelbar mit unseren Sinnen erfasst werden. Erst über einen chemischen<br />

Transformationsprozess erhält man das Negativ und die Information wird uns zugänglich.<br />

Dennoch ist diese Definition nicht ganz von der Hand zu weisen. Die analog fotografierten<br />

Objekte liegen nämlich sofort wieder materiell in einer Weise vor, dass wir sie nur für unsere<br />

Augen sichtbar machen müssen. Dies geschieht be<strong>im</strong> Entwicklungsprozess, durch chemische<br />

Verfahren. 43 Be<strong>im</strong> Digital Imaging haben wir die Bildinformation codiert als Zeichenkette von<br />

Nullen und Einsen vorliegen. Über den Aspekt der Codierung kann man aber geteilter Meinung<br />

sein. Man könnte auch argumentieren, dass das latent vorliegende Filmbild eine Codierung,<br />

also einen Code des Urbildes darstellt.<br />

Umberto Eco liefert für den Begriff des „Codes“ folgende vorläufige Definition: Ein Code ist<br />

„jedes System von Symbolen, welches durch vorherige Übereinkunft dazu best<strong>im</strong>mt ist, die<br />

Information zu repräsentieren und sie zwischen Quelle und Best<strong>im</strong>mungspunkt zu<br />

übertragen“ 44 . Geht man von dieser Definition aus, dann ist aus meiner Sicht auch das latent<br />

vorliegende Filmbild ein Code. Denn die Farbpunkte sind Symbole in Abhängigkeit der Position,<br />

die Information repräsentieren und zwischen Sender und Empfänger übermitteln können.<br />

Wobei der Empfänger die Information eben nur technisch abfragen kann, die Entschlüsselung<br />

mit seinen Sinnen nicht möglich ist. Beide Medien sind aber auf eine andere Art codiert.<br />

Während be<strong>im</strong> <strong>analoge</strong>n Bild die Struktur des Urbildes erhalten bleibt, wird diese <strong>im</strong> <strong>digitale</strong>n<br />

Bild linearisiert und so aufgelöst. Auf die offensichtliche Codierung des <strong>digitale</strong>n Bildes<br />

werden wir in Kapitel 4 noch ausführlich eingehen.<br />

42 Christian Wittwer (1996), S. 37<br />

43 Filme müssen nicht unbedingt entwickelt werden. So verwendete zum Beispiel Daguerre zunächst Jodsilberplatten, bei denen das<br />

Bild bei sehr langer Belichtungszeit von selbst erscheint. Dies ändert aber nichts an der Tatsache, dass das Bild materialisiert vorliegt.<br />

Vgl. Bernd Busch (1995), S.186<br />

44 Umberto Eco, Einführung in die Semiotik, Wilhelm Fink Verlag, München 1972, S.19<br />

35


3.4.5 Medientheoretische Unterscheidung<br />

Die unterschiedliche Rezeptionsweise der beiden Medien ermöglicht auch eine Zuordnung zu<br />

verschiedenen Kategorien nach medientheoretischen Gesichtspunkten. Sieht man von dem<br />

Punkt ab, dass bei der <strong>analoge</strong>n Fotografie zunächst ein latenten Bild entsteht, dass sich auch<br />

unserer unmittelbaren Wahrnehmung entzieht, scheint dies nützlich.<br />

Wittwer: „In der Medientheorie mit ihrer charakteristischen Unterscheidung von Pr<strong>im</strong>är-,<br />

Sekundär- und Tertiärmedien wird der Unterschied zwischen Fotografie und Digitaler<br />

Bildbearbeitung explizit. Während ein Sekundärmedium wie die Fotografie den<br />

Technikeinsatz nur auf der Produktionsseite kennt, charakterisieren sich Tertiärmedien<br />

durch den Technikeinsatz sowohl auf der Produktions- als auch auf der Rezeptionsseite.<br />

Das konventionelle fotografische Bild ist dem menschlichen Wahrnehmungsapparat direkt<br />

zugänglich, das <strong>digitale</strong> erst über einen Transformationsprozess.“ 45<br />

Interessant ist die Unterscheidung durch die Zuordnung der <strong>analoge</strong>n Fotografie zu den<br />

Sekundärmedien und des Digital Imaging zu den Tertiärmedien. 46 Durch die vorgenommene<br />

Einbettung in die Medientheorie wird ein gravierender Unterschied erneut offensichtlich, der<br />

uns <strong>im</strong> Folgenden noch beschäftigen wird: Der notwendige Einsatz von Technik <strong>im</strong><br />

Rezeptionsprozess be<strong>im</strong> Digital Imaging. Denn be<strong>im</strong> Digital Imaging liegt das <strong>digitale</strong> Bild<br />

zunächst als lineare „<strong>im</strong>materielle“ Information vor und muss über Einsatz von Technik<br />

umgewandelt, materialisiert werden. Der Ausdruck „<strong>im</strong>materiell“ ist folgendermaßen zu<br />

verstehen. Es ist klar, dass es unmöglich ist Informationen ohne Veränderungen von Materie<br />

„dauerhaft“ zu speichern. Gespeicherte Information ist meiner Auffasung nach eigentlich<br />

<strong>im</strong>mer eine Zustandsveränderung von Materie. Auch der vorliegende Bildcode muss<br />

irgendwie auf einem Datenträger zwischengespeichert werden, zum Beispiel auf einer<br />

Diskette, einer MOD (Magnetical Optical Disc) oder einer Festplatte. In diesem Zustand ist er<br />

materialisiert, zum Beispiel durch Ausrichtung der Spins der Elektronen der mikroskopischen<br />

Eisenteilchen durch Magnetköpfe be<strong>im</strong> Schreiben der Daten. Der Code selbst aber, der dann<br />

wieder abgerufen und <strong>im</strong> Lesevorgang hergestellt wird, ist eine reine Aneinanderreihung von<br />

Ziffern. Be<strong>im</strong> Binärcode sind dies eben Nullen und Einsen. Der Code ist natürlich <strong>im</strong>materiell,<br />

denn die Zeichen, die Ziffern des Codes sind abstrakte Erfindungen vom Menschen erdacht<br />

und sind keine materiellen Objekte. In dieser Weise ist die Immaterialität des Codes zu<br />

verstehen.<br />

So muss also be<strong>im</strong> Digital Imaging, das <strong>digitale</strong> Bild, das zunächst als lineare „<strong>im</strong>materielle“<br />

Information vorliegt, über Einsatz von Technik umgewandelt, materialisiert werden. Es ist<br />

bekannt, dass die so erzeugten Erscheinungen des Bildes sehr unterschiedlich ausfallen<br />

können. So sieht die Ausgabe auf einem Bildschirm sicherlich anders als ein Ausdruck auf<br />

45 Christian Wittwer (1996), S. 37<br />

46<br />

„Durchgesetzt hat sich weitgehend die Unterscheidung in Pr<strong>im</strong>ärmedien (das heißt Medien ohne notwendigen Einsatz von Technik<br />

wie z.B. das Theater), Sekundärmedien (mit Technikeinsatz auf der Produktionsseite wie z.B. die Zeitung) und Tertiärmedien (mit<br />

Technikeinsatz auf Produktions- und Rezeptionsseite wie z.B. die Schallplatte). Ergänzend spricht man inzwischen auch von<br />

Quartärmedien...“, in: Werner Faulstich (2000), S.21<br />

36


einem Drucker aus. Genau mit diesem Problem hat ja die Zunft der Grafik-Designer zu<br />

kämpfen. Die Problematik, die hier angesprochen wird, berührt wieder einmal die Frage nach<br />

der Substanz des <strong>digitale</strong>n Bildes, das sich ja so unterschiedlich manifestieren kann. Damit<br />

werden wir uns ebenfalls noch eingehend in Kapitel 4 beschäftigen.<br />

3.4.6 Die veränderte Authentizität<br />

Ein viel diskutierter Aspekt ist die Frage der Objektivität, besser der Authentiziät der <strong>Bilder</strong><br />

be<strong>im</strong> Digital Imaging. Oft wird gefordert, dass Begriffe wie Glaubwürdigkeit, Wahrheit und<br />

Echtheit in diesem Zusammenhang neu ausgelotet werden müssen. Denn be<strong>im</strong> Digital Imaging<br />

haben wir die Situation, dass die so erzeugten <strong>Bilder</strong> nicht mehr aufgrund kausaler<br />

Zusammenhänge zwischen Urbild und Abbild entstehen, sondern ganz für sich stehen. Ein<br />

weiterer Gesichtspunkt ist der Prozess der <strong>digitale</strong>n Nachbearbeitung. Er ist <strong>im</strong> Vergleich zur<br />

herkömmlichen Retusche technisch wesentlich ausgefeilter. Das heißt die Möglichkeiten der<br />

Manipulation sind erheblich größer und aufgrund der „verlorenen Spuren“ des<br />

Arbeitsprozesses (vgl. Kapitel 5) ist eine nachträgliche Überprüfung des Bildes<br />

ausgeschlossen. Außerdem kann das <strong>digitale</strong> Bild komplett am Computer künstlich erzeugt<br />

werden. Hier bricht der Realitätsglaube an die Fotografie endgültig zusammen. Es gibt keine<br />

Realitätsreferenz mehr, wie in der <strong>analoge</strong>n Fotografie.<br />

Wittwer dazu: „Das <strong>digitale</strong> Bild, seinem Wesen nach nicht mehr direkt mit einem realen<br />

Objekt verknüpft, erhebt keinerlei Anspruch auf Authentizität. Es ist ganz sich selbst und<br />

lässt keinen Rückschluss zu, dass das abgebildete Objekt auch wirklich existent war.“ 47<br />

Dies wirft natürlich die Frage nach der Authentizität der Fotografie <strong>im</strong> Allgemeinen auf. Warum<br />

ist die <strong>analoge</strong> Fotografie überhaupt ein Bild, dem so hohe Glaubwürdigkeit zugeschrieben<br />

wird. Letztendlich hat sich dies ja auch auf Medien, wie das Fernsehen oder das Kino mit<br />

seinen Filmen übertragen. Vielleicht hängt die starke Authentizität des <strong>analoge</strong>n Bildes mit der<br />

Tatsache zusammen, dass nur das abgebildet werden kann, was faktisch vorhanden ist. Das<br />

Bild zeichnet sich selbst, durch die einfallenden Lichtstrahlen, die durch optische Verfahren in<br />

ihre Bahn gezwungen werden, so dass wir ein perspektivisches Bild erhalten, dass unserer<br />

gewohnten, durch doppelkonvexe Linsen geprägten Wahrnehmung sehr nahe kommt. Und<br />

doch müssen wir es gelernt haben, diese „<strong>im</strong>aginativen“ <strong>Bilder</strong>, wie sie Vilém Flusser nennt,<br />

zu lesen. 48 Denn sie sind Ausschnitte aus der vierd<strong>im</strong>ensionalen Raumzeit und reduziert auf<br />

zwei D<strong>im</strong>ensionen. Trotz dieser Umstände erkennen wir eine starke Ähnlichkeit zwischen der<br />

Realität und den abgebildeten Objekten.<br />

47 Christian Wittwer (1996), S. 37<br />

48 Vgl. Vilém Flusser, Für eine Philosophie der Fotografie, 9. Auflage, European Photography, Göttingen 2000, S. 8<br />

37


Wobei uns der Grad der Ähnlichkeit zwischen der Realität und der Abbildung sehr hoch<br />

scheint, was vielleicht mit der Strukturerhaltung und der Farb<strong>im</strong>itation in gemeinsamer<br />

Verbindung zu erklären ist.<br />

Ein interessanter Ansatz, diese Strukturerhaltung zu beschreiben, findet sich bei Gernot<br />

Böhme. Er versucht über eine Verbindung zum mathematischen Begriff der Abbildung der<br />

Frage nach der Authentizität des Fotos näher zu kommen:<br />

„Die Behauptung, dass Fotos realistisch seien, findet ihre Stütze auch von<br />

wissenschaftlicher bzw. technischer Seite her, und zwar mit Hilfe des Begriffs der<br />

Abbildung. Dieser Begriff ist wesentlich best<strong>im</strong>mter bzw. kann best<strong>im</strong>mter sein als der<br />

Begriff der M<strong>im</strong>esis. [...] Der Begriff der Abbildung aber läßt sich so verschärfen, dass damit<br />

eine ganz spezifische Relation zwischen Urbild und Abbild gemeint ist. Solche<br />

Verschärfungen finden sich in der Mathematik. Hier spricht man von der Abbildung einer<br />

Menge in die andere, wenn jedem Element der ersten Menge mindestens ein Element der<br />

zweiten zugeordnet ist. Man nennt sie eindeutig, wenn jedem Element aus der ersten Menge<br />

nur ein einziges Element aus der zweiten zugeordnet ist, sonst mehrdeutig. Man nennt eine<br />

Abbildung umkehrbar, wenn aufgrund der Abbildungsrelation auch jedem Element der<br />

zweiten Menge ein Element der ersten Menge zugeordnet ist; man nennt sie umkehrbar<br />

eindeutig, wenn jedem Element der zweiten Menge nur ein einziges Element der ersten<br />

Menge zugeordnet ist.“ 49<br />

Böhme versucht sich also vom Begriff der „M<strong>im</strong>esis“ zu lösen und diesen zu verschärfen.<br />

Das fotografische Bild hat für ihn also nicht nur nachahmenden Charakter, sondern lässt sich<br />

aufgrund der zugrundeliegenden geometrischen Optik mit naturwissenschaftlicher Präzision<br />

beschreiben. Dies geschieht indem er den mathematischen Begriff der Abbildung verwendet<br />

und damit auch das sehr schwierige Diskussionsfeld um die Ähnlichkeit von Abbildungen<br />

verlassen kann.<br />

Hier muss man allerdings kurz intervenieren. Die Äußerung, dass man von einer Abbildung<br />

einer Menge in eine andere spricht, wenn jedem Element der ersten Menge mindestens ein<br />

Element der zweiten zugeordnet ist, muss auf genau ein Element korrigiert werden. Sonst<br />

handelt es sich auf keinen Fall um eine Abbildung <strong>im</strong> mathematischen Sinn. Um weitere<br />

Unklarheiten vorzubeugen halte ich es für sinnvoll die verwendeten Begriffe in Kapitel 3.4.7<br />

kurz zu erläutern.<br />

Nach Böhme lassen sich die Methoden der Mathematik sehr gut auf die Verhältnisse der<br />

Fotografie anwenden. Die <strong>im</strong> Produktionsprozess eingesetzte geometrische Optik, kann mit<br />

den Gesetzen der Physik beschrieben werden, und lässt sich damit mathematisch<br />

formalisieren. Da es sich dabei zumindest <strong>im</strong> theoretischen Sinne um eine bijektive Abbildung<br />

handelt, sind die Abbildungsverhältnisse be<strong>im</strong> Fotografieren eindeutig und umkehrbar.<br />

Eindeutig deshalb, weil es sich um eine Abbildung handelt und umkehrbar, weil diese bijektiv<br />

ist. Somit existiert, wie gezeigt, die Umkehrabbildung. Aber die technische Realität setzt<br />

49 Gernot Böhme, Theorie des Bildes, Wilhelm Fink Verlag, München 1999, S.115-116<br />

38


Schranken und so sind diese Verhältnisse <strong>im</strong> Konkreten eingeschränkt, einerseits durch die<br />

Schärfe des Bildes und andererseits durch die Körnigkeit des Fotos. Unschärfe bedeutet,<br />

dass einem Punkt des Originals nicht nur ein Punkt auf dem Bild, sondern ein Hof um einen<br />

Punkt zugeordnet ist. Dieses Phänomen ist durch das fotografische Verfahren bedingt. Wie<br />

bereits angesprochen, wird dadurch nicht jedem Lichtstrahl ein materielles Gegenstück zur<br />

Verfügung gestellt, das dessen Bildinformation aufnehmen kann.<br />

Körnigkeit bedeutet, dass ein ganzer Hof des Originals nur einem Rasterpunkt, das heißt also<br />

dem Korn entspricht. Aber diese Beschränkungen des Auflösungsvermögen, die durch die<br />

Körnigkeit gegeben ist und die durch die Linsenoptik bedingte beschränkte Schärfe, setzen<br />

nur der technischen Realisierung des Abbildungsprinzips Schranken. Diese können durch<br />

verbesserte Technik <strong>im</strong>mer wieder verschoben werden.<br />

Das hindert aber nicht, dass das Prinzip eindeutiger Abbildung praktisch gültig ist, das heißt es<br />

lässt sich für den jeweiligen Verwendungszweck mit hinreichender Genauigkeit realisieren.<br />

Das ist allerdings ein sehr starkes Argument für den Realismus von Fotos. Es wird noch<br />

dadurch verstärkt, dass dieses Prinzip als Naturgesetz der geometrischen Optik, realisiert <strong>im</strong><br />

technischen Apparat, unabhängig vom jeweiligen Benutzer wirkt.<br />

Insofern kann das entstandene Bild, wie Eco sagt, als ein natürliches Zeichen angesehen<br />

werden, nämlich als Spur, die aufgrund kausaler Prozesse von dem Gegenstand, den das Bild<br />

bezeichnet, selbst erzeugt wird. 50 Man könnte also einen Apparat aufstellen, der automatisch,<br />

durch einen T<strong>im</strong>er gesteuert, Aufnahmen durchführt. Dies könnte in der Abwesenheit und<br />

damit unabhängig von Personen geschehen. Ich möchte aber kurz anmerken, dass sich ein<br />

generatives Computerbild selbst „schreibt“. Wir erhalten auch hier ein Bild aufgrund kausaler<br />

Prozesse. Es wäre aber fraglich, ob man dabei den Apparat als Produkt eines theoretischen<br />

Konzeptes mit dem ausführenden Computerprogramm vergleichen könnte.<br />

Der Charakter der Fotografie wird nun noch durch den Begriff des Isomorphismus präzisiert<br />

(vgl. Kapitel 3.4.7 ). Eine Abbildung nennt man isomorph, wenn die Beziehungen von Punkten<br />

des Urbildes den Beziehungen der Punkte des Abbildes entsprechen, also die Art der<br />

Beziehung der Punkte untereinander erhalten bleibt.<br />

Dies kann <strong>im</strong> schärfsten Fall bedeuten, dass die Punkte des Abbildes in derselben Relation<br />

wie die Punkte des Urbildes stehen, also das zum Beispiel die Größenverhältnisse erhalten<br />

bleiben oder dass eine gerade Linie <strong>im</strong> Urbild sich als gerade Linie <strong>im</strong> Abbild wiederfindet.<br />

Genau diese Verschärfung kann aber <strong>im</strong> fotografischen Bild gar nicht realisiert sein, weil ja<br />

das abfotografierte Urbild dreid<strong>im</strong>ensional, das Abbild nur zweid<strong>im</strong>ensional ist. Hier sind die<br />

Verhältnisse durch die Zentralperspektive geregelt. Das Foto entspricht danach einer<br />

Schnittfläche des Kegels, der vom Augenpunkt zum <strong>im</strong> Bild sichtbaren Ausschnitt der<br />

Wirklichkeit durch gerade Linien konstruiert werden kann.<br />

50 Vgl.Umberto Eco, Zeichen. Einführung in einen Begriff und seine Geschichte, Suhrkamp Verlag, Frankfurt am Main 1977, S.37<br />

39


Daraus folgt, dass die Beziehungen zwischen zwei Punkten des Urbildes sich zwar nicht als<br />

dieselben Beziehungen zwischen den Punkten des Abbildes wiederfinden, wohl aber dass<br />

diese Beziehungen selbst zueinander in einem rationalen Verhältnis stehen. Sie werden<br />

nämlich in einem von der Richtung abhängigem Maß verkürzt oder verlängert. Auch hieraus<br />

ergibt sich wieder ein starkes Argument für den Realismus von Fotos: Die Verhältnisse, die<br />

zwischen den Teilen des Originals bestehen und also seine Struktur ausmachen, finden sich<br />

in rational nachprüfbarer Weise <strong>im</strong> Bild wieder. 51<br />

Alle diese Eigenschaften besitzt das <strong>digitale</strong> Bild prinzipiell auch, sofern es sich um eine<br />

Abbildung der sinnlich wahrnehmbaren Welt und nicht um ein generatives Bild handelt. Also<br />

zum Beispiel eine mit einer Digitalkamera aufgenommene Stadtsituation.<br />

Aber die bereits gezeigten Unterschiede in der Zeitlichkeit des Abbildungsprozesses, der Art<br />

und Weise, wie die Bildinformationen gesammelt und festgehalten werden, lassen Zweifel<br />

aufkommen, ob es sich hierbei tatsächlich um gleiche <strong>Bilder</strong> handelt, da die Bedingungen<br />

derart voneinander abweichen. Vor allem die potenziell vorhandene Möglichkeit der<br />

Bildbearbeitung, oder schärfer gesagt der bewussten Manipulation, führt zu einem weitaus<br />

stärkeren Vertrauensverlust an den <strong>Bilder</strong>n. Diese könnten ja sogar vollständig am Rechner<br />

erzeugt sein, also evolutionäre oder generative <strong>Bilder</strong> sein, die selbstständig durch<br />

Algorithmen entstehen. „Das Reale weicht dem Kalkulierten, das jetzt das eigentliche Reale<br />

wird. Die Fiktion wird zum Faktum, das Foto gerät zu einer Einbildung. Glaubwürdig ist jetzt<br />

nur noch das Bild als Bild <strong>im</strong> Zusammenhang mit anderen <strong>Bilder</strong>n und Texten.“ 52<br />

Es geht also ein hohes Gut verloren, die Beweiskraft. Der Konsens über die Abbildungstreue<br />

des Apparates verliert durch das Digital Imaging an Bedeutung.<br />

51 Vgl. Gernot Böhme (1999), S.115-117<br />

52 Gottfried Jäger , Abbildungstreue. Fotografie als Visualisierung: Zwischen <strong>Bilder</strong>fahrung und <strong>Bilder</strong>findung, in: Gottfried Jäger,<br />

Andreas Dress (Hrsg.) (1999), S. 148<br />

40


3.4.7 Abbildungen, Mengen und andere mathematischen Begriffe<br />

Hierzu ein kurzer mathematischer Exkurs als Einschub. Die folgenden Begrifflichkeiten sind<br />

sicherlich nicht adhoc für jedermann zu verstehen, es erfordert vielleicht ein wenig Geduld<br />

und Ausdauer sich die Begrifflichkeiten zu erarbeiten. Es ist aber <strong>im</strong> Zusammenhang der<br />

Beschreibung von Authentizität von Böhme, die auf den Abbildungsbegriff baut, unumgänglich<br />

diese Vorarbeit zu leisten.<br />

Unter einer Abbildung versteht man als Künstler zum Beispiel eine „realistische“ Darstellung<br />

einer Landschaft oder vielleicht eines Menschen. Wenn also ein Bild in seiner Ähnlichkeit dem<br />

ursprünglichen Anlass sehr nahe kommt. Was ist nun aber eine Abbildung <strong>im</strong> mathematischen<br />

Sinn? Aus der Schule kennt man den Begriff der Funktion, der dort eine zentrale Rolle spielt.<br />

Im Prinzip bezeichnen beide Begriffe denselben Sachverhalt, wobei der Begriff der Abbildung<br />

den allgemeineren Charakter besitzt.<br />

Der Abbildungsbegriff beruht auf den Mengenbegriff. Als Begründer der Mengenlehre gilt<br />

Georg Cantor (1845-1918). Die Mengenlehre hat nahezu alle Gebiete der Mathematik<br />

entscheidend vorangebracht beziehungsweise erst ermöglicht und hat sich zu einem<br />

zentralen Fundament der Mathematik entwickelt.<br />

3.4.7.1 Der Mengenbegriff<br />

Bevor man den Begriff der Menge verwenden kann, muss zunächst einmal geklärt werden,<br />

was man denn unter diesem verstehen will. Aus dem alltäglichen Sprachgebrauch haben wir<br />

eine intuitive Vorstellung einer Menge. Eine Menge wird in diesem Zusammenhang oft als<br />

Anhäufung, Ansammlung oder auch als Größenangabe verstanden.<br />

In der Mathematik ist es häufig notwendig, gewisse Zahlen oder sonstige mathematische<br />

Objekte mit gemeinsamen Eigenschaften zusammenzufassen. Dazu dient der Begriff der<br />

Menge. Der grundlegende Begriff der Mengenlehre ist die Elementbeziehung. Cantor lieferte<br />

eine Definition, die den Mengenbegriff wie folgt best<strong>im</strong>mt: Eine Menge A ist eine<br />

Zusammenfassung best<strong>im</strong>mter, wohlunterschiedener Objekte a unserer Anschauung oder<br />

unseres Denkens zu einem Ganzen.<br />

Diese Objekte heißen Elemente der Menge. Man kann nun unterscheiden, ob ein Objekt zur<br />

Menge gehört oder nicht. Wenn nun ein Element a zur Menge A gehört, so schreibt man a ∈ A,<br />

sonst a ∉ A. So könnte man zum Beispiel verschiedene Städtenamen zu einer Menge<br />

zusammenfassen. Dies könnte die Menge M:={Berlin, Stuttgart, Ludwigsburg} sein. Man<br />

verwendet dabei die so genannte Aufzählung in geschweiften Mengenklammern. Die<br />

Elemente diese Menge wären „Berlin“, „Stuttgart“ und „We<strong>im</strong>ar. Das heißt das Element „Berlin“<br />

gehört zur Menge und die Stadt „Freiburg“ gehört nicht zur Menge. Man würde deshalb<br />

schreiben Berlin ∈ M und Freiburg ∉ M.<br />

41


Ein wichtiger Begriff ist die Teilmenge. N<strong>im</strong>mt man aus einer Menge einen Teil oder auch die<br />

ganze Menge heraus, nennt man die neu entstehende Menge Teilmenge.<br />

Damit kann man nun den Begriff der „disjunkten Teilmenge“ erläutern. Wenn man es schafft<br />

eine Menge in Teilmengen aufzuteilen, die jeweils keine gemeinsamen Elemente besitzen, so<br />

spricht man von einer Disjunktion oder disjunkten Teilmengen. Dies heißt aber auch das es<br />

möglich ist, das jedes Element der Ausgangsmenge einer der vorhandenen Teilmenge<br />

eindeutig zuzuordnen. Die von Cantor entwickelte Definitionen werden heute gelehrt und<br />

ständig verwendet, es ist aber bekannt, dass der so genannte „naive“ Mengenbegriff bei der<br />

Betrachtung von unendlichen Mengen zu erheblichen Widersprüchen, so genannten<br />

Antinomien führen kann. Denn man hat festgestellt, dass es Sinn macht, auch Mengen mit<br />

unendlich vielen Elementen bezüglich der Anzahl ihrer Elemente zu unterscheiden. Damit<br />

werden wir uns später noch eingehend beschäftigen.<br />

3.4.7.2 Der Abbildungsbegriff<br />

Unter einer Abbildung versteht man nun die eindeutige Zuordnung der Elemente einer Menge A<br />

zu den Elementen einer Menge B. Jedem Element von A muß genau ein Element von B<br />

zugeordnet sein, verschiedenen Elementen von A kann aber dasselbe Element von B<br />

zugeordnet sein. Ist f eine solche Abbildung, so schreibt man<br />

f: A à Z<br />

und sagt: f ist eine Abbildung von A in Z. Man nennt A die Ausgangsmenge oder<br />

Definitionsmenge von f und Z die Zielmenge, Wertemenge oder Bildmenge von f.<br />

3.4.7.3 Abbildungstypen<br />

Auf den Abbildungsbegriff aufbauend, kann man verschiedene Arten von Abbildungen<br />

unterscheiden. Dies ist wichtig, da diese wiederum verschiedene Eigenschaften besitzen. Im<br />

wesentlichen unterscheidet man drei Arten von Abbildungen.<br />

Ordnet die Abbildung f dem Element a ∈ A das Element z ∈ Z zu, so heißt z das Bild von a<br />

unter der Abbildung f, und man schreibt<br />

f: a à z oder f(a)=z.<br />

Bestehen die Mengen A und Z aus Zahlen, so verwendet man auch die Bezeichnung<br />

Funktion.<br />

Eine Abbildung f: A à Z heißt injektiv oder eine Injektion, wenn zwei verschiedene Elemente<br />

von A <strong>im</strong>mer zwei verschiedene <strong>Bilder</strong> haben, wenn also für a1 ≠ a2 auch f(a1) ≠ f(a2) gilt.<br />

Eine Abbildung f: A à Z heißt surjektiv oder eine Surjektion, wenn jedes Element von Z als Bild<br />

vorkommt, wenn für jedes z ∈ Z also ein a ∈ A mit f(a)=z existiert.<br />

42


Eine Abbildung heißt bijektiv oder eine Bijektion, wenn sie injektiv und surjektiv ist. Jedes<br />

Element z ∈ Z ist dann Bildelement von genau einem Element a ∈ A.<br />

Ist f: A à Z eine bijektive Abbildung dann existiert die Umkehrabbildung f -1 : Z à A<br />

Eine bijektive Abbildung ist also umkehrbar. Die bijektive Abbildung spielt auch <strong>im</strong> Vergleich von<br />

Mengen eine Rolle. Wenn man wissen will, ob zwei gegebene Mengen gleich „groß“ sind, also<br />

gleich viele Elemente besitzt, versucht man eine bijektive Abbildung zwischen beiden<br />

anzugeben. Gelingt dies besitzen beide Mengen gleich viel Elemente und man nennt sie<br />

gleichmächtig, wenn man zeigen kann, dass es eine bijektive Abbildung zwischen beiden gibt.<br />

Denn dann wird ja jedem Element der ersten Menge, genau ein Element der zweiten<br />

zugeordnet. Wenn man zum Beispiel wissen will, ob in einer Schulklasse gleichviel Jungen<br />

und Mädchen sind, kann man versuchen Pärchen aus jeweils einem Jungen und einem<br />

Mädchen zu bilden. Gelingt dies, so dass niemand übrig bleibt, hat man die Menge der Jungen<br />

der Menge der Mädchen bijektiv zugeordnet. Es sind also gleichviel Mädchen und Jungen in<br />

der Klasse.<br />

3.4.7.4 Der Isomorphismus<br />

Aufbauend auf den Begriff der bijektiven Abbildung, lassen sich nun Abbildungen<br />

beschreiben, bei denen zusätzlich die Beziehungen der Elemente untereinander erhalten<br />

bleiben. Die Struktur der Elemente wird also mit abgebildet. Es besteht sowohl <strong>im</strong> Urbild, als<br />

auch <strong>im</strong> Bild dieselbe Struktur der Elemente zueinander. Eine Abbildung mit den oben<br />

genannten Eigenschaften nennt man Isomorphismus. Als Beispiel könnte man sich ein<br />

dreid<strong>im</strong>ensionales Modell der Planeten des Sonnensystems vorstellen. Im Modell haben sich<br />

verschiedene Eigenschaften <strong>im</strong> Vergleich zum Original verändert. Das Modell ist zum Beispiel<br />

in der Größe geschrumpft aber die Struktur der Planeten, die Größenbeziehungen und<br />

Stellungen der Planeten zueinander ist erhalten geblieben.<br />

43


3.5 Digitalisierung / Analogisierung<br />

3.5.1 Einführung<br />

Wie die verschiedenen Apparate arbeiten, haben wir am Beispiel der Fotografie<br />

beziehungsweise des Digital Imaging gesehen. Dabei haben wir bis jetzt nur am Rande über<br />

den Übergang vom <strong>analoge</strong>n zum <strong>digitale</strong>n Bild gesprochen, wie er ja auch zum Beispiel be<strong>im</strong><br />

Digital Imaging passiert. Hier haben wir zunächst die <strong>analoge</strong> Erscheinung der Welt und<br />

erhalten als Endergebnis ein digital umgesetztes Bild. Den Vorgang der Umsetzung nennt man<br />

Digitalisierung. Da herkömmliche Computer nur mit <strong>digitale</strong>n Daten umgehen können, müssen<br />

analog vorliegende Daten zunächst digitalisiert werden. Dabei ist gerade der eigentliche<br />

Umwandlungsprozess, also der Übergang vom <strong>analoge</strong>n zum <strong>digitale</strong>n Bild von großem<br />

Interesse. Denn an dieser Stelle erhält das zukünftige <strong>digitale</strong> Bild seine Beschaffenheit.<br />

Die Frage was be<strong>im</strong> Erzeugen eines <strong>digitale</strong>n Bildes eigentlich genau passiert, soll <strong>im</strong><br />

Folgenden geklärt werden. Dabei werden wir auch vom Bild weggehen und etwas abstrakter<br />

über den Transformationsprozess sprechen. Doch zunächst zu den <strong>Bilder</strong>n.<br />

Abbildung 7: Illustration des Digitalisierungspozesses 53<br />

Um <strong>Bilder</strong> mit Rechnern verarbeiten zu können, müssen sie in Datenformate umgesetzt<br />

werden, die rechnerkompatibel sind. Das heißt die <strong>Bilder</strong> müssen derart aufbereitet werden,<br />

dass sie der Computer „versteht“. Für fotografische Vorlagen oder Strichzeichnungen<br />

werden hierzu so genannte Scanner oder auch Zeilenabtaster eingesetzt. Das eigentliche<br />

Gerät, das die Umwandlung vorn<strong>im</strong>mt, ist ein Analog-Digital-Wandler. In Digitalkameras findet<br />

dieser Vorgang ebenfalls mithilfe eines A/D-Wandlers statt.<br />

53 Bildquelle: http://www.agfanet.com/de (07.01.2002)<br />

44


3.5.2 Umwandlung von <strong>Bilder</strong>n<br />

Zwei Vorgänge sind bei der Umwandlung von <strong>Bilder</strong>n von besonderer Bedeutung, zum einen<br />

die Rasterung, zum anderen die Quantisierung.<br />

Bei der Rasterung wird das vorliegende Bild durch die Überlagerung eines zumeist<br />

rechteckigen oder quadratischen Gitters in einzelne Rasterflächenstücke unterteilt. Die<br />

Rasterung des Bildes überführt dieses in ein zweid<strong>im</strong>ensionales rechteckiges Zahlenschema,<br />

eine so genannte Bildmatrix. (Abbildung 8) Eine Zeile der Bildmatrix wird als Bildzeile, eine<br />

Spalte wird als Bildspalte und eine Rasterfläche, also ein Bildelement, als Bildpunkt, oft auch<br />

als Pixel bezeichnet. Pixel ist ein Kunstwort, gebildet aus der englischen Bezeichnung „picture<br />

elements“. Die Bildmatrix selbst kann unterschiedliche Geometrien aufweisen. Für die<br />

zweid<strong>im</strong>ensionale Bildmatrix wird fast ausschließlich eine rechteckige Basiszelle benutzt und<br />

keine quadratische, da die gängigen Bildformate rechteckig sind (Kleinbildfilme: 24 x 36 mm,<br />

Videobilder haben ein Seitenverhältnis von 3 zu 4), aber <strong>im</strong> <strong>digitale</strong>n Bild eine gleiche Anzahl<br />

von Bildpunkten in beiden Koordinaten erwünscht ist. Ein Bildpunkt auf dem Gitter nennt man,<br />

wie bereits gesagt, Pixel. Die Pixelposition wird mit einem Zahlenpaar (m,n) ∈ (0,..,M-1,0,..,N-<br />

1) angegeben. Mit n bezeichnet man auch den Zeilenindex und entsprechend bezeichnet m<br />

den Spaltenindex, dabei ist N die Zeilenanzahl und M die Spaltenanzahl der Matrix. Durch die<br />

Beschaffenheit der Bildmatrix, es handelt sich hierbei um eine so genannte diskrete<br />

Geometrie, ergeben sich verschiedene Konsequenzen. So können die Bildinhalte nur um<br />

best<strong>im</strong>mte Winkelgrade gedreht werden, bei quadratischen Rastern um ein Vielfaches von<br />

90°. Auch bei der Vergrößerung oder Verkleinerung von Bildinhalten ergeben sich<br />

ungewünschte Veränderungen.<br />

Abbildung 8: Rasterung des Bildes<br />

Die Rasterung führt zu einer Begrenzung der Auflösung des Bildes. Je feiner das Raster ist,<br />

das über die Vorlage gelegt wird, desto höher ist die resultierende Auflösung des Bildes. Es<br />

gibt also mehr Bildelemente, Pixel pro Längeneinheit (Zent<strong>im</strong>eter, Inch oder ähnliches).<br />

Die Rasterung erfolgt teilweise schon bei der Aufnahme eines Bildes mit einer <strong>digitale</strong>n Fotooder<br />

Videokamera, welche die ortsabhängige Lichtintensität des projizierten Bildes in<br />

45


elektrische Signale überträgt. Eine konventionelle Röhrenkamera zerlegt ein Bild durch<br />

zeilenweises Abtasten mit einem Elektronenstrahl in einzelne Zeilen. Damit ist die vertikale<br />

Rasterung schon gegeben. Eine CCD-Kamera hat als Sensor ein zweid<strong>im</strong>ensionales Feld von<br />

Photodioden. Jede dieser Dioden kann als Rasterpunkt einer diskreten zweid<strong>im</strong>ensionalen<br />

Bildmatrix betrachtet werden. Be<strong>im</strong> „einlesen“ einer Vorlage geschieht die Rasterung be<strong>im</strong><br />

Scannen. Dabei können sich in Abhängigkeit von der Lage des Originals auf dem<br />

quadratischen Raster Unterschiede in der Form ergeben.<br />

Zur Quantisierung wird jeder dieser Rasterflächen mit einer der vorgegebenen Farb- oder<br />

Grauwerte, <strong>im</strong> einfachsten Fall nur schwarz oder weiß, gefüllt. Das heißt jeder Rasterfläche<br />

muss einer der zur Verfügung stehenden Farbwerte zugeordnet werden. Dabei muß<br />

entschieden werden, welcher der Farbwerte in Frage kommt. Das Problem an dieser Stelle ist,<br />

daß den „kontinuierlich“ vorliegenden Farbwerten des Urbildes nur endlich viele Werte des<br />

zukünftigen Bildes gegenüberstehen.<br />

Zur Erläuterung nehmen wir einmal an, dass wir ein <strong>analoge</strong>s Schwarz-Weiß-Bild<br />

digitalisieren wollen, wobei wir <strong>im</strong> <strong>digitale</strong>n Bild nur zwei Grauwerte verwenden wollen. Im<br />

vorliegenden Beispiel (Abbildung 9) haben wir also zunächst ein <strong>analoge</strong>s „Schwarz-Weiß-<br />

Bild“. Bei diesem Grautonbild erfolgt die Abbildung des Motivs durch unterschiedliche<br />

Schwärzung der Photoschicht. Im Quantisierungsprozeß wird nun jedem Farbwert, hier<br />

Grauwert, des Originals ein möglicher Farbwert zugeordnet. Das heißt konkret es können nur<br />

die zwei Farbwerte „weiß“ und „schwarz“ zugeordnet werden. Dazu muss überprüft<br />

werden, wie stark ein Bildpunkt vom Objekt überdeckt ist. Wenn die Fläche eines Bildpunktes<br />

zu 50% oder mehr vom Objekt überdeckt wird, wird dieser Schwarz gefärbt, sonst ist er<br />

weiß.<br />

Abbildung 9: Quantisierung des Bildes mit zwei Grauwerten<br />

So erhalten wir das Computerbild. Dieses Schwarz-Weiß-Bild ist nur aus zwei Grautönen<br />

(Schwarz und Weiß) zusammengesetzt. Hier werden also nur zwei Farbwerte zur<br />

Verfügung gestellt. Es ist klar, dass die Farbqualität des Bildes umso besser wird, je mehr<br />

Grauwerte zur Verfügung stehen. Dabei ist eine Grauwertmenge von 256 Grauwerten in den<br />

meisten Fällen für das menschliche Auge ausreichend.<br />

Bei Farbbildern läuft dieser Vorgang gleich ab, nur daß anstatt der Grauwerte nun echte<br />

Farbwerte zur Auswahl stehen. Meist werden in mehreren Schritten die drei Grundfarben<br />

46


zugeordnet, also drei <strong>Bilder</strong> erzeugt, die dann miteinander verrechnet werden. Es werden so<br />

genannte Rot-, Grün- und Blauauszüge angefertigt. Jeder der drei Abtastvorgänge ergibt ein<br />

Grundfarben-Teilbild des entstehenden Bildes. Schließlich können die jetzt „digital“, als<br />

Zahlenwerte vorliegenden <strong>Bilder</strong> gespeichert werden und stehen für die Weiterverarbeitung<br />

zur Verfügung.<br />

3.5.3 Umwandlung abstrakt betrachtet - Theorie<br />

Wir wollen uns pr<strong>im</strong>är um <strong>Bilder</strong> kümmern, aber man kann den Digitalisierungsvorgang auch<br />

abstrakt betrachten, also losgelöst von der konkreten Anwendung. Dies ist nützlich, um den<br />

Ablauf prinzipiell zu verstehen.<br />

Ausgehend von <strong>analoge</strong>n Daten, die vielseitig vorliegen können, als Bild, als Schallwelle (Ton,<br />

Geräusch) oder auch als abstrakte Messdaten, geht es <strong>im</strong> Digitalisierungsprozess darum, die<br />

Informationen derart zu codieren, dass sie unter Verwendung eines begrenzten Repertoires<br />

an Zeichen dargestellt werden können.<br />

Abbildung 10: <strong>analoge</strong>s Bild mit<br />

überabzählbar vielen Bildpunkten<br />

Mathematisch schreiben wir die Digitalisierung des Bildes als Abbildung f einer<br />

zweid<strong>im</strong>ensionalen Bildfunktion mit einem unendlichen Definitionsbereich auf eine<br />

zweid<strong>im</strong>ensonale Matrix mit diskretem Definitionsbereich:<br />

f: g( x1, x2) à g(m,n) ; x1, x2 ∈ R m, n ∈ N<br />

dabei können die Funktionswerte g(m,n) der Matrix noch Werte aus einem unendlichen<br />

Wertebereich annehmen. Dies stellt den Zustand des Bildes nach der Rasterung dar. Dazu<br />

müssen die kontinuierlich vorliegenden Informationen abgetastet werden. Das heißt es<br />

müssen <strong>im</strong> weitesten Sinn Messungen vorgenommen werden. Diese Messungen finden in<br />

gleichmäßigen Abständen statt, das heißt die Rasterpunkte sind äquidistant zueinander.<br />

Handelt es sich zum Beispiel um musikalische Daten wird dieser Vorgang auch Sampling<br />

genannt. Hier findet eine Abtastung in gleichen Zeitabständen statt Die Samplingrate oder<br />

Samplingfrequenz, gibt also darüber Auskunft, wie oft pro Sekunde (Hz = 1/s) Informationen<br />

47


abgetastet werden. Es ist klar, dass die Qualität der digitalisierten Daten umso höher ausfällt,<br />

je öfter die <strong>analoge</strong>n Werte abgefragt werden.<br />

4,34532...<br />

Abbildung 11: gerastertes Bild mit endlich vielen Bildpunkten<br />

Dabei ist auch klar, dass alle Werte des Originals, die zwischen zwei Messpunkten liegen<br />

verloren gehen. Dies gilt selbstverständlich sowohl für <strong>Bilder</strong>, wie auch Sound und andere<br />

Daten. Wenn man nur einen Teil der vorliegenden Daten auswählt, geht der andere Teil<br />

selbstverständlich verloren, man verliert also zwangsläufig ein gewisses Maß an Information.<br />

In diesem Zusammenhang spricht Goodman von Tilgung 54 , was den Sachverhalt sehr<br />

anschaulich nahelegt. Auf die <strong>Bilder</strong> übertragen, wäre dies der Fall, wenn das Gitter bei der<br />

Rasterung zu grob gewählt wurde. Dann wäre die sich ergebende Auflösung des Bildes<br />

derart unscharf, dass ein „Wiedererkennen“ des ursprünglichen Bildes unmöglich wäre. 55<br />

Dies also ist der Zustand nach der Rasterung des Bildes. Der Verlust ist aber auch<br />

vorhanden, wenn wir dies nicht mehr mit unserem kognitiven System überprüfen können, die<br />

Ausmaße der Verluste also außerhalb des für uns sinnlich Wahrnehmbaren liegen.<br />

Abbildung 12: Prinzip der Digitalisierung<br />

54 Nelson Goodman (1998), S. 158<br />

55 Vergleiche hierzu auch die Arbeit von Holger Friese (Berlin). Friese verwendete in seiner Installation eine digitalisierte Version des<br />

Filmes „Zabriskie Point“ aus den 60-er Jahren, den er auf 3x3 Pixel reduziert. Die verbleibenden 9 Pixel zeigt er mit großen von Innen<br />

beleuchtbaren Kisten, die auf- und nebeneinander gestapelt als Quadrat angeordnet sind. Es geht ihm dabei genau um die Frage der<br />

Wiedererkennung, also um die Grenze der Auflösung. Dabei hat er die visuelle Grenze verschoben, indem er einen zusätzlichen Kanal,<br />

nämlich den der Musik ins Spiel bringt. Friese spielt zum 3x3 Pixel Bild den Original Soundtrack des Filmes synchron ab, also unter<br />

anderem die psychedelische Musik von Pink Floyd. Er versetzt den Betrachter in dieser Weise in einen merkwürdigen Zustand der<br />

Wiedererkennung und der Irritation.<br />

48


Im zweiten Schritt der Quantifizierung werden die noch kontinuerlich vorliegenden Werte den<br />

zur Verfügung stehenden diskreten endlichen Farbwerten zugeordnet. Es muß also wie<br />

bereits erläutert werden, welcher Farbwert für welchen Datenwert in Frage kommt. Wenn<br />

man eine Größe, die beliebig viele Zwischenstufen annehmen kann, in eine andere mit nur<br />

best<strong>im</strong>mten Werten umwandelt, verliert man zwangsläufig ein gewisses Maß an Information.<br />

4<br />

Abbildung 13: gerastertes und quantifiziertes Bild<br />

Beide Aspekte best<strong>im</strong>men wesentlich die Qualität und davon abhängig die Datenmenge.<br />

In der Praxis stellt man die Samplingrate beziehungsweise die Empfindlichkeit des<br />

Messvorgangs bei der Digitalisierung deshalb oft so ein, dass der Informationsverlust<br />

möglichst vernachlässigbar gering ist und die Datenmenge nicht zu groß wird. Man kann<br />

diesen Informationsverlust sehr gut anhand von digitalisierten Fotos sehen. Je weniger<br />

verschiedene Farben und je weniger Bildpunkte <strong>im</strong> digitalisierten Bild verwendet werden,<br />

desto größer der Informationsverlust. Letztendlich ist die Digitalisierung ein Vorgang, bei dem<br />

Erscheinungen der wirklichen Welt (<strong>Bilder</strong>, Töne, Messwerte etc.) in Folgen von Bits<br />

umgewandelt werden. Je genauer die Digitalisierung erfolgt, desto umfangreicher sind diese<br />

Bitfolgen. Allein mit solchen Bitfolgen kann ein Computer umgehen. Weil ein Computer nur<br />

begrenzte Kapazitäten besitzt, um solche Bitfolgen zu speichern, kann die Digitalisierung nur<br />

mit begrenzter Genauigkeit erfolgen. Ein Problem der Digitalisierung, ist die mögliche<br />

Verfälschung als Folge des Informationsverlustes. Das Phänomen tritt dann auf, wenn die<br />

Abtastrate ungünstig gewählt wurde, und die erhaltenen Messdaten ein „falsches“ Bild des<br />

ursprünglichen Sachverhaltes wiedergeben.<br />

Abbildung 14: Prinzip des Sampling<br />

49


Dieser Vorgang ist in Abbildung 14 dargestellt. Während <strong>im</strong> linken Bild die Abtastrate<br />

angemessen gewählt wurde, ist dies <strong>im</strong> rechten Bild nicht der Fall. Betrachtet man die<br />

resultierenden schwarzen Punkte der Messung, also die <strong>digitale</strong>n Daten, erhält man <strong>im</strong> linken<br />

Bild einen sinnvollen Eindruck des Verlaufs der Kurve. Dies ist <strong>im</strong> rechten Bild nicht der Fall,<br />

hier kann man keine Aussagen mehr über den ursprünglichen Verlauf der Kurve machen. Als<br />

anschauliches Beispiel kann man sich ein gewöhnliches Flüssigkeitsthermometer vorstellen,<br />

an dem man alle 10 Minuten die Temperatur abliest.<br />

Wenn man die abgelesenen Temperaturwerte vor sich liegen hat, ist es <strong>im</strong> nachhinein<br />

unmöglich Aussagen darüber zu machen, welche Temperaturen zwischen zwei Messungen<br />

geherrscht haben. Intuitiv würde man davon ausgehen, dass bei einer Erhöhung der<br />

Temperatur von 2° auf 5° diese langsam angestiegen ist. Es wäre aber auch durchaus<br />

denkbar, dass die Temperatur zwischenzeitlich auf 8° gestiegen ist und dann wieder auf 5°<br />

gefallen ist. Dies kann aufgrund der vorliegenden Daten nicht mehr mit Sicherheit rekonstruiert<br />

werden. In umgekehrter Weise funktioniert die Analogisierung von Daten. Dabei übern<strong>im</strong>mt ein<br />

so genannter Digital/Analog-Wandler die Aufgabe der Umwandlung. Es ist klar, dass bei<br />

diesem Vorgang, die Werte wieder ergänzt werden müssen. Goodman spricht in diesem<br />

Zusammenhang anschaulich von „Ergänzung“.<br />

3.7 Spezifische Eigenschaften<br />

Nachdem wir jetzt am Beispiel der Fotografie beziehungsweise des Digital Imaging die<br />

Unterschiede der beiden Medienarten, also der „<strong>analoge</strong>n“ und „<strong>digitale</strong>n“ Bildmedien heraus<br />

gearbeitet haben, können wir versuchen die spezifischen Eigenschaften noch einmal kurz<br />

anzugeben. Zumindest die, die wir bis jetzt herausgefunden haben. Wir müssen uns aber<br />

auch um die Übertragung auf die anderen künstlerischen Medien kümmern. Die Frage die sich<br />

stellt, ist, ob sich bei den herausgefundenen Eigenschaften, vielleicht nur um spezielle<br />

Eigenschaften der Fotografie handelt. Welche der gefundenen Eigenschaften darf man auf<br />

andere Bildmedien übertragen? Im Folgenden werde ich versuchen eine kurze<br />

Zusammenfassung dessen zu geben.<br />

3.7.1 Analoge Bildmedien<br />

Eine der wichtigen Eigenschaften der <strong>analoge</strong>n Bildmedien, haben wir festgestellt, ist die der<br />

unmittelbaren Wahrnehmung. Sie sind für den menschlichen Wahrnehmungsapparat<br />

unmittelbar erfassbar. Dieses Phänomen zeigt sich in der Malerei, der Zeichnung, aber auch in<br />

den reproduzierbaren Medien wie der Fotografie oder der Druckgrafik.<br />

In den ersten beiden Fällen haben wir eine materielle Beschaffenheit, die <strong>im</strong> Arbeitsprozess<br />

festgelegt wird, und die jederzeit unmittelbar sinnlich erfasst werden kann. So funktioniert ja<br />

50


überhaupt der Arbeitsprozess, durch ständig wiederholtes Bearbeiten, Wahrnehmen und<br />

Reflektieren und erneutes Verändern des als unfertig eingeschätzten.<br />

Bei den reproduzierbaren Medien haben wir zunächst eine „Form“, aber auch diese kann<br />

eigentlich <strong>im</strong>mer visuell erfasst werden und Künstler die mit diesen Medien, zum Beispiel der<br />

Radierung arbeiten, lernen mit der Zeit diese schon <strong>im</strong> Zustand der Form zu „lesen“ und zu<br />

„schreiben“. Eine Ausnahme wäre dagegen die <strong>analoge</strong> Fotografie, bei der zunächst ein<br />

„latentes“ Bild entsteht, auch eine Art „Form“, die aber nicht durch unser kognitives System<br />

wahrgenommen werden kann. Nicht weil wir es nicht gelernt haben, sondern weil es uns<br />

generell nicht möglich ist, die Informationen in diesem Zustand sinnlich zu erfassen.<br />

Eine andere Eigenschaft der Malerei und auch der Zeichnung, den die <strong>digitale</strong> Umwandlung<br />

und Aufbewahrung der <strong>Bilder</strong> zunichte macht, ist die Oberflächenbeschaffenheit. Wenn die<br />

Malerei und die Zeichnung auch für gewöhnlich als zweid<strong>im</strong>ensional angesehen wird, so<br />

spielt diese Beschaffenheit doch eine nicht unerhebliche Rolle. Durch die oft reliefartige<br />

Beschaffenheit der Oberfläche entstehen spezielle Wirkungen. Durch die Bearbeitung des<br />

Materials können Erhöhungen oder auch Vertiefungen entstehen. Durch das Überlagern<br />

verschiedener Bildschichten können Erhöhungen oder Verdickungen und durch das Einritzen<br />

oder Kratzen können Vertiefungen an best<strong>im</strong>mten Stellen entstehen. Damit entsteht min<strong>im</strong>ale<br />

Plastizität, die aber am fertigen Artefakt eine nicht unerhebliche Rolle spielt. Den <strong>digitale</strong>n<br />

<strong>Bilder</strong>n fehlt diese Eigenschaft gänzlich, sie werden deshalb oft auch als „tot“ bezeichnet.<br />

Man kann das an „eingescannten“ Zeichnungen oder auch Malereien sehr schön sehen.<br />

Die <strong>im</strong> Bereich der Fotografie und des Digital Imaging festgestellte Differenz der Authentizität<br />

ist nur schwer und wenn sehr differenziert auf die anderen Medien zu übertragen. Bei<br />

<strong>Bilder</strong>n, die von Apparaten erzeugt wurden (wie es bei der Fotografie der Fall ist) gehen wir<br />

von einer relativ hohen Authentizität aus, weil sich die <strong>Bilder</strong> sozusagen selbst „schreiben“,<br />

ohne das Zutun eines Menschen. Das entstandene Bild ist in seiner Beschaffenheit von Form<br />

und Farbe sehr nah an dem dran, was uns die Realität zeigt. Dabei bleibt in der Fotografie<br />

sogar die Struktur der Bildelemente zueinander, wie gezeigt wurde, in der Art eines<br />

Isomorphismus erhalten. Dieser Vertrauensvorsprung wurde durch das Digital Imaging<br />

erschüttert. Es besteht nun <strong>im</strong> extremsten Fall die Möglichkeit autonome <strong>Bilder</strong> losgelöst von<br />

der Welt zu produzieren.<br />

Bei den traditionellen Medien der Kunst, wie der Zeichnung oder Malerei haben wir es<br />

eigentlich <strong>im</strong>mer mit direkt vom Menschen angefertigten Werken zu tun. Damit haben wir eine<br />

„subjektivere“ Sichtweise der Dinge. Je nachdem welche Eigenschaften der Dinge der<br />

Künstler herausarbeiten möchte, fällt auch die Erscheinung <strong>im</strong> Bild anders aus. Der Künstler<br />

entwickelt eine eigene Sprache, mit der er versucht, die Welt, die er wahrn<strong>im</strong>mt, zu<br />

beschreiben. Es ergeben sich erhebliche Unterschiede aus der Art der Focusierung, also der<br />

Auswahl des Wahrgenommenen. Daraus entsteht in den Arbeiten ein ganz anderer<br />

Bedeutungsschwerpunkt.<br />

Ein anderer Bereich sind die fiktiven <strong>Bilder</strong>, die ja als <strong>Bilder</strong>findungen des Künstlers gesehen<br />

werden können, in denen es „unwirkliche“ Konstellationen von Wirklichkeit geben kann, oder<br />

51


die losgelöst von jeder Realität eigene Welten darstellen. Dies geht bis zu den „konkreten“<br />

Werken, in denen fast gar kein oder überhaupt kein Bezug mehr zu Realität besteht. Hier ist es<br />

schwierig zu argumentieren, denn man könnte auf der einen Seite sagen, dass diese absolut<br />

authentisch sind, da sie ja ganz das darstellen, was sie sind, oder aber man spricht ihnen<br />

jegliche Authentizität ab.<br />

3.7.1 Digitale Bildmedien<br />

Die <strong>digitale</strong>n <strong>Bilder</strong> sind auf jeden Fall <strong>Bilder</strong>, die für den Computer und nicht für den Menschen<br />

verständlich vorliegen. Die digitalisierten <strong>Bilder</strong> liegen also materialisiert auf einem von einer<br />

elektronischen Datenverarbeitungsanlage lesbaren Speicher. Eine EDV-Anlage kann in diesem<br />

Zusammenhang ein Personalcomputer oder ein MAC sein, aber auch das Innenleben einer<br />

Digitalkamera. Das Bild, das nun auf einem Datenträger abgespeichert ist (es könnte auch<br />

unter ständiger Stromzufuhr <strong>im</strong> Arbeitspeicher verbleiben, dies ist aber nicht der Punkt) kann<br />

von Menschen nicht visuell erfasst werden. Dies hat zwei Gründe, zum einen ist das<br />

Auflösungsvermögen des menschlichen Auges überschritten und zum anderen sind wir es<br />

nicht gewohnt solche <strong>Bilder</strong> zu „lesen“, wir haben dies nicht gelernt. Wir können diese also<br />

nicht decodieren. Die <strong>digitale</strong>n <strong>Bilder</strong> sind also codiert und um diese darzustellen, müssen sie<br />

erst aufbereitet, der Code zurück verwandelt werden. So kann ein und dasselbe Bild in<br />

verschiedenen Versionen erscheinen, je nachdem, wie es reproduziert wird. Es könnte zum<br />

Beispiel am Bildschirm angezeigt oder auf einem Drucker ausgedruckt werden.<br />

Das ist ein wichtiger Punkt: Denn das <strong>digitale</strong> Bild muss sich <strong>im</strong>mer erst materiell manifestieren,<br />

wobei die verschiedenen Manifestationen sehr unterschiedlich ausfallen können. Es scheint<br />

als hätte man eine ähnliche Situation wie bei den reproduzierbaren Medien. Auch hier existiert<br />

eine Art „Code“, nämlich die Form, von der Abzüge gemacht werden. Es wäre dabei auch ein<br />

Unterschied, ob man mit einer Linolplatte als Form auf ein Kupferdruckpapier, eine Tapete oder<br />

einen Teppich druckt. Die Resultate wären sicherlich sehr unterschiedlich, dennoch wären die<br />

Ergebnisse sehr nah beieinander und sie sind direkt abhängig von der Form die eingesetzt<br />

wird. Dies ist be<strong>im</strong> <strong>digitale</strong>n Bild nicht alleinig ausschlaggebend. Worin genau die Unterschiede<br />

zwischen Form und Code bestehen werden wir noch genau in Kapitel 4.3 untersuchen.<br />

Was man auf jeden Fall festhalten kann, ist der Informationsverlust der bei der Digitalisierung<br />

einer Vorlage eintritt. Dabei ist es egal, ob es sich bei der Vorlage um die Welt, die uns umgibt<br />

oder eine Zeichnung handelt. Wir können davon ausgehen, dass be<strong>im</strong> Umwandlungsprozess<br />

ein Informationsverlust stattfindet. Wir haben also unterschiedliche Informationen bezüglich<br />

der Urbilder vorliegen. Dieses Phänomen haben wir am Beispiel der Fotografie und den<br />

entstehenden <strong>Bilder</strong>n explizit gezeigt. Ein anderes Beispiel wäre eine eingescannte<br />

Zeichnung, bei der die Rasterung eine Verringerung der Auflösung zur Folge hat.<br />

Anders sieht es dagegen bei direkt am Computer hergestellten <strong>Bilder</strong>n aus, diese werden ja<br />

nicht umgewandelt. Hier haben wir einen ganz eigenen neuen Bereich, den wir als spezifisch<br />

für die <strong>digitale</strong>n Medien markieren können. Es können <strong>Bilder</strong> mit Algorithmen erzeugt werden,<br />

52


wie es zum Beispiel in der Informationsästhetik oder auch bei den Fraktalen geschieht. Die<br />

<strong>digitale</strong>n <strong>Bilder</strong> sind „mathematisiert“ und damit rechenbar. Jeder Bildpunkt ist zu jeder Zeit<br />

direkt ansprechbar, abfragbar und modifizierbar. Damit sind auch Transformationen <strong>im</strong> Bild<br />

möglich, wobei an Morphing als ein Beispiel <strong>im</strong> visuellen Bereich gedacht werden kann. Oder<br />

es können mit einer Grafik-Software <strong>Bilder</strong> aus anderen <strong>Bilder</strong>n zusammengestellt und<br />

weiterverarbeitet werden. So werden neue „unwirkliche“ <strong>Bilder</strong> erzeugt, die eigenständig für<br />

sich stehen und die als Visualisierung von bereits vorhandenen Informationen verstanden<br />

werden können.<br />

3.8 Zusammenfassung<br />

Wir haben jetzt die andere, die technischere Bedeutung der beiden Begriffe „analog“ und<br />

„digital“ kennengelernt. Wir verstehen nun die Bedeutung des Wortes „digital“ <strong>im</strong> Sinne von „in<br />

Schritten, in Stufen“ beziehungsweise „diskret“ und die zugehörige Bedeutung von „analog“<br />

<strong>im</strong> Sinne von „kontinuierlich“ oder auch „stetig“. „Analog“ hat hier nicht mehr die Bedeutung<br />

von „entsprechend“ oder „ähnlich“, wie wir es zuvor festgestellt haben. 56<br />

Gottfried Jäger hatte vorgeschlagen, dass man <strong>Bilder</strong>, bei denen man davon ausgehen kann,<br />

dass sie eine Art „Entsprechung“ der Welt zeigen analog nennen soll. Nach unserem neuen<br />

Verständnis muss bei <strong>analoge</strong>n <strong>Bilder</strong>n dagegen keine Entsprechung mehr zum abgebildeten<br />

Gegenstand bestehen. Es besteht also keine funktionale Analogie mehr zwischen Bild und<br />

Abgebildetem. Vielmehr geht es hier um die Struktur der <strong>Bilder</strong>, also die Beschaffenheit der<br />

<strong>Bilder</strong>. Vielleicht kann man den Bogen zur anderen Bedeutung derart spannen, wenn man<br />

sagt, dass eigentlich alle sinnlich wahrnehmbaren Phänomene in der Welt <strong>analoge</strong>n Charakter<br />

besitzen und die strukturell <strong>analoge</strong>n <strong>Bilder</strong>, die aber nichts aus der Welt repräsentieren<br />

müssen, in diesem Sinne ähnlich zur Welt sind. Die wäre also „Ähnlichkeit“ <strong>im</strong> Hinblick auf die<br />

Struktur von Welt und Bild. Es handelt sich, wenn man es so sehen will, um eine strukturelle<br />

Analogie.<br />

Wir müssen also zum einen die Bedeutung des Bildes von der Beschaffenheit des Bildes<br />

unterscheiden. Wenn wir nach der Bedeutung fragen, betrachten wir das Bild als Abbildung<br />

von etwas und schauen danach, was es darstellt. Wenn wir dagegen nach der<br />

Beschaffenheit fragen, schauen wir, wie es gemacht ist. Man spricht in diesem<br />

Zusammenhang auch vom Syntax und der Semantik des Bildes.<br />

Zur Veranschaulichung hilft vielleicht die Vorstellung des Fensterblickes. Wie be<strong>im</strong> Fenster hat<br />

man be<strong>im</strong> Bild zwei Möglichkeiten. Entweder man schaut hindurch und betrachtet das<br />

dargestellte oder man betrachtet die Oberfläche, den Bildträger und schaut nach der<br />

Beschaffenheit, dann geht der Fensterblick durch das Fenster hindurch verloren. Der<br />

56<br />

Die Begriffe „kontinuierlich“, „diskret“ und „stetig“ werden in Kapitel 4.2.5 noch eingehend erläutert.<br />

53


Augenmerk kann nur zwischen den beiden Zuständen hin und her pendeln, es ist eigentlich<br />

unmöglich beides gleichzeitig wahrzunehmen.<br />

Da wir gesehen haben, dass die Begriffe „analog“ und „digital“ in diesem neuen Verständnis,<br />

die Beschaffenheit der Bildträger beschreiben, werden wir uns <strong>im</strong> Folgenden Kapitel intensiv<br />

mit der „Oberfläche“, also mit der Beschaffenheit der Bildträger beschäftigen. Die Theorie von<br />

Nelson Goodman versucht die Bildhaftigkeit pr<strong>im</strong>är über die Beschaffenheit der <strong>Bilder</strong>, den so<br />

genannten syntaktischen Strukturen zu beschreiben, was den Vorteil hat, dass man sich<br />

vorerst nicht um die semantische Bedeutung des Bildes kümmern muss.<br />

54


4. Bildtheorie<br />

4.1 Einführung<br />

Nachdem wir am Ende des letzten Kapitels das <strong>digitale</strong> Bild gründlich seziert und damit<br />

analysiert haben, wollen wir nun zu einer der Kernfragen, nämlich die der eigentlichen<br />

Substanz des <strong>digitale</strong>n Bildes vordringen. Dafür muss ein bißchen Vorarbeit geleistet werden.<br />

Wenn wir die Differenz von <strong>analoge</strong>n und <strong>digitale</strong>n <strong>Bilder</strong>n bezüglich ihrer Beschaffenheit<br />

untersuchen wollen, müssen wir diese erst einmal kennen. Die Beschaffenheit des <strong>digitale</strong>n<br />

Bildes haben wir bereits aus einer best<strong>im</strong>mten Perspektive kennengelernt. Was wir zuvor in<br />

einem sehr technischen Verständnis gesehen haben, wollen wir nun mit den Mitteln der<br />

Bildtheorie beschreiben und dabei versuchen beides in Einklang zu bringen.<br />

Die Bildtheorie beschäftigt sich mit der Erklärung des Begriffes des Bildes, mit dessen<br />

vollständiger Klärung eine sichere Klassifikation gegebener Gegenstände als <strong>Bilder</strong> möglich<br />

wäre. Die Bildtheorie versucht Antworten auf die Fragen zu geben, was ein Bild ist, wie es<br />

abbildet oder darstellt, und wie sich <strong>Bilder</strong> von anderen Arten von Symbolen und<br />

insbesondere von sprachlichen Symbolen unterscheiden. Desweiteren versucht die<br />

Bildtheorie die Bedingungen der <strong>Bilder</strong> zu klären. Was ein Bild zum Bild macht, was insofern<br />

Kriterien für <strong>Bilder</strong> sind. Unter welchen Umständen ein Bild ein Bild ist, also welches die<br />

Bedingungen sind, damit ein Bild ein Bild ist. Was sie nicht leisten kann und will, ist es<br />

Aussagen über die Qualität der <strong>Bilder</strong> zu treffen.<br />

Klaus Sachs-Hombach, als Herausgeber mehrerer Sammelbände zur Bildtheorie, schätzt die<br />

momentane Situation der Bildtheorie wie folgt ein: „Es haben sich in der philosophischen<br />

Bilddiskussion insbesondere zwei Stränge herausgebildet: <strong>Bilder</strong> werden entweder mit Blick<br />

auf die Semiotik pr<strong>im</strong>är als spezielle Zeichen verstanden oder aber mit Blick auf<br />

psychologische Theorien sehr eng an spezielle Wahrnehmungsphänomene gebunden. Bei<br />

den zeichentheoretischen Ansätzen dominiert teilweise das Bemühen um eine Übertragung<br />

der sprachwissenschaftlichen Termini, teilweise stehen Fragen einer kognitivistischen<br />

Ästhetik <strong>im</strong> Vordergrund.“ 57<br />

<strong>Bilder</strong> werden heute also entweder als Zeichen gesehen oder als<br />

Wahrnehmungsphänomene, als „reine Sichtbarkeit“. Aus dieser Sicht könnte man sagen:<br />

„<strong>Bilder</strong> sind Dinge, bei denen sich die Sichtbarkeit verselbständigt. <strong>Bilder</strong> zeigen etwas,<br />

was sie selbst nicht sind, <strong>im</strong> Gegensatz zu einer Imitation, die etwas nachahmt und dieses<br />

Nachgeahmte auch sein will.“ 58<br />

Der andere Ansatz ist, wie gesagt, das Bild als Zeichen aufzufassen. Ein Zeichen ist<br />

zunächst einmal ein Gegenstand der für etwas anderes steht. Es verweist auf etwas, das<br />

existent oder fiktiv sein mag, und diese Verweisfunktion kann jeder beliebige Gegenstand<br />

57 Klaus Sachs-Hombach und Klaus Rehkämper (Hrsg.), Bildgrammatik, Scriptum Verlag, Magdeburg, 1999, S.13<br />

58 Lambert Wiesing: Sind <strong>Bilder</strong> Zeichen, in: Klaus Sachs-Hombach, Klaus Rehkämper (Hrsg.), Bild - Bildwahrnehmung -<br />

Bildverarbeitung, Deutscher Universitätsverlag, Wiesbaden 1998, S.98<br />

55


übernehmen, wenn sich die Zeichenbenutzer konventionell darauf verständigen. Damit kann<br />

auch ein Bild konventionell als Zeichen für jeden beliebigen Gegenstand oder Sachverhalt<br />

erklärt werden. Die philosophische Semiotik geht davon aus, dass es Ähnlichkeiten zwischen<br />

<strong>Bilder</strong>n und sprachlichen Symbolen gibt. Dabei verwendet man die Annahme, dass <strong>Bilder</strong> auch<br />

Zeichen sind, denn <strong>Bilder</strong> weisen die Intentionalität von Zeichen auf, sind auf einen<br />

Gegenstand oder einen Inhalt gerichtet. Sie beziehen sich auf etwas, handeln von etwas oder<br />

gehen über etwas. Sie sind mit einer best<strong>im</strong>mten Absicht gemacht worden und nicht zufällig<br />

entstanden, wie zum Beispiel der Schatten einer vorübergehenden Person an der Wand 59 .<br />

Wenn man von <strong>Bilder</strong>n spricht, hat man es mit einer großen Vielfalt von Symbolen zu tun:<br />

Künstlerische <strong>Bilder</strong>, Diagramme, Landkarten, Partituren, technische Zeichnungen und viele<br />

mehr. Es ist fragwürdig, ob man diese für eine Untersuchung überhaupt alle gleichzeitig<br />

berücksichtigen kann, oder ob man nicht eine Einteilung vorn<strong>im</strong>mt, um präzisere Aussagen für<br />

die einzelnen Kategorien machen zu können. Ich werde mich deshalb <strong>im</strong> Folgenden<br />

hauptsächlich auf künstlerische <strong>Bilder</strong> beziehen.<br />

Die Versuche, eine allgemeine Zeichen- oder Symboltheorie zu entwickeln, besitzen eine<br />

lange Tradition, aber erst Charles W. Morris verwendete den Begriff der „Semiotik“ für jede<br />

wissenschaftliche Untersuchung von Zeichensystemen. 60 Die Semiotik lässt sich dabei in die<br />

Bereiche Syntax oder auch Syntaktik, Semantik und Pragmatik untergliedern. Wobei es sich bei<br />

dieser Unterteilung nicht um drei separate, voneinander isolierte semiotische Disziplinen<br />

handelt. Die Syntax beschäftigt sich mit der formalen Struktur von Symbolen und ihren<br />

strukturellen Beziehungen untereinander. In der Semantik werden nicht nur die Symbole und<br />

ihre Beziehungen untereinander, sondern auch die Entitäten berücksichtigt, die durch die<br />

Symbole bezeichnet oder denotiert werden. Die Pragmatik schließlich ist das umfassendste<br />

Gebiet. In ihr werden nicht nur Symbole und das, was sie denotieren, sondern auch die<br />

Benutzer oder Interpreten der Symbolsysteme in die Untersuchung einbezogen. Wie bereits<br />

dargelegt, erscheint es durchaus sinnvoll die Prämisse zu akzeptieren, dass auch <strong>Bilder</strong><br />

Zeichen sind. und damit ergibt sich die Möglichkeit der Übertragung der gewonnenen<br />

Verfahren und Erkenntnisse aus der Semiotik auf den Bereich der <strong>Bilder</strong>.<br />

Nelson Goodman versuchte in seinem Buch „Languages of Art. An Approach to a Theory of<br />

Symbols“ (1968) eine universelle Symboltheorie zu entwickeln. Dabei wird das Wort<br />

„Symbol“, wie er selbst sagt, „als ein sehr allgemeiner und farbloser Ausdruck gebraucht. Er<br />

umfaßt Buchstaben, Wörter, Texte, <strong>Bilder</strong>, Diagramme, Karten, Modelle und mehr, aber er<br />

hat nichts Gewundenes oder Gehe<strong>im</strong>nisvolles an sich.“ 61<br />

Er versucht also für alle Zeichen eine allgemeingültige Theorie zu entwickeln, um die Fragen<br />

nach der Wirkung, der Klassifikation und der Beschaffenheit der Zeichen zu klären.<br />

59 Wobei Phänomene wie ein „nasser Fleck auf dem Boden“ oder ein „Schatten an der Wand“ <strong>im</strong> weitesten Sinne als Zeichen<br />

verstanden werden können. Sie werden genauer als Index bezeichnet, wobei ein Index etwas ist, was die Aufmerksamkeit auf den<br />

angezeigten Gegenstand mittels eines blinden Impulses richtet. So schließt man aus dem Anblick des „nassen Fleckes“ auf das<br />

Wasser, das gefallen ist, ebenso wie man be<strong>im</strong> Anblick des „Schattens an der Wand“ auf eine vorübergehende Person schließt. Jeder<br />

Index teilt also aufgrund von Konventionen oder erlernten Erfahrungen etwas mit.<br />

Vgl. Umberto Eco (1972), S. 198<br />

60 Vgl. Richard Schantz, Die Ordnung der <strong>Bilder</strong>, in: Klaus Sachs-Hombach und Klaus Rehkämper (1999), S. 94<br />

61 Nelson Goodman (1998), S. 9<br />

56


Dabei scheint es mir in mehrfacher Hinsicht interessant und lohnenswert, die wesentlichen<br />

Inhalte der Theorie von Goodman kurz zu rekapitulieren. Zum einen werden diese in der<br />

Bildtheorie sehr oft zitiert und zum anderen versuchte Goodman bereits 1968 sich den<br />

Begriffen „analog“ und „digital“ zu nähern, was die Theorie für uns sehr interessant macht. Er<br />

schreibt: „Natürlich hat ein <strong>digitale</strong>s System eigentlich nichts mit Digits und ein<br />

Analogsystem nichts mit Analogie zu tun. [...] Wenn eine Eins-zu-eins-Korrelation zwischen<br />

Charakteren und Erfüllungsklassen ein System analog macht, dann erweisen sich <strong>digitale</strong><br />

Systeme auch als <strong>analoge</strong>. Da man sich wahrscheinlich nicht von den traditionellen<br />

Ausdrücken „analog“ und „digital“ trennen wird, besteht die beste Verfahrensweise vielleicht<br />

in dem Versuch, sie von Analogie und Digits und einer Fülle ungenauer Redeweisen zu<br />

trennen und mit Hilfe von Dichte und Differenziertheit zu unterscheiden, obwohl diese keine<br />

Gegensätze darstellen.“ 62<br />

Er schlägt also vor, sich von den traditionellen Ausdrücken „analog“ und „digital“ zu trennen<br />

und statt dessen mit Hilfe der Begriffe „Dichte“ und „Differenziertheit“ eine Unterscheidung<br />

vorzunehmen. Wir werden uns damit noch genauer beschäftigen, doch zunächst interessiert<br />

uns, wie Goodman bildhafte Symbole beschreibt. Er sieht die bildhaften Systeme ja ebenfalls<br />

als Zeichen.<br />

Wenn man den Weg dieses Ansatzes wählt, kommt man nicht darum, an manchen Stellen<br />

Begriffe der Semiotik zu erklären. Wir werden dies sozusagen „en passant“ an den<br />

entsprechenden Stellen tun. Es schien mir daher sinnvoll, dazu auf einen der bedeutendsten<br />

Sprachwissenschaftler, jüngerer Zeit, einer der Pioniere der Semiotik, nämlich Umberto Eco<br />

zurückzugreifen. Zudem ist es reizvoll das ganze parallel aus dem Blick des Semiotikers zu<br />

betrachten. Besonders interessant ist die Tatsache, dass Eco sich 1972 in seinem Buch<br />

„Einführung in die Semiotik“ ebenfalls mit dem Problem des „analogischen und <strong>digitale</strong>n“<br />

auseinandergesetzt und sich dabei sogar ganz speziell auf bildhaften Zeichen oder wie Eco<br />

es nennt die „visuellen Codes“ bezieht.<br />

Ich werde versuchen in einer wechselseitigen Verflechtung der Diskurse von Goodman und<br />

Eco die Sachverhalte zu ergänzen und zu vervollständigen.<br />

62 Nelson Goodman (1998), S. 154<br />

57


4.2 Was ist ein Bild? „Bildhaftigkeit“ in der Symboltheorie von Goodman<br />

4.2.1 Einführung<br />

Die schwierige und <strong>im</strong>mer wieder gestellte Frage „Was ist ein Bild?“, kann in dieser Arbeit<br />

selbstverständlich nicht abschließend geklärt werden. Es würde den Rahmen der Arbeit<br />

sprengen, ja, es wäre eine eigene Arbeit wert, eine umfassende Darstellung des aktuellen<br />

Standes und der gängigen Positionen der Bildtheorie zur Bildproblematik vorzustellen. Es<br />

scheint mir aber angesichts der Frage nach der Substanz des <strong>digitale</strong>n Bildes notwendig, eine<br />

ausreichende zweckmäßige Vorstellung von „Bildhaftigkeit“ zu entwickeln, also eine Art<br />

heuristische „Arbeitsdefinition“ für die weiteren Argumentationen. Denn wenn wir die<br />

Unterschiede zwischen den <strong>analoge</strong>n und <strong>digitale</strong>n <strong>Bilder</strong>n erkennen wollen, müssen wir<br />

zunächst einmal wissen, wie bildhafte Symbole zu verstehen sind. Wir wollen uns dabei auf<br />

die Theorie von Goodman beziehen. Eine Darstellung der relevanten Teile seiner Theorie ist<br />

notwendig. In einer angemessenen Rekapitulation werden <strong>im</strong> Folgenden deshalb die<br />

wichtigsten Sachverhalte erläutert. Ein Ausflug in diese Bildtheorie lohnt sich in jedem Fall, ist<br />

aber mit erheblichem Aufwand verbunden. Denn auch hier müssen wir uns wieder<br />

mathematisches Rüstzeug aneignen, um die vorgestellten Sachverhalte adäquat zu<br />

verstehen. Denn letztendlich greift Goodman oft auf Begriffe der Mathematik zurück oder<br />

illustriert seine Thesen anhand von Beispielen aus der Mathematik. Deshalb werde ich<br />

Erklärungen an den notwendigen Stellen einschieben, damit auch der mathematisch<br />

unversierte Leser den Gang der Theorie nachvollziehen kann. 63<br />

Zunächst kann man sagen, dass die Bildtheorie von Goodman das Ziel verfolgt, Bildhaftigkeit<br />

pr<strong>im</strong>är über syntaktische Merkmale zu beschreiben. Die <strong>Bilder</strong> werden also auf ihre formalen<br />

Strukturen hin untersucht. Diese Bildtheorie, die man der analytischen Philosophie zurechnet,<br />

hat den Vorteil, dass sie auch <strong>Bilder</strong> einbezieht, die „leer“ oder „ungegenständlich“ sind.<br />

Goodman versucht über eine Analyse der syntaktischen Strukturen von Objekten, diese als<br />

<strong>Bilder</strong> einzuordnen oder sie als <strong>Bilder</strong> auszuschließen, indem er in seiner Symboltheorie pr<strong>im</strong>är<br />

die syntaktischen, darüber hinaus aber auch die semantischen Bedingungen der <strong>Bilder</strong><br />

untersucht. Zunächst möchte ich aber zwei wichtige Begriffe, die „Denotation“ und die<br />

„Exemplifikation“ vorstellen. Diese stehen eigentlich der Semantik näher, werden aber oft in<br />

der Symboltheorie von Goodman verwendet.<br />

63 Hier will ich mich dem Vorschlag von Goodman nicht anschließen, der in einer eigenen Fußnote anmerkt: „Der Leser ohne<br />

Grundkenntnisse in Logik, Mathematik oder technischer Philosophie mag den Rest dieses Kapitels überfliegen oder überspringen und<br />

darauf vertrauen, daß er die hier dargelegten Prinzipien aus den Anwendungen und Illustrationen in späteren Kapiteln erschließen kann.“<br />

Vgl. Nelson Goodman (1998), S. 128<br />

58


4.2.2 Denotation oder das Problem der Ähnlichkeit<br />

Wenn man bei einem Bild danach fragt, was es darstellt, muss man zunächst einmal<br />

unterscheiden, um was für eine Art von Bild es sich handeln könnte. Wir wollen uns hier auf<br />

zwei große Gruppen konzentrieren. Die erste Gruppe sei die der „gegenständlichen“ <strong>Bilder</strong>,<br />

die andere die der „ungegenständlichen“. Diese Differenzierung scheint verständlich, ist <strong>im</strong><br />

Einzelfall aber gar nicht so einfach. So könnte ein Punkt als „Bildelement“ in einem Bild ein<br />

„Auge“ darstellen in einem anderen Bild nur als abstrakte Form stehen, die sich nicht auf ein<br />

„Auge“ bezieht. Die Grenze zwischen „gegenständlichen“ und „ungegenständlichen“ <strong>Bilder</strong>n<br />

lässt sich nicht klar ziehen, ist verwaschen. Je weiter man die Dinge abstrahiert, also von<br />

ihrer eigentlichen Erscheinung „abzieht“ oder entfernt, desto näher gelangt man in das Umfeld<br />

der konkreten <strong>Bilder</strong>. Dabei handelt es sich bei allen gegenständlichen <strong>Bilder</strong>n, um<br />

Abstraktionen in diesem Sinne.<br />

Nun könnte man meinen, dass gegenständliche <strong>Bilder</strong> das darstellen, was sie repräsentieren.<br />

Wobei sie dann repräsentieren, wenn sie Ähnlichkeit zum Original zeigen.<br />

Die Ähnlichkeitstheorie der Abbildung, also die weitverbreitete Auffassung, dass ein Bild<br />

einen Gegenstand nur dann abbildet, wenn es ihm ähnlich ist, weist Goodman mit Nachdruck<br />

zurück. Denn es ist klar, das kein Grad der Ähnlichkeit eine hinreichende Bedingung für<br />

Repräsentation ist.<br />

„Ein Gegenstand ist sich selbst in höchstem Maße ähnlich, repräsentiert sich jedoch selten<br />

selbst. Ferner repräsentiert in vielen Fällen keine von zwei einander sehr ähnlichen<br />

Gegenständen den anderen: Keines der Autos, die vom Montageband kommen, ist ein Bild<br />

eines der übrigen; und ein Mann ist normalerweise keine Repräsentation eines anderen<br />

Mannes, nicht einmal seines Zwillingbruders.“ 64<br />

Eine ähnliche Feststellung findet sich bei Eco: „Ein ikonisches Zeichen [...] ist das Zeichen,<br />

das in einigen Aspekten dem, was es denotiert, ähnlich ist. Folglich ist die Ikonizität eine<br />

Frage des Grades.“ 65<br />

Auch Eco konstatierte die Unschärfe der Formulierung „Grad der Ähnlichkeit“, die für das<br />

abbildhafte, also die eigentliche Bezugnahme verantwortlich ist. Das ganze Problem liegt darin,<br />

welchen Sinn man dem Ausdruck „in einigen Aspekten“ geben soll und dies kann nicht trivial<br />

geklärt werden. Anders herum ist es auch möglich, dass ein Bild konventionell auf etwas<br />

Bezug n<strong>im</strong>mt, ohne das die geringste Ähnlichkeit vorhanden ist. So können <strong>Bilder</strong><br />

metaphorisch verwendet werden und es kann zum Beispiel eine weiße fliegende Taube für<br />

die Freiheit stehen. Es kann also eigentlich jedem Zeichen jede Bedeutung konventionell<br />

zugeordnet werden. Über das Problem der Ähnlichkeit und die daraus resultierende<br />

Unschärfe des Begriffes der Repräsentation gelangt man schließlich zum Begriff der<br />

Denotation.<br />

64 Nelson Goodman (1998), S. 16<br />

65 Umberto Eco (1972), S. 201<br />

59


Für Goodman ist Denotation der Kern der Repräsentation. Für ihn heißt „denotieren“ Bezug<br />

nehmen. Mit Denotation meint man nun das, was das Bild darstellen soll. Dabei lassen sich<br />

unter den <strong>Bilder</strong>n, die einen Bezug haben, singulär denotierende von generell multipel<br />

denotierenden unterscheiden. Das heißt, es gibt zum einen <strong>Bilder</strong>, die eine best<strong>im</strong>mte Person,<br />

einen best<strong>im</strong>mten Gegenstand denotieren, wie es ein Porträt von einem best<strong>im</strong>mten Menschen<br />

leistet. Zum anderen gibt es <strong>Bilder</strong>, die sich nicht auf einen best<strong>im</strong>mten Gegenstand beziehen,<br />

sondern auf jedes beliebige Ding einer gewissen Art. So ist das Bild einer Pflanze in einem<br />

botanischen Lehrbuch nicht auf eine spezielles Individum bezogen, sondern auf jedes<br />

beliebige Exemplar dieser Spezies.<br />

Nun können sich aber sowohl die Sprache, als auch bildhafte Symbole auf Dinge der Realität<br />

beziehen. Die Denotation existiert also auch <strong>im</strong> Symbolsystem Sprache. Überhaupt ist die<br />

Denotation ein Begriff der auch in der Semiotik Verwendung findet.<br />

Eco versteht unter Denotation die unmittelbare Bezugnahme eines Ausdruckes, die <strong>im</strong><br />

Empfänger einer Botschaft ausgelöst wird, wobei dies in Abhängigkeit der Kultur, die einen<br />

Code verwendet zu sehen ist. 66 Das Denotat kann also als der bezeichnete Gegenstand oder<br />

Sachverhalt in der „außersprachlichen“ oder „außerbildlichen“ Wirklichkeit bezeichnet<br />

werden, auf die sich die Sprache oder das Bild bezieht. Es handelt sich um den „Inhalt“ eines<br />

Zeichens, dessen Hauptbedeutung. Dagegen bezeichnet das Konnotat, die zusätzlichen<br />

Vorstellungen, Assoziationen, welche die Grundbedeutung eines Wortes begleiten, die so<br />

genannten Nebenbedeutungen.<br />

Ein Beispiel aus dem Bereich der Sprache wäre wie folgt: die denotative Bedeutung „der<br />

Mond“ als „Erdtrabant, der durch das von ihm reflektierte Sonnenlicht oft die Nächte erhellt.“<br />

steht dabei <strong>im</strong> Gegensatz zur konnotativen Bedeutung von „Mond“, mit der sich<br />

Gedankenverbindungen wie „Nacht, romantisch, kühl, Liebe“ einstellen. 67<br />

Desweiteren gibt es <strong>Bilder</strong> die nicht denotieren. Dies können zum Beispiel fiktionale <strong>Bilder</strong> sein,<br />

wie zum Beispiel „Einhorn“-<strong>Bilder</strong>, die sich auf keinen exisitierenden Gegenstand beziehen.<br />

Man spricht in diesem Zusammenhang auch von „Nulldenotation“.<br />

Auch in der Sprache können aus dem Repertoire der zur Verfügung stehenden Symbole,<br />

einige derart ausgewählt und kombiniert werden, so dass diese keine Bedeutung tragen. So<br />

hat die Aneinanderreihung der Buchstaben „klodf“ als Wort keine Bedeutung <strong>im</strong> herkömmlichen<br />

Sinn. Hierbei würde es sich um eine Nulldenotation handeln. Durch Konvention könnten auch<br />

neue Wörter definiert werden, wie etwa „gloko“, die konventionelle Sachverhalte denotieren<br />

würden. Im Anschluss an Goodman hat sich durchgesetzt, die Möglichkeit der bildlichen<br />

Bezugnahme auf Gegenstände oder Sachverhalte, losgelöst von der Ähnlichkeit, als<br />

„Denotation“ zu bezeichnen.<br />

66 Umberto Eco (1972), S.102<br />

67 Duden - Das Fremdwörterbuch (1990)<br />

60


4.2.3 Exemplifikation<br />

Eine andere Art der Bezugnahme bezeichnet Goodman als Exemplifikation. Wenn wir bei<br />

fiktionalen <strong>Bilder</strong>n mit einer so genannten „Nulldenotation“, wie wir sie als „Einhorn <strong>Bilder</strong>“<br />

kennengelernt haben, noch einen Bezug zu „fiktionalen“ Sachverhalten feststellen konnten,<br />

wird dies bei „ungegenständlichen“ <strong>Bilder</strong>n schwierig. Bei „ungegenständlichen“ oder auch<br />

konkreten <strong>Bilder</strong>n sieht es nun ganz anders aus. Hier können wir nicht mehr davon sprechen,<br />

dass diese auf etwas außerhalb des Bildes bezug nehmen. Es sei denn, man würde den<br />

Bezug eines konkreten Bildes auf ein anderes konkretes Bild, als Bezugnahme verstehen.<br />

Dennoch sieht Goodman speziell bei diesen <strong>Bilder</strong>n, aber auch generell bei allen anderen, die<br />

Exemplifikation als Bezugnahme. Die Exemplifikation stellt also auch eine Art der Bezugnahme<br />

dar. Ein Symbol exemplifiziert, wenn es auf Eigenschaften verweist, die es selbst besitzt.<br />

Exemplifikation könnte man also als selbstreferentielle Denotation verstehen. Während be<strong>im</strong><br />

denotierenden Bezug, die Bezugnahme vom Zeichen zum Gegenstand oder Sachverhalt<br />

verläuft, bezieht sich das Bild nun auf sich selbst.<br />

Die Eigenschaften, die ein Symbol exemplifiziert, können sehr verschieden sein. Solche<br />

Eigenschaften können die Farbe eines Schriftzuges oder eines Bildes, seine Größe oder die<br />

Struktur des Papiers sein, aber auch sein Gewicht oder die Temperatur einer Probe in einem<br />

wissenschaftlichen Versuch. Goodman illustriert den Begriff am Beispiel von Stoffmustern<br />

eines Schneiders. Die aus ihren zahllosen Eigenschaften einige wenige exemplifizieren:<br />

Textur, Farbe, Musterung. 68 Dies lässt sich direkt auf <strong>Bilder</strong> übertragen. Diese exemplifizieren<br />

zum einen die Prädikate der Bildqualitäten wie Textur, Farbe, etc. Zum anderen die Art und<br />

Weise, wie das Bild zeigt, was es zeigt. Also zum Beispiel auch den „Stil“ oder die „Sprache“,<br />

die der Künstler verwendet. Welche Prädikate ein Ding exemplifiziert, hängt auch von seiner<br />

Funktion ab, welche zum Beispiel mit der Umgebung abhängt, in der es verwendet wird. So<br />

kann man sich überlegen, dass ein und dasselbe Objekt, zum Beispiel ein Stück Rinde<br />

unterschiedlich exemplifizieren kann. Wenn es <strong>im</strong> Garten liegt exemplifiziert es vielleicht gar<br />

nicht. Im Schaukasten eines biologischen Museums kann es sein Alter, seine Farbe oder seine<br />

Oberflächenbeschaffenheit exemplifizieren. Als „objet trouvé“ in einer Ausstellung moderner<br />

Kunst mag es best<strong>im</strong>mte taktile und visuelle, also gestalthafte Qualitäten exemplifizieren.<br />

Es kommt also darauf an, in welchem Kontext, ein Objekt gesehen wird.<br />

4.2.4 Differenz zwischen <strong>Bilder</strong>n und anderen Symbolen<br />

Auf die Frage, worin sich <strong>Bilder</strong> von anderen Arten von Symbolen und insbesondere<br />

sprachlichen Zeichen unterscheiden, entwickelte Goodman die Auffassung, dass dieser<br />

Unterschied hauptsächlich auf der Ebene der Syntax zu suchen ist. Die Differenz entsteht<br />

also durch die verschiedenen syntaktischen Strukturen der jeweiligen Symbolschemata.<br />

68 Nelson Goodman (1998), S. 59<br />

61


Dies ist ein großer Vorteil, denn ein semantischer Ansatz würde sich hauptsächlich auf die<br />

Frage nach der Denotation von Symbolen konzentrieren. Also auf die Frage, was die Symbole<br />

bezeichnen beziehungsweise auf was sie sich beziehen, Aspekte der Denotation und<br />

Repräsentation würden <strong>im</strong> Vordergrund stehen. Da es aber viele fiktionale, zum Beispiel<br />

„Einhorn-<strong>Bilder</strong>“, oder leere <strong>Bilder</strong> oder andere nicht-denotierende <strong>Bilder</strong> gibt, würden diese<br />

durch eine Untersuchung nicht berührt. Es scheint aber sinnvoll, dass eine Untersuchung von<br />

Bildhaftigkeit sowohl denotierende als auch nicht-denotierende <strong>Bilder</strong> erfasst. Ein<br />

semantischer Ansatz würde also nicht zu umfassenden Beschreibungen führen.<br />

Dagegen versucht die Syntax als Disziplin, die Symbolsysteme hauptsächlich über die<br />

formalen Aspekte von Zeichen und ihren strukturellen Beziehungen zueinander zu<br />

beschreiben. Diese syntaktischen Differenzen werden wir uns <strong>im</strong> Folgenden genauer<br />

anschauen. Wobei man ergänzen muss, dass natürlich starke wechselseitige Beziehungen<br />

zwischen Syntax und Semantik bestehen.<br />

Nun gibt es nach Goodman zum einen Symbolsysteme, die auf eine Art „Alphabet“ aufgebaut<br />

sind. 69 Dabei braucht ein „Alphabet“ nicht aus Buchstaben zu bestehen. Es heißt vielmehr,<br />

dass es eine endliche Liste von „Marken“ gibt, aus denen alle Charaktere in einem System<br />

nach best<strong>im</strong>mten Regeln aufgebaut werden können. Es steht also ein Repertoire an kleinsten<br />

Einheiten, den Charakteren zur Verfügung, das nur endlich viele Elemente enthält. Dabei<br />

können die verschiedenen Charaktere, in unserem römisch-lateinischen Alphabet die<br />

Buchstabenmenge {a, ... , z}, zum Teil sehr unterschiedlich ausgeprägt in Erscheinung treten.<br />

Diese Erscheinungen nennt Goodman Marken. In vielen Symbolschemata können zusätzlich<br />

Marken zu neuen Marken kombiniert werden. Es gibt also atomare oder auch<br />

zusammengesetzte Marken, aber auch dieses sind nur endlich viele. Das System ist endlich<br />

differenziert. Man kann sich anschaulich vorstellen, das man den Buchstaben „a“ sehr<br />

unterschiedlich schreiben kann. Er könnte zum Beispiel in den folgenden Varianten<br />

auftauchen: „a“ und „a“ oder auch „a“. Dieses Phänomen kennen wir alle aus dem Feld der<br />

Handschriften. Es sorgt zum Beispiel dafür, dass das Lesen einer unbekannten Schrift zum<br />

leidigen Ereignis werden kann und eine ganze Forscherzunft sich mit dem Problem der<br />

automatischen Schrifterkennung beschäftigt. Nun ist es aber notwendig, laut Goodman, dass<br />

für Systeme, die auf Alphabete basieren, alle Marken eines Charakters syntaktisch äquivalent,<br />

also gleichwertig sind. Das heißt, dass sie ohne irgendwelche syntaktischen Auswirkung<br />

ausgetauscht werden können. Marken, die zu demselben Charakter gehören, sind echte<br />

Kopien oder Replicas voneinander, denn sie werden in gleicher Weise buchstabiert. 70 Das<br />

heißt anschaulich, das es keine Rolle spielen darf, ob ich den Charakter „a“ in der Ausprägung<br />

„a“ oder „a“ notiere. Marken, die also gleich buchstabiert werden und die zum gleichen<br />

Charakter gehören, sind „charakterindifferent“.<br />

69 Nelson Goodman (1998), S. 128<br />

70 dito, S.128-129<br />

62


Charakterindifferenz ist übrigens eine typische Äquivalenzrelation 71 , sie ist reflexiv,<br />

symmetrisch und transitiv. Das heißt wir können Äquivalenzklassen der Charaktere bilden.<br />

Was nichts anderes bedeutet, als das wir zum Beispiel alle Marken, die zum Charakter „a“<br />

gehören in einer Klasse zusammenfassen können oder etwas salopper gesagt, in eine<br />

Schublade stecken können. Dabei geschieht bei der Strukturierung in der Art einer<br />

Äqivalenzrelation folgendes: Die einzelnen Marken werden in Relation gesetzt, also<br />

zueinander in Beziehung gebracht. Dies geschieht aufgrund Übereinst<strong>im</strong>mung in einer<br />

best<strong>im</strong>mten Hinsicht, hier der syntaktischen Gleichwertigkeit. Man kann also alle<br />

Erscheinungen des Charakters „a“, wie zum Beispiel „a“ oder „a“ in die Schublade „a“<br />

stecken, ebenso alle Ausprägungen des Charakters „b“, also zum Beispiel „b“ oder „b“ in eine<br />

andere Schublade „b“. Damit es sich nun um eine Äqivalenzrelation handelt, müssen die drei<br />

oben erwähnten Kriterien erfüllt sein. Dafür wählt man zwei beliebige Marken M1 und M2 aus<br />

einer Äquivalenzklasse, also aus einer Schublade und setzt diese miteinander in Relation. Das<br />

heißt man schaut, ob diese die Eigenschaft der syntaktischen Gleichwertigkeit erfüllen. Nun<br />

müssen diese als erstes reflexiv, also selbstbezüglich syntaktisch gleichwertig sein. Das<br />

heißt die Marke M1 muss syntaktisch gleichwertig zu sich selbst sein, ebenso die Marke M2<br />

zu sich selbst. Dies ist sicherlich der Fall. Als zweites muss Symmetrie vorhanden sein. Das<br />

heißt wenn M1 syntaktisch gleichwertig zu M2 ist, dann muss auch M2 syntaktisch<br />

gleichwertig zu M1 sein. Auch dies ist offensichtlich der Fall. Und drittens muß Transitivität<br />

vorhanden sein. Das heißt, wenn man drei beliebige Marken aus einer Schublade wählt und<br />

die Marken M1 und M2 syntaktisch gleichwertig sind und ebenso die Marken M2 und M3<br />

syntaktisch gleichwertig sind, dann müssen auch die Marken M1 und M3 syntaktisch<br />

gleichwertig sein. Alle diese Kriterien sind nachprüfbar erfüllt und es handelt sich somit in<br />

diesem Sinne um eine Äquivalenzrelation.<br />

Ein solches Symbolsystem, das in Klassen einteilbar ist, ist syntaktisch disjunkt. Man sagt<br />

auch, es zerfällt in disjunkte Klassen. Denn in einem syntaktisch disjunkten Symbolschema<br />

gehört keine Marke zu mehr als einem Charakter und genau dies haben wir mit der<br />

vorliegenden Äquivalenzrelation gewährleistet. Durch diese Bedingung ist klar gestellt, dass<br />

es auf jeden Fall theoretisch möglich ist, so schwierig es auch praktisch sein mag, den<br />

Charakter zu identifizeren, dem eine best<strong>im</strong>mte Marke zugehört. Jede Marke kann also genau<br />

einer Klasse zugeordnet werden. Die syntaktische Bedingungen der Disjunktheit und der<br />

endlichen Differenzierung werden von den uns vertrauten sprachlichen, numerischen,<br />

binären und musikalischen Notationen erfüllt. 72 Goodman bezeichnet solche Systeme auch<br />

als Notationssysteme.<br />

Aber genau das leisten bildhafte Symbolsysteme nach der Auffassung von Goodman nicht.<br />

Bildsysteme sind nun weder syntaktisch disjunkt noch differenziert. Sie gehören zu den<br />

syntaktisch dichten Systemen. Es gibt also keine deutliche Grenze zwischen den Marken. Sie<br />

71 Vergleiche hierzu auch Kapitel 2.1.1 „Äquivalenz“<br />

72 Nelson Goodman (1998), S. 137<br />

63


gehen vielmehr ineinander über und es kann nicht eindeutig geklärt werden, zu welchem<br />

Charakter eine Marke gehört.<br />

Der Begriff der Dichte stammt wieder einmal aus der Mathematik. Goodman versteht und<br />

veranschaulicht ihn am Beispiel der rationalen Zahlen. 73 An dieser Stelle ist es notwendig<br />

erneut einen kleines Exkurs in die Mathematik einzuschieben, um zu verstehen, was er damit<br />

meint. Dabei werden auch andere Begriffe, wie „diskret“, „abzählbar unendlich“ oder auch<br />

„stetig“ erläutert, da wir diese <strong>im</strong> Folgenden noch benötigen werden.<br />

4.2.5 Diskret, dicht, stetig und andere Begriffe<br />

Die Begriffe „diskret“, „dicht“ , „stetig“ oder auch „abzählbar unendlich“ stammen aus der<br />

Mathematik und werden unter anderem <strong>im</strong> Zusammenhang mit <strong>digitale</strong>n <strong>Bilder</strong>n häufig<br />

verwendet, aber auch analytische Philosophen wie Goodman illustrieren ihre Theorien oft mit<br />

entsprechenden Beispielen, die mit diesen Begriffen arbeiten. Es ist sicherlich ein wenig<br />

mühsam, diese Begriffe zu verstehen, aber es scheint angesichts der Verwendung in den<br />

Theorien notwendig diese zur Verfügung zu stellen. Ich werde die Begriffe nicht in einem<br />

mathematisch exakten Sinn herleiten, aber in der Art, dass sie hoffentlich verstanden und<br />

verwendet werden können. Da die Begriffe in Verbindung mit den verschiedenen Zahlenarten<br />

stehen, werden wir sie zusammen mit ihren Eigenschaften vorstellen.<br />

Die natürlichen Zahlen, sind die elementarsten Zahlen. Man kennt sie vom Abzählen oder auch<br />

vom Durchzählen. Be<strong>im</strong> Abzählen will man wissen wie viele Elemente eine Menge hat, also<br />

zum Beispiel aus wie vielen Menschen eine Touristengruppe besteht. Man nennt die Zahlen in<br />

diesem Zusammenhang auch Kardinalzahlen. Wenn man dagegen durchzählt, also eine<br />

Reihenfolge aufstellt, nennt man sie Ordinalzahlen. Dies wäre der Fall, wenn man festhält,<br />

wer von der Touristengruppe als erster, als zweiter und so fort in den Reisebus eingestiegen<br />

ist. Die natürlichen Zahlen bezeichnet man in der Mathematik mit „N“. Das ist der Name der<br />

Menge. Ich werde jetzt zur Auflistung eine so genannte Mengenklammer verwenden, mit der<br />

man gewöhnlich die Elemente einer Menge darstellt. 74 Es sind dies die Zahlen N:= {1, 2, 3, ...}.<br />

Wobei man sich darauf einigen muss, ob nun die Null dazugehört oder auch nicht. Die<br />

natürlichen Zahlen werden ausgehend vom ersten Element der „1“ mit Hilfe der so genannten<br />

Peano-Axiome konstruiert. Das heißt es gibt eine Vorschrift, von Peano erdacht, wie man die<br />

nächste natürliche Zahl erhält. Immer wenn man eine „1“ addiert, erhält man die nächste<br />

natürliche Zahl. Das heißt man kennt bei den natürlichen Zahlen den Nachfolger, oder etwas<br />

lockerer formuliert den Nachbarn. Wie man schnell merkt, kann man mit den natürlichen Zahlen<br />

so etwas wie einen 1/2 Kuchen nicht beschreiben, denn zwischen der „1“ und der „2“ gibt es<br />

keine weitere Zahl. Nun ist es grundsätzlich möglich, dass es zwischen zwei natürlichen<br />

Zahlen, zum Beispiel der „1“ und der „3“ eine andere natürliche Zahl gibt, hier die „2“, aber<br />

73 Nelson Goodman (1998), S. 133<br />

74 Vergleiche auch Kapitel 3.4.7.1 Der Mengenbegriff<br />

64


dies muss nicht <strong>im</strong>mer so sein. Zu zwei beliebigen ungleichen natürlichen Zahlen a und b gibt<br />

es nicht <strong>im</strong>mer eine dritte c, so dass c zwischen a und b liegt. Zum Beispiel wäre dies bei „1“<br />

und „2“ oder auch bei „2014“ und „2015“ nicht der Fall. Das heißt, sie sind nicht „dicht“,<br />

sondern diskret.<br />

Wie wir gesehen haben, kann man ausgehend vom<br />

kleinsten Element der Menge, der „1“, jede andere<br />

natürliche Zahl herstellen. Aber man kann auch aus<br />

jeder anderen natürlichen Zahl durch Addition von<br />

„1“ die nächste, ihren Nachbarn, erzeugen. Dies<br />

kann man nun mit der neu erzeugten Zahl,<br />

wiederholen und <strong>im</strong>mer so fort. Es gibt also keine<br />

größte natürliche Zahl. Die natürlichen Zahlen hören<br />

also nie auf, sind unendlich viele. Genauer gesagt<br />

„abzählbar unendlich“, aber das werden wir noch<br />

klären.<br />

Als nächste Gruppe lernen wir die ganzen Zahlen<br />

kennen. Sie werden in der Mathematik mit „Z“<br />

bezeichnet. Es sind dies <strong>im</strong> Prinzip die positiven und<br />

negativen natürlichen Zahlen, deren Menge wie<br />

folgt aussieht: Z:= { ... -3, -2, -1, 0, 1, 2, 3, ...}. Man<br />

hat also die natürlichen Zahlen um ihr jeweils<br />

negatives Pendant erweitert. Wie man leicht sieht,<br />

sind auch die ganzen Zahlen unendlich viele,<br />

präziser wiederum „abzählbar unendlich“ viele.<br />

Um nun auch Verhältnisse wie den 1/2 Kuchen zu<br />

beschreiben hat man die so genannten rationalen<br />

Zahlen eingeführt, die auch unter dem Namen der<br />

Bruchzahlen bekannt sind. Diese bezeichnet man<br />

mit „Q“. Was für den modernen Menschen der<br />

Kuchen ist, war für unsere Vorväter die Beute und<br />

auch die musste geteilt werden. Es wurde in zwei<br />

Hälften oder drei Drittel und so weiter zerlegt. Wobei<br />

die „Hälften“ sicherlich nicht <strong>im</strong>mer genau gleich<br />

groß waren, dies aber nur am Rande. 75 Die<br />

rationalen Zahlen sind eingeführt als Verhältnis-<br />

„Weißt Du was hinter der Mathematik steckt?„ frage<br />

ich. „Hinter der Mathematik stecken die Zahlen.<br />

Wenn mich jemand fragen würde, was mich richtig<br />

glücklich macht, dann würde ich antworten: die<br />

Zahlen. Schnee und Eis und Zahlen. Und weißt du,<br />

warum? [...]<br />

Weil das Zahlensystem wie das Menschenleben ist.<br />

Zu Anfang hat man die natürlichen Zahlen. Das sind<br />

die ganzen und positiven. Die Zahlen des Kindes.<br />

Doch das menschliche Bewußtsein expandiert. Das<br />

Kind entdeckt die Sehnsucht, und weißt du was der<br />

mathematische Ausdruck für die Sehnsucht ist? [...]<br />

Es sind die negativen Zahlen. Die Formulierung des<br />

Gefühls, daß einem etwas abgeht. Und das<br />

Bewußtsein erweitert sich <strong>im</strong>mer noch und wächst,<br />

das Kind entdeckt die Zwischenräume. Zwischen<br />

den Steinen, den Moosen auf den Steinen, zwischen<br />

den Menschen. Und zwischen den Zahlen. Und<br />

weißt du, wohin das führt? Zu den Brüchen. Die<br />

ganzen Zahlen plus die Brüche ergeben die<br />

rationalen Zahlen. Aber das Bewußtsein macht dort<br />

nicht halt. Es will die Vernunft überschreiten. Es fügt<br />

eine so absurde Operation wie das Wurzelziehen<br />

hinzu. Und erhält die irrationalen Zahlen. [...] Es ist<br />

eine Art Wahnsinn. Denn die irrationalen Zahlen sind<br />

endlos. Man kann sie nicht schreiben. Sie zwingen<br />

das Bewußtsein ins Grenzenlose hinaus. Und wenn<br />

man die irrationalen Zahlen mit den rationalen<br />

zusammenlegt, hat man die reellen Zahlen. [...] Es<br />

hört nicht auf. Es hört nie auf. Denn jetzt gleich, auf<br />

der Stelle, erweitern wir die reellen Zahlen um die<br />

<strong>im</strong>aginären, um die Quadratwurzeln der negativen<br />

Zahlen. Das sind Zahlen, die wir uns nicht vorstellen<br />

können, Zahlen, die das Normalbewußtsein nicht<br />

fassen kann. Und wenn wir die <strong>im</strong>aginären Zahlen<br />

zu den reellen dazurechnen, haben wir das<br />

komplexe Zahlensystem. Das erste Zahlensystem,<br />

das eine schöpferische Darstellung der<br />

Eiskristallbildung ermöglicht. Es ist wie eine große,<br />

offene Landschaft. Die Horizonte.“ 76<br />

zahlen zweier natürlicher beziehungsweise ganzer Zahlen. Man kann sie entweder als Bruch<br />

zweier endlicher ganzer Zahlen darstellen, oder in der Dez<strong>im</strong>alschreibweise. Also entweder<br />

in der Art 1/2 oder 0,5. Es sind die Zahlen folgender Bauweise: Q:= { m / n ; m ∈ Z, n ∈ N; n ≠<br />

75 Vgl. hierzu auch den legendären Sketch „Der Kosakenzipfel“ von Loriot<br />

65


0}. Man kann also <strong>im</strong> Zähler eine beliebige ganze Zahl und <strong>im</strong> Nenner eine beliebige natürliche<br />

Zahl einsetzen. Rationale Zahlen sind zum Beispiel 1/2 oder –3/4, eben die Bruchzahlen.<br />

Nun ist es bei den rationalen Zahlen so, dass <strong>im</strong>mer zwischen zwei beliebigen eine dritte<br />

rationale Zahl liegt. Also zum Beispiel zwischen 1/3 (=4/12) und 1/2 (=6/12) liegt unter<br />

anderem 5/12. Daraus ergeben sich zwei Konsequenzen. Zum einen sind die rationalen<br />

Zahlen <strong>im</strong> Unterschied zu den ganzen und natürlichen Zahlen „dicht“. Das heißt, es findet sich<br />

zwischen zwei rationalen Zahlen <strong>im</strong>mer noch eine dritte, egal wie nah diese schon<br />

beieinander liegen. Zum anderen gibt es nun keine eindeutige Nachfolgerelation mehr. Es kann<br />

also nicht gesagt werden, welche rationale Zahl auf eine andere rationale Zahl folgt. 77<br />

Überraschenderweise gibt es doch noch Zahlen die zwischen den ganz dicht liegenden<br />

rationalen Zahlen liegen. Die griechischen Mathematiker entdeckten <strong>im</strong> Zusammenhang mit der<br />

Berechnung von Strecken in Flächen und Körpern, dass sie diese nicht mit den ihnen<br />

bekannten Zahlen lösen konnten. Sie standen bei der Berechnung der Diagonalen in einem<br />

Quadrat vor einer unlösbaren Aufgabe. Mit Hilfe des Satzes von Pythagoras, der besagt,<br />

dass <strong>im</strong> rechtwinkligen Dreieck das Quadrat der Länge der Hypotenuse gleich der Summe der<br />

Quadrate der Katheten ist (a 2 + b 2 = c 2 ), war es ihnen nicht möglich eine geeignete Zahl zu<br />

finden.<br />

c?<br />

b?<br />

?<br />

1<br />

°<br />

a? 1<br />

°<br />

Abbildung 15: Berechnung der Diagonalen <strong>im</strong> Quadrat<br />

Dazu mussten sie erst eine Zahl c finden, die mit sich selbst quadriert eine andere rationale<br />

Zahl (a 2 + b 2 ) ergibt, da ja durch Umformung gilt c=√ (a 2 + b 2 ). Im konkreten Beispiel, wenn<br />

man ein Quadrat mit Seiten der Länge 1 betrachtet, würden wir heute die Lösung mit √2<br />

angeben, da ja gilt c=√ (1+1)= √2. Man kann aber leicht mit elementarer Zahlentheorie zeigen,<br />

dass es keine Lösung aus dem Bereich der rationalen Zahlen geben kann.<br />

Die Konsequenz ist, dass es noch andere, die so genannten irrationalen, die „unvernünftigen“<br />

Zahlen gibt. Weil sie noch zwischen den dicht liegenden rationalen Zahlen liegen, spricht man<br />

76 Peter Hoeg, Fräulein Smillas Gespür für Schnee, Rowohlt Taschenbuch Verlag, Reinbek bei Hamburg 1997, S. 129-130<br />

77 Beweis zum Beispiel in: Konrad Königsberger, Analysis I, Springer Verlag, Berlin 2001, S. 15<br />

66


auch von den „Zahlen zwischen den Zahlen“. Auch von ihnen gibt es unendlich viele, was<br />

man leicht verstehen kann, weil es ja schon genügt eine von ihnen der Reihe nach mit den<br />

natürlichen Zahlen zu multiplizieren. Diese sind nun aber „überabzählbar“, also nicht<br />

„abzählbar unendlich“. Das heißt, es gibt mehr irrationale Zahlen, als rationale Zahlen. Dies ist<br />

insofern verblüffend, weil es ja von beiden Sorten unendlich viele gibt. Die irrationalen Zahlen<br />

werden mit „I“ bezeichnet und sind zum Beispiel Zahlen wie √2 oder π. Jede irrationale Zahl<br />

besitzt nach dem Komma unendlich viele Stellen, kann also <strong>im</strong>mer nur mit einer Näherung<br />

angegeben werden.<br />

Die reellen Zahlen sind gerade die Vereinigung der rationalen Zahlen mit den irrationalen<br />

Zahlen. Auch von diesen gibt es „überabzählbar“ viele. Mit diesen „wirklichen“ Zahlen ist es<br />

nun möglich zum Beispiel den Raum den wir kennen und Bewegungen darin zu beschreiben.<br />

Sie sind das Fundament für den Grenzwertbegriff, den so genannten L<strong>im</strong>es. Erst mit diesem<br />

ist der Zusammenhang zwischen dem zurückgelegten Weg eines bewegten Körpers, seiner<br />

Geschwindigkeit und seiner Beschleunigung ohne Widersprüche zu beschreiben. Damit sind<br />

die bekannten Paradoxien des Zenon überwunden. Die widersprüchliche „stehende“<br />

Bewegung des fliegenden Pfeils oder auch der Wettlauf des Achilles mit der Schildkröte sind<br />

bekannte Beispiele dafür.<br />

Wir haben gesehen, dass es sowohl von den natürlichen Zahlen, wie auch von den<br />

rationalen und reellen Zahlen unendlich viele gibt. Georg Cantor (1845-1918) warf die Frage<br />

auf, ob es sich dabei um dieselbe Art von Unendlichkeit handelt, oder etwas unpräziser<br />

ausgedrückt: ob es „genauso viele“ natürliche wie rationale oder reelle Zahlen gibt. Intuitiv<br />

scheint es mehr rationale als natürliche Zahlen zu geben, und wiederum mehr reelle als<br />

rationale. Doch scheint „unendlich“ zu bedeuten, dass die Frage nach einem mehr oder<br />

weniger gar keinen Sinn hat. Die Lösung dieser scheinbaren Paradoxie besteht nun darin, ein<br />

eindeutiges Zuordnungsschema zwischen den Elementen zweier unendlich großen Mengen<br />

anzugeben. Gelingt dies, so gelten die beiden Mengen als von gleichem „Unendlichkeitstypus“.<br />

Es gibt zwei verschiedene Typen von Unendlichkeit. Den ersten Typ nennt man „abzählbar“<br />

oder auch „abzählbar unendlich“, den zweiten „überabzählbar“, also nicht „abzählbar.“ Dabei<br />

hat man folgendes Verfahren entwickelt: Wenn man eine unendliche Menge durchnumerieren,<br />

also jedem Element der unendlichen Menge genau eine natürliche Zahl zuordnen kann, dann<br />

spricht man von einer „abzählbaren“ oder auch „abzählbar unendlichen“ Menge.<br />

N:=<br />

Z:=<br />

...<br />

1 2 3 4 5 6<br />

0 1 -1 2 -2 3 ...<br />

Abbildung 16: Abbildung der natürlichen auf die ganzen Zahlen<br />

67


Genauer gesagt, wenn es gelingt eine bijektive Abbildung zwischen zwei Mengen M1 und M2<br />

anzugeben, so spricht man von Gleichmächtigkeit der beiden Mengen. Noch einmal anders<br />

gesagt, wenn es möglich ist, jedem Element der ersten Menge M1 genau ein Element der<br />

zweiten Menge M2 zuzuordnen, dann haben beide Mengen gleichviel Elemente.<br />

Auf diese Weise kann man zum Beispiel zeigen, dass es „genauso viele“ ganze wie natürliche<br />

Zahlen gibt, und nicht etwa doppelt so viele, wie man naiv annehmen könnte. In diesem Sinne<br />

sind die ganzen Zahlen eine abzählbare Menge. Dies ist etwas verwunderlich, weil die<br />

natürlichen Zahlen ja eine Teilmenge der ganzen Zahlen sind. Die Abzählung könnte wie folgt<br />

aussehen:<br />

...<br />

-2 -1 0 1 2 3 ...<br />

Abbildung 17: Abzählverfahren der ganzen Zahlen<br />

Man kann auch zeigen, dass die rationalen Zahlen abzählbar unendlich sind. Dazu muss man<br />

zeigen, dass man sie „durchnumerieren“ kann. Die Menge der rationalen Zahlen also<br />

gleichmächtig, gleich groß, wie die der natürlichen Zahlen ist.<br />

1/5<br />

1/4<br />

2/4<br />

3/4<br />

4/4<br />

1/3<br />

2/3<br />

3/3<br />

4/3<br />

1/2<br />

2/2<br />

3/2<br />

4/2<br />

1/1<br />

2/1<br />

3/1<br />

4/1<br />

5/1<br />

Abbildung 18: Schema Cantorsches Abzählverfahren<br />

Dazu verwendet man das so genannte Cantorsche Abzählverfahren. Man ordnet zunächst<br />

alle rationalen Zahlen rasterartig an, wie in Abbildung 18 gezeigt. Man kann damit alle<br />

rationalen Zahlen erfassen, irgendwann ist jede einmal aufgeführt. Wie graphisch angedeutet,<br />

68


zählt man die ganzen Zahlen diagonal, oder auch spiralförmig ab. Es wird also jeder möglichen<br />

rationalen Zahl eine natürliche Zahl zugeordnet.<br />

Bei den irrationalen und reellen Zahlen ist dies nicht möglich. Man kann durch mathematische<br />

Beweise zeigen, dass es nicht möglich ist, eine Abbildung anzugeben, die eine Abzählung<br />

durch die natürlichen Zahlen leistet. Man nennt sie deshalb „überabzählbar“ oder auch<br />

„überabzählbar unendlich“. Noch einmal kurz zusammengefasst ist es also so, dass man die<br />

natürlichen N, die ganzen Z und die rationalen Zahlen Q als abzählbar unendlich bezeichnet<br />

und die irrationalen und reellen Zahlen als „überabzählbar“.Es gibt also „mehr“ irrationale und<br />

reelle Zahlen wie natürliche, ganze und rationale Zahlen, obwohl es von beiden Sorten<br />

unendlich viele gibt. Ein kluger Kopf soll einmal gesagt haben, dass man mit dem Begriff<br />

„unendlich“ vorsichtig sein soll, da er unendlich viele Schwierigkeiten bereitet.<br />

Nun kommen wir noch zum Begriff der „Stetigkeit“, der etwas schwieriger ist und den wir<br />

daher nur soweit erklären werden, wie es für das weitere Verständnis notwendig ist. Wir<br />

haben gesehen, dass es diskrete Mengen, wie die natürlichen Zahlen gibt und andere<br />

Mengen, wie die rationalen Zahlen, die dicht sind. Weiter ist es so, dass es noch irrationale<br />

Zahlen gibt, die zwischen den schon dicht liegenden rationalen Zahlen liegen. Durch das<br />

Zusammenfassen der rationalen und irrationalen Zahlen haben wir die reellen Zahlen erhalten.<br />

Diese sind nun vollständig und füllen den ganzen Raum aus. Man spricht in diesem<br />

Zusammenhang auch von „kontinuierlich“ oder „stetig“. Wenn man die reellen Zahlen für<br />

Abbildungen verwendet, dann erhält man oft stetige Abbildungen. Etwas salopp gesagt sind<br />

dies Abbildungen, die keine Sprünge aufweisen, die man „durchzeichnen“ oder mit einem<br />

Linienzug darstellen kann. Würde man eine gezeichnete Linie auf einem Papier mit den<br />

rationalen Zahlen beschreiben wollen, so würden sich Lücken auftun, an denen die Linie<br />

springt, es wäre keine „glatte“ zusammenhängende Linie. Dies ist nun aber mit den<br />

gefundenen reellen Zahlen gewährleistet und die Linie ist stetig.<br />

Nach diesem etwas schwierigen Ausflug in die Mathematik kehren wir schnell wieder zurück<br />

in die Bildtheorie. Gewappnet mit den neuen Begriffen, können wir uns jetzt um die Frage der<br />

Bildhaftigkeit von Symbolsystemen kümmern.<br />

4.2.5 Bildhaftigkeit nach Goodman<br />

Ein System ist laut Goodman nur dann ein Bildsystem, wenn es ein syntaktisch dichtes<br />

Schema besitzt, und ein Symbol ist nur dann ein Bild, wenn es zu einem durchgängig dichten<br />

Schema oder zumindest zu einem dichten Teil eines teilweise dichten Schemas gehört. Was<br />

man unter einem syntaktischen dichten Schema versteht beschreibt Goodman so: „Ein<br />

69


Schema ist syntaktisch dicht, wenn es unendlich viele Charaktere bereitstellt, die so<br />

geordnet sind, daß es zwischen jeweils zweien <strong>im</strong>mer ein drittes gibt.“ 78<br />

Diese Formulierung erklärt er dann am Beispiel der rationalen Zahlen, die wir bereits<br />

kennengelernt haben. Denn die Dichte ist ja gerade eine Eigenschaft, die den rationalen Zahlen<br />

eigen ist. Mit Hilfe des Begriffs der syntaktischen Dichte wird der Sachverhalt beschrieben,<br />

dass in einem Bildsystem jeder noch so feine Unterschied in gewissen Zügen einen<br />

Unterschied der Symbole ausmacht. Das heißt konkret, zwischen zwei Bildpunkten, könnte<br />

<strong>im</strong>mer noch ein dritter liegen. Es muss zumindest die Möglichkeit bestehen. Es darf also nicht<br />

<strong>im</strong> voraus ausgeschlossen sein, dass ein Dritter existieren könnte. Das hat zur Folge, dass es<br />

unmöglich ist zu entscheiden welche Marke zu demselben Charakter oder Symbol gehört. Dies<br />

war ja gerade bei den Symbolsystemen der Fall, die auf Alphabete aufgebaut sind.<br />

Es ist zu überlegen, ob die Definition sogar noch auf syntaktische Kontinuität verschärft<br />

werden müsste. Denn Bildsysteme sind hinsichtlich vieler Merkmale syntaktisch dicht. Als<br />

relevante Merkmale würden hierzu die Farbe, bezüglich des Farbtones, der Intensität und der<br />

Sättigung, aber auch die Auflösung des Bildes, also die Lokalisierung der Farbe zählen. Auf<br />

einer Leinwand können zum Beispiel an jeder beliebigen Stelle Farbpigmente aufgetragen<br />

werden. Das heißt aber, die Position der Farbpunkte ist statt dicht eher als kontinuierlich<br />

anzusehen.<br />

Die Farbigkeit ist ebenfalls nicht diskret gestaltet. Es stehen alle Farben kontinuierlich zur<br />

Verfügung. Es gibt nicht nur eine best<strong>im</strong>mte Auswahl an Farben, zum Beispiel die drei<br />

Grundfarben aus der Tube, sondern es können beliebige Zwischentöne daraus gemischt<br />

werden. Auch hier sollte man eigentlich von kontinuierlich und nicht von dicht sprechen.<br />

Der Grund für die syntaktische Dichte von Bildsystemen liegt darin, dass es für <strong>Bilder</strong> keine<br />

Alphabete gibt, keine endliche Menge von wohlunterschiedenen Zeichen, aus denen alle<br />

Charaktere des Systems nach best<strong>im</strong>mten Kompositionsprinzipen aufgebaut werden können.<br />

Für <strong>Bilder</strong> gibt es kein endliches Repertoire von Zeichen, aus denen alle Charaktere des<br />

Systems aufgebaut werden können. Wenn es dieses gäbe, wären wir in der Lage zu sagen,<br />

welche Marken das Bild an welcher Stelle hat, also welche Farben es an welchen Stellen<br />

trägt und zu welchen Charakteren diese gehören. Eine Marke kann aber zu einem Charakter<br />

der durch die Farbe definiert ist gehören oder zu einem anderen Charakter, der durch die<br />

Gestalt definiert ist und zu weiteren Charakteren, die durch Größe und Position definiert sind.<br />

<strong>Bilder</strong> unterscheiden sich also von sprachlichen Zeichen hauptsächlich in ihren syntaktischen<br />

Eigenschaften: <strong>Bilder</strong> sind Elemente von syntaktisch dichten Systemen, sprachliche Zeichen<br />

dagegen sind Elemente von syntaktisch disjunkten und differenzierten Systemen.<br />

Der Vorteil des syntaktischen Ansatzes ist, dass er sich pr<strong>im</strong>är um die formalen Beziehungen<br />

der Zeichen untereinander kümmert. Das heißt die Semantik bleibt zunächst außen vor und<br />

somit werden auch die zuvor schon erwähnten leeren, nicht-denotierenden <strong>Bilder</strong> erfasst.<br />

78 Nelson Goodman (1998), S. 133<br />

70


4.2.6 „Analoge“ und „<strong>digitale</strong>“ Symbolsysteme nach Goodman<br />

Nun kommen wir zu dem für uns zentralen Punkt der Symboltheorie von Goodman. Mit den<br />

erarbeiteten Kriterien versucht Goodman ganz allgemein <strong>analoge</strong> und <strong>digitale</strong> Systemen und<br />

Symbolschemata zu definieren. Mit Hilfe der neuen Begriffe werden die Differenzen geklärt<br />

und präzisiert. Er liefert die folgende Definition: „Ein Symbolschema ist analog, wenn es<br />

syntaktisch dicht ist; ein System ist analog, wenn es syntaktisch und semantisch dicht ist.<br />

Analoge Systeme sind demnach sowohl syntaktisch als auch semantisch in extremer Weise<br />

undifferenziert: Für jeden Charakter gibt es unendlich viele andere derart, daß wir für<br />

manche Marken unmöglich festhalten können, daß die Marke nicht zu allen gehört, und<br />

derart, daß wir für manches Objekt unmöglich festlegen können, dass das Objekt nicht alle<br />

erfüllt. Ein System dieser Art ist offensichtlich das genaue Gegenteil eines<br />

Notationssystems. Dichte <strong>im</strong>pliziert zwar das völlige Fehlen von Differenziertheit, wird aber<br />

von ihm nicht <strong>im</strong>pliziert; und ein System ist nur dann analog, wenn es dicht ist.<br />

Ein <strong>digitale</strong>s Schema dagegen ist durchgängig diskontinuierlich; und in einem <strong>digitale</strong>n<br />

System stehen die Charaktere eines solchen Schemas in einer Eins-zu-eins-Korrelation mit<br />

den Erfüllungsklassen einer ähnlich diskontinuierlichen Menge. Diskontinuität wird zwar von<br />

Differenziertheit <strong>im</strong>pliziert, <strong>im</strong>pliziert sie jedoch selbst nicht; [...] kann es sein, dass ein<br />

System mit nur zwei Charakteren syntaktisch und semantisch durchgängig und<br />

undifferenziert ist. Um digital zu sein, muß ein System nicht nur diskontinuierlich, sondern<br />

auch syntaktisch und semantisch durchgängig differenziert sein.“ 79<br />

Da wir uns nur um die syntaktischen Merkmale kümmern und nicht um die semantischen<br />

können wir folgendes festhalten: Ein Symbolschema ist also analog, wenn es syntaktisch<br />

dicht ist, und ein Symbolschema ist digital, wenn es syntaktisch durchgängig differenziert ist;<br />

man könnte auch sagen, dass es syntaktisch diskret ist. Goodman illustriert seine Definition<br />

am Beispiel eines Druckmessers. Dazu stellt man sich einen Druckmesser mit einem runden<br />

Ziffernblatt und einem einzigen Zeiger vor, der sich mit zunehmenden Druck gleichmäßig <strong>im</strong><br />

Uhrzeigersinn bewegt. Wenn sich nun auf dem Ziffernblatt keine Ziffern oder Marken<br />

befinden und jeder Unterschied in der Zeigerposition einen Unterschied <strong>im</strong> Charakter bewirkt,<br />

dann ist das Instrument be<strong>im</strong> Anzeigen des Drucks nicht notational. Das heißt die Erfordernis<br />

der syntaktischen Differenzierung ist nicht erfüllt, denn man kann die Position des Zeigers nie<br />

mit absoluter Präzision feststellen.<br />

Wenn man dagegen das Ziffernblatt durch Punkte etwa in fünfzig Abschnitte einteilen würde,<br />

kommt es für eine Beurteilung darauf an, wie man das Messgerät abliest. Wenn es auf die<br />

absolute Position des Zeigers auf dem Ziffernblatt ankommt und die Punkte dabei nur als<br />

Hilfsmittel für eine annähernde Best<strong>im</strong>mung dieser Position dienen, dann bleibt das Schema<br />

syntaktisch undifferenziert, wäre also ein <strong>analoge</strong>s Symbolschema. Denn die Punkte wären<br />

nur ein Hilfsschema, das für die annähernde Lokalisierung, wo der Zeiger sich befindet, ganz<br />

79 Nelson Goodman (1998), S. 154-155<br />

71


nützlich ist. N<strong>im</strong>mt man dagegen an, man würde dasselbe Ziffernblatt in der Art lesen, dass<br />

jeder Punkt so verstanden werden soll, dass er das Zentrum oder den Rand eines Gebiets<br />

markiert, dann wird jedes Erscheinen des Zeigers innerhalb dieses Gebiets als eine Inskription<br />

desselben Charakters verstanden. Dieses Schema nun wäre notational, vorausgesetzt, die<br />

fünfzig gewählten Gebiete sind disjunkt und durch Lücken voneinander getrennt, wie klein<br />

diese auch sein mögen. Ebenso wie es bei einer Uhr mit Ziffernblatt bezüglich der<br />

Stundeneinteilung in zwölf Abschnitte geschieht. Man hätte als Beispiel ebenso eine Uhr mit<br />

Ziffernanzeige wählen können.<br />

Daraus ergeben sich Vorteile und Nachteile der beiden Schemata. Digitale Systeme, wie<br />

Digitalcomputer sind zu höchster Präzision fähig, wenn es um das Zählen geht, während der<br />

Analogcomputer die bessere Möglichkeit hat, die absolute Position in einem Kontinuum zu<br />

registrieren. Eco stellt in diesem Zusammenhang fest, dass diese statt mit „<strong>digitale</strong>m Code“ mit<br />

einem „analogischen Modell“ arbeiten. Da man be<strong>im</strong> Digitalrechner bereits diskrete Werte<br />

verwendet, die eine codifizierende Konvention voraussetzen ist die Bezeichnung „<strong>digitale</strong>r<br />

Code“ angebracht; <strong>im</strong> Unterschied zum <strong>analoge</strong>n Rechner, bei der man die Entsprechung<br />

aufgrund einer vorhergehenden Ähnlichkeit festlegt. Der Mangel des analogischen Modells ist<br />

es deshalb aber auch, dass wir nicht <strong>im</strong>stande sind es zu erklären, weil wir es nicht erzeugt<br />

haben. 80<br />

Die wirklichen Vorzüge von <strong>digitale</strong>n Instrumenten sind die von Notationssystemen. Sie bieten<br />

eine Best<strong>im</strong>mtheit und Wiederholbarkeit be<strong>im</strong> Ablesen der angezeigten Werte. Interessant ist<br />

die Feststellung von Goodman, dass es Systeme gibt, die sowohl analog wie auch digital sind.<br />

So genannte gemischte Systeme, die man auch als Hybride bezeichnet. Dies hat aber zur<br />

Konsequenz, dass die beiden Begriffe „analog“ und „digital“ sich nicht gegenseitig<br />

ausschließen. Das wiederum würde heißen, dass es durchaus Medien geben könnte, die<br />

sowohl analog, als auch digital sind. Wir müssen das mal <strong>im</strong> Hinterkopf behalten, wenn wir<br />

nun die Unterscheidungsmöglichkeit von Goodman auf <strong>Bilder</strong> übertragen. 81<br />

4.3 Was ist ein <strong>digitale</strong>s Bild?<br />

4.3.1 Bild als Struktur<br />

Wir haben bereits in Kapitel 3 die technischen Vorgänge bei der Entstehung von <strong>digitale</strong>n<br />

<strong>Bilder</strong>n beschrieben. Dabei haben wir gesehen, das <strong>digitale</strong> <strong>Bilder</strong> durch Umwandlung von<br />

<strong>analoge</strong>n in <strong>digitale</strong> Daten, in einem Prozess den man „Digitalisierung“ nennt, entstehen<br />

können. Sie können aber auch direkt erzeugt werden. Dabei werden keine <strong>analoge</strong>n Vorlagen<br />

80 Umberto Eco (1972), S. 221<br />

81 Vgl. Nelson Goodman (1998), S. 152-155<br />

72


umgewandelt, sondern es werden aus den Bildinformationen, die uns die Welt liefert,<br />

unmittelbar <strong>digitale</strong> <strong>Bilder</strong> hergestellt. Wie dies genau geschieht, haben wir am Beispiel des<br />

Digital Imaging gesehen. Die <strong>digitale</strong>n <strong>Bilder</strong>, die dabei entstehen unterscheiden sich aber,<br />

wenn sie erst einmal digital vorliegen, nicht mehr in ihrer Struktur. Wir können festhalten, dass<br />

ein <strong>digitale</strong>s Bild aus gerasterten Bildelementen besteht. Wobei die Bildpunkte oder Pixel die<br />

eigentlichen Bildelemente darstellen, welche die Farbwerte an den entsprechenden<br />

Bildpositionen zeigen.<br />

CHRISTIAN Wittwer beschreibt das <strong>digitale</strong> Bild wie folgt: „Das <strong>digitale</strong> Bild ist also eine<br />

codierte, mathematische Struktur in Form einer zweid<strong>im</strong>ensionalen Matrix. Dem trägt die<br />

französische Sprache mit dem Ausdruck „photographie numérique“ Rechnung. Die Matrix,<br />

unterteilt in Linien und Kolonnen, besteht aus symmetrisch angeordneten Bildelementen,<br />

„picture elements“ oder einfach Pixel genannt. Ein Pixel ist die kleinste Informationseinheit<br />

des <strong>digitale</strong>n Bildes und beschreibt einen spezifischen Ton- oder Farbwert.“ 82<br />

Das <strong>digitale</strong> Bild ist also eine Matrix und somit als eine mathematische Struktur zu verstehen, in<br />

der festgesetzt wurde, wo welcher Bildpunkt sitzt und welchen Farbwert er trägt. Dabei kann<br />

die Struktur der <strong>digitale</strong>n <strong>Bilder</strong> auch von der einer Matrix entfernt werden. Mittlerweile gibt es<br />

Kompr<strong>im</strong>ierungsverfahren, welche das Bild nicht mehr in der Art einer zweid<strong>im</strong>ensionalen<br />

Matrix darstellen. Dabei werden zum Beispiel gleiche Elemente zu Gruppen zusammengefasst,<br />

um redundante Daten zu ersetzen und damit zu verringern. Letztendlich beziehen sich jedoch<br />

alle Zustände <strong>im</strong>mer auf die eigentliche Matrix.<br />

Nelson Goodman lieferte uns eine neue Beschreibung von <strong>analoge</strong>n und <strong>digitale</strong>n<br />

Symbolsystemen bezüglich ihrer Syntaktik, also ihrer Struktur. Was dies bei einer Übertragung<br />

auf die <strong>Bilder</strong> bedeutet, wollen wir uns nun anschauen.<br />

4.3.2 Das <strong>digitale</strong> Bild<br />

Bei den <strong>analoge</strong>n <strong>Bilder</strong>n sind die Bildträger, als materielle Gegenstände, mit Oberflächen<br />

ausgestattet, die man üblicherweise als reellwertig ansehen wird. Wie man in der Physik den<br />

Raum als reellwertig ansieht, kann man den Bildträger, die Oberfläche als reellwertig ansehen.<br />

Genau genommen müsste man dabei drei D<strong>im</strong>ensionen ansetzen, weil die <strong>Bilder</strong> auch<br />

Vertiefungen und Erhöhungen aufweisen können. Man hat also drei Richtungen, die für das<br />

Bild von Bedeutung sind, die Höhe, die Breite und die Tiefe. Be<strong>im</strong> Vorgang des Malens oder<br />

Zeichnens können nun Markierungen aufgebracht werden. Dabei können die Markierungen<br />

darauf (Farbflecke etwa) das Resultat von Bewegungen (eines Pinsels, eines Stiftes oder<br />

eines Tintentröpfchens) sein. Um diese adäquat zu beschreiben, müssen wir von einem<br />

Kontinuum möglicher Bewegungspositionen ausgehen. Das heißt, dass der dreid<strong>im</strong>ensionale<br />

82 Christian Wittwer (1996), S.37<br />

73


Raum, als den wir uns die <strong>Bilder</strong> vorstellen, kontinuierlich sein muss. Er muss mit den reellen<br />

Zahlen beschrieben werden, die ja kontinuierlich sind.<br />

Für Goodman zeichnen sich <strong>analoge</strong> Symbolschemata durch ein System von durchgängiger<br />

syntaktischer Dichte aus. Bei den <strong>analoge</strong>n <strong>Bilder</strong>n könnte man sagen, dass zum Beispiel die<br />

möglichen Positionen der Bildelemente, zum Beispiel Farbflecke dicht sind. Es ist nicht <strong>im</strong><br />

Voraus festgelegt, an welchen Stellen ein Bildelement gesetzt werden kann. Auf einem Blatt<br />

Papier kann theoretisch an jeder Stelle Farbpigment eines Stiftes aufgetragen werden. Wir<br />

sollten die geforderte syntaktische Dichte <strong>im</strong> Zusammenhang mit den Eigenschaften der<br />

Malerei oder auch der Zeichnung auf syntaktische Kontinuierlichkeit ausweiten, denn wenn<br />

wir davon ausgehen, dass eine Marke wirklich überall gesetzt werden kann, müssen wir<br />

diese Situation mit den reellen Zahlen beschreiben.<br />

Die <strong>digitale</strong>n Symbolschemata sind nach Goodman syntaktisch differenziert. Dies trifft insofern<br />

zu, als dass bei den <strong>digitale</strong>n <strong>Bilder</strong>n die möglichen Bildpositionen, die markiert werden<br />

können, eingeschränkt sind. Man bewegt sich auf einem festgelegten Raster. Es können nur<br />

an vorher festgelegten Positionen Bildpunkte gesetzt werden. Damit sind auch die<br />

entstehenden Marken endlich differenziert. Denn zwischen zwei Bildpunkten gibt es keine<br />

weiteren. Egal wie fein das Raster gewählt wird, es gibt doch <strong>im</strong>mer Bildpositionen, die nicht<br />

markiert werden können.<br />

Auch in einem anderen Sinn sind die <strong>digitale</strong>n <strong>Bilder</strong> endlich differenziert. Wie wir schon<br />

gesehen haben, werden <strong>im</strong> Digitalisierungsprozess, genau be<strong>im</strong> Vorgang der Quantisierung<br />

die kontinuierlich vorliegenden Farbwerte auf endlich viele reduziert. Das heißt die <strong>digitale</strong>n<br />

<strong>Bilder</strong> sind auch bezüglich der Farbwerte endlich differenziert, es spielt also keine Rolle, ob<br />

ein Bild nun 256 oder 2 Millionen Farben besitzt, es sind <strong>im</strong>mer endlich viele diskrete Werte.<br />

Deshalb können die Farbwerte ja gerade mit den natürlichen Zahlen beschrieben werden.<br />

Dabei spielt es auch keine Rolle, dass die Farbwerte eigentlich aus einer Kombination von<br />

Werten der drei Grundfarben angegeben werden.<br />

Wir können also die Begriffe von Goodman sehr gut auf die künstlerischen <strong>Bilder</strong>, als eine<br />

spezielle Menge, der <strong>analoge</strong>n und <strong>digitale</strong>n Symbolschemata übertragen.<br />

4.3.3 Ein struktureller Widerspruch und ein Lösungsvorschlag<br />

Alles wäre zu schön, wenn es da nicht eine kleine Ungere<strong>im</strong>theit gäbe. Denn wenn man sich<br />

die Beschreibung der <strong>digitale</strong>n <strong>Bilder</strong> noch einmal genau überlegt, entdeckt man folgende<br />

Unst<strong>im</strong>migkeit. Diese hatten wir ja als syntaktisch endlich differenziert angesehen und konnten<br />

dies auch gut mit dem Zustand der <strong>Bilder</strong> nach dem Digitalisierungsvorgang in Einklang<br />

bringen. Nach der Definition von Goodman wären diese aber widersprüchlich definiert. Denn<br />

Goodman sieht es ja als eine wesentliche Eigenschaft aller bildhafter Symbolsysteme, also<br />

nennen wir sie ruhig einmal <strong>Bilder</strong>, dass diese syntaktisch dicht sind. Dies war gerade der<br />

74


wesentliche Unterschied zu den notationalen Symbolschemata, wie zum Beispiel der Schrift.<br />

Und wir kommen nicht darum, die <strong>digitale</strong>n <strong>Bilder</strong>, zum einen zu den bildhaften<br />

Symbolsystemen, zum anderen zu den <strong>digitale</strong>n Symbolschemata zuzuordnen. Richard<br />

Schantz zeigt, dass Goodman selbst diesen Einwand erkannt hat und eine notwendige<br />

Präzisierung vorgenommen hat. 83<br />

Es steht der Einwand <strong>im</strong> Raum, dass Analogizität gar keine notwendige Bedingung für<br />

bildhafte Darstellungen ist. Dies zeigt sich an <strong>Bilder</strong>n, wie Computergrafiken oder<br />

Fernsehbildern, die aus digital kodierten Punkten erzeugt sind oder auch an Mosaiken, die aus<br />

einer begrenzten Anzahl aus Steinen zusammengesetzt sind. In allen diesen Fällen, so<br />

Schantz, scheint doch ein Alphabet zur Verfügung stehen, aus denen <strong>Bilder</strong> aufgebaut<br />

werden können. Wie es dennoch zu einer konsistenten Aussage kommt, erklärt Goodman,<br />

indem er klar stellt, dass „analog“ und „digital“ nicht auf isolierte Symbole, sondern auf<br />

Symbolschemata angewendet werden. Kein Symbol ist an und für sich analog und keines<br />

digital. Daraus würde man schließen, dass ein Bild ein Symbol in einem <strong>analoge</strong>n Schema sein<br />

muss. Dies verwirft er und formuliert eine Art Einbettung der <strong>digitale</strong>n in die <strong>analoge</strong>n<br />

Symbolschemata.<br />

Das heißt, ein aus Punkten zusammengesetztes Bild gehört zu einem <strong>digitale</strong>n Schema, aber<br />

es gehört auch zu vielen <strong>analoge</strong>n Schemata. Die Behauptung, dass jedes Symbol zu<br />

Schemata beider Typen gehört, illustriert er am Beispiel eines aus einer Art Karten<br />

zusammengesetzten Porträts von Abraham Lincoln.<br />

Das Porträt könnte man sich zunächst als ein Bild, dass auf ein Gitternetz aufgebaut ist<br />

vorstellen. Die Felder des Gitternetzes werden dabei entweder weiß oder schwarz gefüllt.<br />

Weiter stellt man sich vor, dass es für jedes denkbare Muster, also alle möglichen<br />

Kombinationen eine Karte mit gefüllten Quadraten gibt. Dann wären diese Karten endlich<br />

differenziert und das Schema digital. Nun kann man den Kartensatz erweitern, so dass alle<br />

Quadrate mit Schwarz, Grautönen und Weiß, ohne Beschränkung auf irgendein Gitternetz<br />

ausgefüllt werden. In diesem neuen Kartensatz ist jede Karte von den anderen undifferenziert<br />

und das Schema wäre analog. Der ursprüngliche Kartensatz, von dem wir ausgegangen sind,<br />

ist aber in dem erweiterten Kartensatz voll enthalten. Den ursprünglichen Kartensatz<br />

bezeichnet Goodman als <strong>digitale</strong>s Subschema, da es durch El<strong>im</strong>ination aus dem <strong>analoge</strong>n<br />

Schema entstanden ist.<br />

Mein Vorschlag wäre, die Menge aller <strong>digitale</strong>n <strong>Bilder</strong> einfach als Teilmenge der <strong>analoge</strong>n<br />

<strong>Bilder</strong> zu sehen. Dies ist tatsächlich so, wenn man sich auch überlegt, dass die <strong>digitale</strong>n <strong>Bilder</strong><br />

einfach durch eine Nullmultiplikation außerhalb der Rasterpunkte entstehen. Das heißt, diese<br />

wären also eine Art <strong>analoge</strong> <strong>Bilder</strong>, bei denen manche Bildpositionen gelöscht wurden. Bei<br />

<strong>analoge</strong>n Symbolschemata, die syntaktisch dicht sind, besteht ja die potenzielle Möglichkeit,<br />

wirklich an jeder Bildposition eine Marke zu setzen. Wenn man sich nun dafür entscheidet, nur<br />

an endlich vielen Stellen, den Rasterpunkten, eine Marke zu setzen und die anderen frei zu<br />

83 Richard Schantz, Die Ordnung der <strong>Bilder</strong> - Nelson Goodmans syntaktische Explikation der Bildhaftigkeit, in: Klaus Sachs-Hombach,<br />

Klaus Rehkämper (1998), S.100-102<br />

75


lassen, erhält man ein <strong>digitale</strong>s Bild. Man kann sie somit als spezielle <strong>analoge</strong> <strong>Bilder</strong> ansehen.<br />

Wir können die <strong>digitale</strong>n <strong>Bilder</strong> also als eine Teilmenge verstehen, die man in die Menge der<br />

<strong>analoge</strong>n <strong>Bilder</strong> einbetten kann.<br />

4.3.4 Syntaktische Veränderung und eine seltsame Verwandtschaft<br />

Durch die Rasterung, also die Reduktion auf ein endliches diskretes Punktfeld, haben wir die<br />

Möglichkeit die vorliegenden Werte linear „wegzuschreiben“. Das heißt, es kann eine<br />

Umwandlung des zweid<strong>im</strong>ensionales Feldes in eine eind<strong>im</strong>ensionale „Linie“ stattfinden.<br />

Dies ist deshalb möglich geworden, weil wir aus den ursprünglich überabzählbar unendlich<br />

vielen Bildpunkten nur endlich viele ausgewählt haben und diese können wir auslesen. Wir<br />

können sie auslesen, weil wir sie nun durchnumerieren können. Außerdem sind die Werte<br />

diskret, vergleichbar den natürlichen Zahlen, womit wir über die Nachbarschaftsverhältnisse<br />

Bescheid wissen. Wir können genau sagen welche Bildpunkte „direkt“ nebeneinander liegen.<br />

Direkt heißt in diesem Zusammenhang nicht, dass sie ganz eng beieinander liegen müssen,<br />

sondern dass es eben der nächstmöglich erreichbare Punkt ist.<br />

Damit ergeben sich auch neue Möglichkeiten der Kompr<strong>im</strong>ierung der Zeichen. Da jetzt lineare<br />

Nachbarschaftsverhältnisse vorherrschen, können benachbarte Zeichen miteinander<br />

verglichen werden und gleiche zusammengefasst werden. Dabei gibt es verschiedene<br />

Verfahren, wie man gleiche Zeichen zusammenfasst.<br />

...<br />

Abbildung 19: Lesevorgang des digitalisierten Bildes und Überführung in eine eind<strong>im</strong>ensionale Darstellung<br />

Erstaunlich ist auch, dass wir nun dadurch, dass wir dieses diskrete Punktfeld linear<br />

wegschreiben können, eine Art Text erhalten. Denn normaler Text, <strong>im</strong> Unterschied zum<br />

Hypertext, zeichnet sich gerade dadurch aus, das er linear geschrieben und gelesen wird.<br />

Die Anordnung auf einer Buchseite ist nur aus praktischen und ökonomischen Gründen<br />

zweid<strong>im</strong>ensional. Man könnte sich jeden Text auch auf einem sehr langen „Streifen“<br />

hintereinander als sehr lange Kette von Zeichen vorstellen, ohne dass sich dabei inhaltlich<br />

76


irgendetwas ändern würde. In der Geschichte der Schrift war dies einmal ein beliebtes<br />

Verschlüsselungsverfahren. Der Text wurde auf einem ausreichend langen Papierstreifen<br />

geschrieben, der um ein Hölzchen mit einem best<strong>im</strong>mten Durchmesser schraubenartig<br />

gewickelt wurde. Nur wenn Sender und Empfänger ein Hölzchen mit demselben Durchmesser<br />

besaßen, konnte der Empfänger den Text entschlüsseln, wobei der Durchmesser den<br />

Schlüssel darstellte (dies aber nur als Beispiel für einen „wirklich“ linear geschriebenen Text).<br />

Damit haben die <strong>digitale</strong>n <strong>Bilder</strong> dieselben Eigenschaften wie ein Text. Das <strong>digitale</strong> Bild ist<br />

endlich differenziert und seine Elemente sind diskret. Die Leseweise ist linear. Das <strong>digitale</strong> Bild<br />

entspricht also in dieser Art einem Text. Die Lesart ist bekannt und es gibt auch eine<br />

Grammatik dieser <strong>Bilder</strong>. Man besitzt in Abhängigkeit des Grafikprogramms, oder allgemeiner<br />

des Interpreters, wie auch die Semiotiker sagen würden, eine feste Vorgabe, wie die Zeichen<br />

zueinander zu strukturieren sind.<br />

Damit wäre aber auch gleichzeitig eine Verankerung des Textes <strong>im</strong> Bildbegriff verbunden,<br />

was ich für einen interessanten Gedanken halte. Denn wenn man sich überlegt, wie der<br />

konkrete Wahrnehmungsvorgang be<strong>im</strong> betrachten von Text abläuft ist dies nicht so abwegig.<br />

Wir wollen das am Beispiel eines einfachen Bogen Papiers nachvollziehen. In der konkreten<br />

Wahrnehmungssituation versucht das kognitive System zunächst aufgrund von Merkmalen,<br />

wie dem Kontrast oder bekannten Strukturen, wie Linien, bekannte oder neue Objekte, besser<br />

Gestalten auszumachen. Wobei die neuen vielleicht zu den bereits bekannten Objekten oder<br />

Gestalten zugeordnet werden. 84<br />

Was ich damit sagen will ist, dass ich den Wahrnehmungsvorgang prinzipiell zunächst als<br />

visuelles Ereignis sehe, in dem das ganze als „Bild“ gesehen wird. Erst mit der Identifikation<br />

von Zeichen eines Alphabetes wird das Bild zum Text.<br />

Wenn uns jemand eine Schrift zeigt, die wir zuvor nie gesehen haben, können wir nicht<br />

beurteilen, ob es sich um Schrift handelt, obwohl diese vielleicht endlich differenziert und<br />

syntaktisch disjunkt ist. Wir können zum Beispiel in der deutschen Sprache ein „o“ auch nur<br />

als Textelement erkennen und von einem Kreis als Bildelement unterscheiden, wenn wir<br />

gelernt haben, dass es dieses als Teilmenge des Systems Schrift gibt. Man muß aber auch<br />

erwähnen, dass die Umgebung der Bildelemente ebenfalls eine wesentliche Rolle für den<br />

Vorgang der Identifizierung und Einordnung spielt. Die Auswertung ist also stark durch den<br />

Kontext der Objekte abhängig.<br />

Verlassen wir dieses Feld und kehren wieder zurück zur gemeinsamen Eigenschaft von<br />

<strong>digitale</strong>m Bild und Text: der linearen Struktur. Wir hatten festgestellt, dass das „lineare<br />

wegschreiben“ der Bildmatrix spätestens be<strong>im</strong> abspeichern der Bilddaten stattfindet.<br />

Interessant wäre auch eine Untersuchung der Verteilung der Bilddaten <strong>im</strong> Hauptspeicher des<br />

Computers. Eigentlich liegen die Bilddaten auch hier bereits linear vor. Denn der Speicher ist<br />

ebenfalls linear adressierbar, das heißt jede Speicherzelle besitzt eine Art einstellige<br />

Hausnummer, mit der sie angesprochen werden kann.<br />

84 Martin Scholz, Gestaltungsregeln in der pictorialen Kommunikation, in: Klaus Sachs-Hombach, Klaus Rehkämper (1999), S.280<br />

77


Be<strong>im</strong> abspeichern der Bilddaten werden diese linear weggeschrieben, aber bei vielen<br />

Speichermedien eigentlich auch nicht sequenziell geschrieben. Am Beispiel der Musikcassette<br />

kann man leicht das sequenzielle Speichern von Daten erklären. Dieses Medium ist nicht direkt<br />

adressierbar, Daten müssen hintereinander aufgezeichnet werden. Auf einer Festplatte eines<br />

Computers zum Beispiel werden die Bilddaten noch ökonomischen Gesichtspunkten verteilt<br />

und liegen dann fragmentarisch, nicht notwendigerweise in der ursprünglichen Reihenfolge<br />

vor.<br />

In diesem Moment können wir damit aber auch eine syntaktische Veränderung feststellen.<br />

Denn die Struktur der Zeichen untereinander hat sich entscheidend verändert, die<br />

ursprüngliche flächige Beziehung wurde in eine lineare überführt.<br />

4.4 Digitale <strong>Bilder</strong> ohne Apparate?<br />

Im Folgenden wollen wir uns kurz mit der Frage beschäftigen, ob <strong>digitale</strong> <strong>Bilder</strong> grundsätzlich<br />

und ausschließlich durch Apparate erzeugt werden können. Denn bis jetzt haben wir <strong>digitale</strong><br />

<strong>Bilder</strong> <strong>im</strong>mer <strong>im</strong> Zusammenhang mit Apparaten gesehen, die sie erzeugen. Die Apparate haben<br />

entweder unmittelbar ein <strong>digitale</strong>s Bild erzeugt oder dieses durch die Digitalisierung aus einem<br />

vorhandenen <strong>analoge</strong>n Bild generiert. Den ersten Fall hatten wir be<strong>im</strong> Digital Imaging, das ja<br />

direkt eine <strong>digitale</strong> Fotografie liefert, also ein <strong>digitale</strong>s Bild. Den zweiten Fall haben wir, wenn<br />

wir zum Beispiel eine Handzeichnung einscannen, auch hier erhalten wir als Resultat ein<br />

<strong>digitale</strong>s Bild.<br />

Wenn man nun aber davon ausgeht, dass diese Apparate von Menschen erdacht und<br />

konstruiert wurden, könnte man annehmen, dass die grundlegenden Mechanismen auch<br />

manuell ausgeführt werden können. Es ist klar, dass zum Beispiel der menschlichen<br />

Feinmotorik, dem Auflösungsvermögen der Augen oder auch der Reaktionsfähigkeit Grenzen<br />

gesetzt sind. Es geht also nicht darum, den Ablauf eines Apparates zu <strong>im</strong>itieren, sondern um<br />

die Frage, ob <strong>digitale</strong> <strong>Bilder</strong>, wie wir sie jetzt als digital verstehen, auch ohne den Einsatz von<br />

Apparaten hergestellt werden können. Im auditiven Bereich haben wir die Sprache als ein<br />

derartiges <strong>digitale</strong>s Symbolsystem, das ohne den Einsatz von Apparaten anwendbar ist.<br />

Diese wirkt aber wie gesagt auditiv und nicht visuell.<br />

Geht man davon aus, dass ein <strong>digitale</strong>s Bild syntaktisch differenziert sein muss, ist es<br />

notwendig, zunächst ein endlich differenziertes Symbolsystem zu entwerfen, dass als<br />

Repertoire der Gestaltung dienen soll. So könnte man sich neun quadratische Plättchen bauen,<br />

die man mit zum Beispiel fünf verschiedenen Farben einfärbt. Mit diesem Vorrat an Plättchen,<br />

wäre es nun möglich quadratische <strong>Bilder</strong> zu legen, die aus einem endlich differenzierten<br />

Symbolsystem zusammengesetzt sind. Denn es gibt nur neun Plättchen zur Auswahl und<br />

diese sind in ihrer Farbigkeit ebenfalls endlich differenziert. Dies soll nur zeigen, dass es<br />

prinzipiell möglich ist, ohne den Einsatz von Apparaten <strong>digitale</strong> <strong>Bilder</strong> zu erstellen.<br />

78


4.5 Substanz des <strong>digitale</strong>n Bildes<br />

4.5.1 Einführung<br />

Wir haben bis jetzt viel über die <strong>digitale</strong>n Bildmedien erfahren. Wir kennen den Prozess der<br />

Herstellung <strong>digitale</strong>r <strong>Bilder</strong> beziehungsweise der Umwandlung, also der Digitalisierung. Wir<br />

haben die syntaktische Struktur der <strong>digitale</strong>n <strong>Bilder</strong> kennengelernt und gesehen, dass <strong>digitale</strong><br />

<strong>Bilder</strong> als syntaktisch endlich differenzierte Symbolsysteme zu sehen sind, diese aber durch<br />

Vorgänge wie die Kompr<strong>im</strong>ierung durchaus veränderte Syntakta erhalten können. Dabei liegen<br />

die <strong>digitale</strong>n <strong>Bilder</strong> codiert vor. Denn aus den kontinuierlich vorliegenden Daten wurden nur<br />

endlich viele ausgewählt und diese in eine endlich lange Zeichenkette umgewandelt. Durch die<br />

Überführung in eine lineare Form handelt es sich dabei um eine Art von Text. Die Bilddaten, die<br />

ja das Bild beschreiben, liegen als lineare Aneinanderreihung von <strong>digitale</strong>n Daten vor, dem<br />

Code.<br />

Wie bereits in Kapitel 3 angesprochen können wir den Code als <strong>im</strong>materiell ansehen und in<br />

diesem Sinne wird auch von der Immaterialität der Neuen Medien gesprochen. Denn diese<br />

beruhen nicht auf der Elektronik, sondern dem Binärcode, auf codierter Information. Daraus<br />

resultiert ein wesentlicher Unterschied der <strong>digitale</strong>n zu den <strong>analoge</strong>n Medien. Es bedarf<br />

sowohl auf der Produktions- als auch auf der Rezeptionsseite des Technikeinsatzes. Das<br />

digital vorliegende Bild muss also zunächst wieder erzeugt oder rekonstruiert werden und<br />

wird erst dann - zum Beispiel in Form einer „Hardcopy“ - für den menschlichen<br />

Wahrnehmungsapparat zugänglich.<br />

Das <strong>digitale</strong> Bild muss sich also <strong>im</strong>mer erst in irgendeiner Art materiell manifestieren, wobei die<br />

verschiedenen Manifestationen durchaus sehr voneinander abweichen können. So ist es ein<br />

erheblicher Unterschied in der Erscheinung des Bildes, ob es auf einem Monitor oder auf<br />

einem Farbdrucker ausgegeben wird. Jedesmal wird eigentlich „dasselbe“ Bild dargestellt und<br />

dennoch sind diese verschieden. Konkret können zum Beispiel Differenzen in der Farbigkeit,<br />

aber auch in der Erscheinungsgröße auftreten.<br />

Nun könnte man sagen, dass dies grundsätzlich bei reproduzierbaren Medien, wie zum<br />

Beispiel bei einer Radierung der Fall ist. Hier haben wir auch eine Situation, in der das Bild<br />

zunächst in einer Art Vorstufe des eigentlichen Bildes vorliegt und erst durch den<br />

Reproduktionsvorgang endgültig und in seiner gewünschten Erscheinung sichtbar wird.<br />

Diese Vorstufe möchte ich Form nennen. Wie bei einem Abguss in einer Gießerei, gibt es eine<br />

materielle Vorlage, die dazu benützt wird, andere Materie zu formen, in Form zu bringen. Bei<br />

einer Radierung wäre die Form also die Radierplatte, die Farbe und Papier in Form bringt.<br />

Auch hier können die entstehenden Reproduktionen sehr unterschiedlich ausfallen. So ist das<br />

Resultat bei einer Radierung zum Beispiel von der Farbmenge abhängig, die auf die Platte<br />

aufgetragen und stehen gelassen wird. Die Beschaffenheit, die Konsistenz von Farbe und<br />

Druckpapier spielen ebenfalls eine Rolle. Man könnte nun versucht sein die Form der<br />

79


eproduzierbaren Medien mit dem Code des <strong>digitale</strong>n Bildes gleichsetzen. Zwischen Form und<br />

Code besteht aber ein wesentlicher Unterschied. Die Form, als Vorlage für die Reproduktion<br />

ist bereits materiell festgelegt, sie bleibt <strong>im</strong>mer gleich und weist bereits wesentliche<br />

Eigenschaften des zukünftigen Bildes auf. Auch wenn wir diese nicht unmittelbar mit unseren<br />

Sinnen wahrnehmen können, so können wir bei einer unentwickelten Druckplatte in der<br />

Offsetlithographie oder bei einem latent vorliegenden Foto eigentlich nichts von dem<br />

zukünftigen Bild erkennen: Dennoch sind die Bilddaten bereits materiell verankert und es<br />

besteht eine Analogie zwischen der Form und dem zukünftigen Bild. Der Code dagegen liegt<br />

nicht materiell vor, hier liegen die Verhältnisse anders.<br />

Im Zusammenhang mit den verschiedenen Erscheinungen ergibt sich eine der zentralen<br />

Fragen dieser Arbeit, nämlich nach der eigentlichen Substanz des <strong>digitale</strong>n Bildes. Wobei wir<br />

in diesem Zusammenhang das Wort „Substanz“ in der Bedeutung von „das Beharrende, das<br />

unveränderliche, bleibende Wesen einer Sache“ 85 sehen wollen. Die Form bei<br />

reproduzierbaren Medien könnten wir als Substanz <strong>im</strong> Sinne von „Stoff, Materie, Material“<br />

verstehen. Dies gelingt uns be<strong>im</strong> Code nicht, der als <strong>im</strong>materiell zu sehen ist. Wir können von<br />

Substanz <strong>im</strong> Sinne von „dem bleibenden Wesen einer Sache“ sprechen. In dieser Hinsicht sind<br />

sich Form und Code ähnlich. Man könnte den Code als Substanz des <strong>digitale</strong>n Bildes ansehen,<br />

der hinter jeder dieser Manifestationen steht, <strong>im</strong> Sinne vom „eigentlichem Inhalt, dem<br />

Wesentlichen“. Ob dies zutrifft müssen wir <strong>im</strong> Folgenden klären. Dazu ist es sinnvoll<br />

herauszufinden, was das andere, das spezifische am Code <strong>im</strong> Vergleich zur Form ist. Dafür<br />

müssen wir die Bedingungen des Codes klären und vorab den Begriff des Codes erklären.<br />

4.5.2 Begriff des Codes<br />

Wir haben gesehen, dass man <strong>Bilder</strong> als Zeichen auffassen kann. Wir werden also schauen,<br />

was die Semiotik uns für den Begriff des Codes zur Verfügung stellt. Um eine erste<br />

Vorstellung des Codes zu bekommen, können wir uns an einer ad hoc Definition von Eco<br />

orientieren. Für ihn ist der Code ein System von Symbolen, die nach vorheriger Absprache die<br />

Möglichkeit besitzen Informationen zu repräsentieren und diese zwischen Sender und<br />

Empfänger zu übermitteln. 86<br />

Das heißt, der Code ist ein konventionelles Symbolsystem, mit dem Informationen zwischen<br />

Sender und Empfänger kommuniziert werden können. Das ist eine Definition, die auf den<br />

Informationsbegriff aufbaut. Für diese Definition müssen wir deshalb eine kurze Vorstellung<br />

des Begriffes der Information geben, wie ihn die Semiotik und die Informationstheorie versteht.<br />

Der Begriff der „Information“ wird in der Theorie nicht <strong>im</strong> weitläufigen Sinne von „Botschaft“<br />

oder „Nachricht“ verstanden.<br />

85 Zu den Bedeutungen des Wortes „Substanz“ vgl. Duden - Das Fremdwörterbuch (1990)<br />

86 Vgl. Umberto Eco (1972), S.19<br />

80


Um die Bedeutung zu erklären, ist es notwendig ein wenig auszuholen. Zunächst einmal kann<br />

man vereinfacht sagen, dass man eine Information besitzt, wenn man weiß, welches von<br />

zwei Ereignissen eintritt. Denn man n<strong>im</strong>mt an, dass die beiden Ereignisse die gleiche<br />

Wahrscheinlichkeit haben und man besitzt keine Kenntnis darüber, welches der möglichen<br />

Ereignisse eintreten wird. Bei einer Münze zum Beispiel, die man in die Luft wirft, hat man eine<br />

Wahrscheinlichkeit von 1:2 für Wappen oder Zahl.<br />

Die Informationstheorie nennt die Informationseinheit „bit“. 87 Das bit ist die Einheit der binären<br />

Disjunktion, die man zur Identifikation einer Alternative braucht. Mit der Methode der binären<br />

Entscheidung ist es möglich, ein Ereignis aus einer endlichen Anzahl möglicher Ereignisse zu<br />

identifizieren. Das ist auch das Verfahren, dem die so genannten <strong>digitale</strong>n Computer folgen. Im<br />

Falle der Identifikation eines Elements aus acht möglichen Fällen hat man 3 bit Informationen<br />

erhalten. Der Sachverhalt kann durch folgendes Beispiel illustriert werden: Wenn man bei<br />

einer Wanderung an drei Stellen vorbeigekommen ist, an denen sich der Weg in zwei neue<br />

aufgeteilt hat, hatte man acht Möglichkeiten für den ganzen Weg der Wanderung. Man hätte<br />

sich ja an jeder Gabelung anders entscheiden können. Das heißt, die Information ist ein Grad<br />

für die Möglichkeiten.<br />

Wichtig ist dabei die Unterscheidung zwischen Information und Inhalt. Das heißt, der Wert der<br />

Information darf nicht mit dem Inhalt, der mitgeteilt wird, gleichgesetzt werden. In der<br />

Informationstheorie zählt die mitgeteilte Bedeutung nicht. Für die Informationstheorie zählt die<br />

Zahl der Alternativen, die für eine eindeutige Definition des Ereignisses erforderlich ist. Die<br />

Information ist nicht so sehr das, was gesagt wird, sondern das, was gesagt werden kann.<br />

Zurück zur Sprache. Eine mit einem bit berechenbare Botschaft (die Wahl zwischen zwei<br />

gleichwahrscheinlichen Möglichkeiten) und eine mit drei bit berechenbare Botschaft (die Wahl<br />

zwischen acht gleichwahrscheinlichen Möglichkeiten) unterscheiden sich durch die größere<br />

Zahl möglicher Wahlen, welche die zweite Situation gegenüber der ersten an der Quelle<br />

aufwies.<br />

Im zweiten Fall informiert die Botschaft mehr, weil an der Quelle größere Ungewissheit über<br />

die Wahl, die getroffen werden würde, bestand. Die Information ist das Maß einer<br />

Wahlmöglichkeit der Selektion der Botschaft. Die Information stellt die Auswahlfreiheit dar, die<br />

bei der Bildung einer Botschaft vorliegt, und muss folglich als statistische Eigenschaft der<br />

Quelle der Botschaften betrachtet werden.<br />

Der Zusammenhang zwischen Information und Code besteht nun darin, dass der Code den<br />

Grad der Information einschränkt. Best<strong>im</strong>mte Ereignisse sind möglich und andere weniger. Die<br />

Information der Quelle n<strong>im</strong>mt ab, die Möglichkeit Botschaften zu übertragen, n<strong>im</strong>mt zu. Der<br />

Code stellt in diesem Sinne ein Wahrscheinlichkeitssystem dar, das über die<br />

Gleichwahrscheinlichkeit des Ausgangssystems gelegt wird, um dieses kommunikativ zu<br />

beherrschen. Im Bezug auf Symbolsysteme bedeutet die Einführung des Codes eine<br />

87 Von „binary digit“, also „binäres Signal“<br />

81


Einschränkung der Kombinationsmöglichkeiten zwischen den beteiligten Elementen und der<br />

Anzahl der Elemente, die das Repertoire bilden.<br />

Code, der die anfängliche Gleichwahrscheinlichkeit einschränkt und so ein System von<br />

Wiederholungen herstellt und gewisse Symbolkombinationen ausschließt, ist ein System von<br />

rein syntaktischen Regeln. Er legt also Vereinbarkeiten und Unvereinbarkeiten fest, wählt<br />

best<strong>im</strong>mte Symbole als zugehörig aus und schließt andere aus. Code kann nun aber in<br />

zweifacher Bedeutung auftreten. Zunächst ein System von syntaktischen Regeln. In diesem<br />

rein syntaktischen Sinn kann ein Code einfach ein codifizierendes System genannt werden.<br />

Gleichzeitig wirkt der Code auch als ein System von semantischen Regeln. Der Code stellt<br />

also semantische Regeln auf. Durch den Code werden nämlich auf rein syntaktische Art und<br />

Weise best<strong>im</strong>mte kombinierbare Einheiten unter Ausschluss anderer ausgewählt und dies<br />

geschieht deshalb, weil diese Operation dazu diente, eine semantische Funktion zu<br />

ermöglichen. Nun gibt es die „eigentliche“ Bedeutung des Codes, indem man ihn als Liste von<br />

Äquivalenzen versteht. Das heißt, jedes Symbol entspricht einer gedachten Bedeutung. Auf<br />

diesen „denotativen Code“, bauen aber weitere optionale, so genannte konnotative Codes auf.<br />

Diese konnotative Codes bezeichnet man auch als „Subcodes“.<br />

4.5.3 Interpretation und Prozess<br />

In dieser semantischen Funktion des Codes tauchen Schwierigkeiten auf. Denn um den Code<br />

zu verstehen, muss dieser vom Empfänger interpretiert werden und genau in der<br />

Interpretation liegt der wesentliche Unterschied des Codes zur Form. Denn der <strong>digitale</strong><br />

Bildcode verweist in seiner Erscheinung nicht auf das zukünftige Bild, für das er steht. Er ist<br />

ein konventioneller Code, der letztendlich aus Zahlen, besser Ziffern besteht. Zahlen aber<br />

haben zunächst nichts mit der Realität zu tun. Sie stehen in keiner Beziehung zur Welt, die uns<br />

umgibt. Zahlen besitzen sozusagen eine Nulldenotation. Erst der abstrakte Vorgang der<br />

Übertragung der Zahlenverhältnisse auf Objekte der Welt, gibt den Zahlen einen Bezug. Der<br />

Binärcode enthält keine Analogie. Und genau darin könnte man einen wesentlichen<br />

Unterschied der <strong>digitale</strong>n <strong>Bilder</strong> sehen.<br />

Überträgt man den Gedanken auf das Beispiel der Radierung als reproduzierbares Medium<br />

ergibt sich das Folgende: Im Gegensatz zur Radierung, die zu den reproduzierbaren Medien<br />

gehört, muss das digitalisierte Bild als Code erst interpretiert werden. Die unterschiedlichen<br />

Erscheinungsformen der Radierung hängen von den Trägermaterialien ab. Also von der<br />

Farbe, dem Gegenstand auf den gedruckt wird. Letztendlich gibt die vorhandene Radierplatte<br />

als Form aber <strong>im</strong>mer das Bild vor. Vielleicht könnte man das mit einem vorliegenden <strong>digitale</strong>n<br />

Bild vergleichen, welches <strong>im</strong>mer nur mit einem Programm interpretiert würde. Dann wäre die<br />

Erscheinungsform, ähnlich wie bei der Radierung, von den Trägermaterialien abhängig. Die<br />

Erscheinungsform würde sich verändern, je nachdem ob das <strong>digitale</strong> Bild auf einem<br />

Bildschirm, einem Drucker oder anderweitig ausgegeben wird.<br />

82


Bei einem <strong>digitale</strong>n Bild kann der vorhandene Code aber nicht nur von einem Programm,<br />

sondern von vielen interpretiert werden. Um in der Praxis eine einheitliche Interpretation zu<br />

gewährleisten, hat man sich auf so genannte „Datenformate“ geeinigt. Das heißt, es wurde<br />

festgelegt, wie ein best<strong>im</strong>mter Datensatz, also eine best<strong>im</strong>mte Menge von Binärcode zu<br />

verstehen ist. Dazu musste aber der eigentliche Code um einen so genannten „Metacode“<br />

erweitert werden. Es gibt nun zusätzlich zum Bildcode einen weiteren Code, der vorschreibt,<br />

wie der Bildcode zu deuten ist. 88 Was bedeutet dies <strong>im</strong> künstlerischem Kontext?<br />

Bernd Busch stellt dazu fest: „Erstens ist der binäre Computercode ein gleichsam<br />

universelles System, das sein Arbeitsmaterial in unterschiedliche Aggregatzustände<br />

überführen kann, das die vielfältigsten Informationen nicht lediglich verknüpfen, sondern<br />

auch ineinander umformen kann. Eine Folge hiervon ist, dass die unterschiedlichsten<br />

Darstellungsformen und Medien technologisch integrierbar sind, ja, dass sie zum beliebig<br />

wählbaren Effekt werden. Mediale Besonderheiten wandeln sich zu Darstellungsvarianten.“<br />

und weiter „[...] wesentliche Veränderung betrifft den neuen Typus des Computer-Bildes.<br />

Sein Ursprung ist das Programm, welches die verfügbaren Daten verarbeitet und die<br />

Bildvarianten generiert.“ 89<br />

Aus der Eigenschaft des Binärcodes als Universalcode ergeben sich weitreichende<br />

Konsequenzen. Der Binärcode führt zu einer Verschmelzung bisher getrennter Medien zu<br />

einem multifunktionalen Medienverbund. Da die Bits nicht nur Träger visueller, sondern jeder<br />

anderen Information sein können, werden die Abbildungssysteme vollständiger. Sie bilden<br />

nicht nur das ab, was wir sehen, sondern beziehen auch andere Sinne in die Abbildung mit<br />

ein. Das heißt, der Binärcode ermöglicht uns gleichzeitig die Repräsentation von zum Beispiel<br />

Bild, Text, Sound oder auch Video. Dies könnten auch Daten für eine Adressdatenbank oder<br />

die Steuerungsdaten für eine CNC-Fräßmaschine sein. Der Binärcode macht alle Zeichen und<br />

Bedeutungen austauschbar. Er ist ein Universalcode und fungiert als Umschlagplatz der<br />

Zeichen. Aus diesem Grund können die Bits nicht auf sich selbst verweisen. Sie müssen<br />

gegen andere Zeichen und deren Bedeutungen austauschbar sein. In diesem Sinne könnte<br />

man das Fernsehbild, das auch gerastert ist und somit syntaktisch diskret, als nicht <strong>digitale</strong>s<br />

elektronisches Bild verstehen. Wobei das Fernsehgerät mit einem festgelegten Programm die<br />

eintreffenden Daten interpretiert. Für jede Übersetzung bedarf es eines eigenen Codes. Der<br />

elektronische Fernsehbildpunkt ist also gar nicht beliebig umwandelbar. Er bleibt <strong>im</strong>mer das,<br />

was er ist: visuelle Information. Dagegen können mit dem Computer vorliegende Daten beliebig<br />

interpretiert werden. Zusammenfassend würde dies also bedeuten, dass man den Code nicht<br />

unbedingt als Substanz des <strong>digitale</strong>n Bildes betrachten kann. Vielmehr müsste man das<br />

<strong>digitale</strong> Bild <strong>im</strong> Prozess verstehen. Erst <strong>im</strong> Vorgang der Interpretation entsteht das eigentlich<br />

Bild. Dabei kommt es darauf an, welches Programm den Code interpretiert. Weiter ist es<br />

fraglich, ob ein Programm den Code überhaupt richtig interpretieren kann. Denn das Programm<br />

88 Obwohl es diesen Metacode gibt, treten oft Interpretationsprobleme auf, wie bei der Darstellung von Html-Seiten mit verschiedenen<br />

Browsern (Netscape / Internet Explorer). Auch hier liegt jeweils ein und derselbe Code und Metacode vor, aber die daraus<br />

resultierenden Darstellungen sind unterschiedlich.<br />

89 Bernd Busch (1995), S. 392<br />

83


deutet den Code ja nur deshalb so, weil wir es ihm gesagt haben, dass es dies so tun soll.<br />

Man könnte also ein eigenes Programm schreiben, dass den Code auf eine andere Art<br />

übersetzt und diese Übersetzung wäre nicht als falsch zu betrachten.<br />

Digitale <strong>Bilder</strong> sind also in einer Art Abhängigkeit des Programmes, mit dem sie interpretiert und<br />

bearbeitet werden zu sehen. Durch den Einsatz von so genannten Grafikprogrammen,<br />

ergeben sich veränderte Bedingungen für die Gestaltung der <strong>Bilder</strong>. Neue Gestaltungsmöglichkeiten<br />

sind dazu gekommen und mit diesem Themenfeld wollen wir uns <strong>im</strong> folgenden<br />

Kapitel beschäftigen.<br />

84


5. Veränderte Produktionsbedingungen<br />

Nachdem wir ausgiebig die theoretischen Grundlagen der <strong>digitale</strong>n Bildmedien bearbeitet<br />

haben, wollen wir schauen, welches die daraus resultierenden praktischen Veränderungen<br />

sind. Denn der Einsatz des Computers verändert offensichtlich die Bedingungen, unter denen<br />

Kunst produziert wird. Wir haben gesehen, dass man mit Hilfe eines Computers vorhandene<br />

<strong>Bilder</strong> digitalisieren kann. Be<strong>im</strong> Digital Imaging wurden sofort <strong>digitale</strong> <strong>Bilder</strong> erzeugt und der<br />

Umweg über die <strong>analoge</strong>n <strong>Bilder</strong> konnte vermieden werden. Eine weitere Möglichkeit stellt die<br />

direkte Erzeugung der <strong>digitale</strong>n <strong>Bilder</strong> am Computer dar. Dies geschieht durch Algorithmen,<br />

dass heißt durch Programme die Anweisungen an den Computer erteilen, wie die <strong>Bilder</strong><br />

erzeugt werden sollen. Außerdem können die digital vorliegenden <strong>Bilder</strong>, egal welcher<br />

Herkunft sie sind, mit dem Computer effizient und komfortabel weiterbearbeitet werden. Man<br />

kann also festhalten, dass es verschiedene Arten des Computereinsatzes bei der<br />

<strong>Bilder</strong>zeugung gibt. Wir wollen diese zunächst unterteilen, um zu sehen, welche<br />

Möglichkeiten es für die künstlerische Praxis gibt.<br />

5.1 Gestaltungsmöglichkeiten<br />

Wenn man den Computer für die Herstellung von Kunstwerken einsetzt, geht man damit neue<br />

Arbeitsbedingungen ein. Es sind grundsätzlich sehr unterschiedliche Arbeitsweisen möglich,<br />

aber unabhängig von der Weise, wie man den Computer für die Gestaltung benutzt, übergibt<br />

man Teile des Gestaltungsprozesses an die Maschine. Aus dem beweglichen Verhältnis<br />

zwischen Mensch und Maschine ergibt sich eine unterschiedliche künstlerische<br />

Selbstständigkeit. Je nach der Art der Anwendung gewinnt die Maschine eine gewisse<br />

Selbstständigkeit gegenüber dem Künstler. Frieder Nake, n<strong>im</strong>mt diesbezüglich eine<br />

Dreigliederung vor. 90 Für ihn gibt es drei Stufen der maschinellen Autonomie:<br />

Die erste zeigt sich in der Veränderung der handwerklichen Operationen. Dies ist der Fall,<br />

wenn der Künstler so genannte Zeichen- oder Malprogramme einsetzt, die es in einer breiten<br />

qualitativen Spanne, vom Kindermalprogramm bis zum professionellen Grafikprogramm, zu<br />

kaufen gibt. Die Programme stellen dabei ein gewisses Repertoire an Funktionen zur<br />

Verfügung. Diese s<strong>im</strong>ulieren oft die traditionell hergebrachten manuellen Techniken. Der<br />

Künstler bleibt bei dieser Arbeitsweise in seinen Entscheidungen relativ unabhängig und die<br />

handwerkliche Tätigkeit wird dadurch verändert, dass er interaktiv am Rechner die<br />

Entstehung des Bildes steuert. Der Künstler gibt dabei über Eingabegeräte, zum Beispiel einer<br />

Maus, Anweisungen an das Grafikprogramm. So können über die Bewegung der Maus<br />

90 Vgl. Frieder Nake, Bildgeschichten aus Zahlen und Zufall. Betrachtungen zur Computerkunst, in: Gottfried Jäger, Andreas Dress<br />

(1999), S. 125-126<br />

85


Freihandlinien gezeichnet oder geometrische Formen gesetzt werden. Der Künstler kann in<br />

dieser Arbeitsweise als User bezeichnet werden, der ein vorhandenes Grafikprogramm<br />

verwendet. Das erspart dem Künstler die Schwierigkeit des Programmierens, schränkt ihn<br />

aber gleichzeitig in seinen Möglichkeiten ein, da er ja an die vorgegebenen Funktionen<br />

gebunden ist. Herbert Franke beschreibt diese Situation wie folgt: „Heute gibt es aber auch<br />

so genannte Paint-Systeme, mit denen der herkömmliche Weg der Kunstproduktion s<strong>im</strong>uliert<br />

wird. Dabei sitzt man vor einem so genannten Tableau, einem Arbeitsfeld, über das man<br />

einen Griffel führt. Alles, was man mit diesem Griffel auf dem Tableau ausführt, kann man<br />

auf einem Bildschirm beobachten. Man braucht also überhaupt nicht mehr zu<br />

programmieren.“ 91 Diese Beschreibung zeigt, wie sich die eigentlich sehr komplexen Systeme<br />

zu relativ einfach zu bedienenden Oberflächen verändert haben. Ein interessanter Punkt ist<br />

die Imitation der aus den traditionellen Techniken bekannten Werkzeuge. So kann man in einem<br />

Grafikprogramm ebenso Radieren, wie mit einem Pinsel malen. Hier werden wir noch<br />

ansetzen und schauen, was nun die neuen, also die spezifischen Werkzeuge der <strong>digitale</strong>n<br />

Bildbearbeitung sind. Wichtig wäre es aus meiner Sicht auch, die Grenzen des<br />

Grafikprogrammes auszuloten und vielleicht zu überwinden. Dabei stößt man auf das Feld der<br />

Störungen, denn wenn man Methoden verwendet, die das Grafikprogramm eigentlich nicht zur<br />

Verfügung stellt, bewegt man sich urplötzlich außerhalb des angedachten Systems.<br />

Zurück zur Einteilung der Arbeitsweisen: Die zweite Stufe für Nake ist die Delegation geistiger<br />

Operationen. Hierbei übern<strong>im</strong>mt ein Programm, die Entscheidungen für das Anbringen der<br />

elementaren Zeichen, wie zum Beispiel der Farben oder den Linien. Der Künstler könnte diese<br />

Entscheidungen auch selbst treffen, aber er übergibt sie an die Maschine, weil er am<br />

ästhetischen Exper<strong>im</strong>ent interessiert ist. Es entstehen viele Produkte und in einem zweiten<br />

Prozess akzeptiert oder verwirft der Künstler die durch das Programm entstandenen<br />

Arbeiten. Dieses Vorgehen ist sinnvoll, wenn es sich um massenhafte oder komplizierte<br />

Entscheidungen handelt. Neue <strong>Bilder</strong> sind möglich, weil diese jetzt mit einer angemessenen<br />

Geschwindigkeit errechnet werden können. Diese Art der Computerkunst, deren Ursprung<br />

man um 1965 datiert, spielte schon relativ früh, eine bedeutende Rolle. Ein bedeutender<br />

Vertreter dieser Richtung ist der in New York lebende Manfred Mohr mit Serien wie „Cubic<br />

L<strong>im</strong>it II“. In dieser Serie wird ein Würfel in zwei Teile geschnitten, die dann unabhängig<br />

voneinander verdreht werden. Die Kanten der Würfel werden dann in die Bildebene projiziert<br />

und anschließend entscheidet Mohr welche der Computerentwürfe in Acryl ausgeführt<br />

werden.<br />

91 Herbert W. Franke, Der Monitor als Fenster in einen unbegrenzten Raum, in: Florian Rötzer (Hrsg.), Digitaler Schein - Ästhetik der<br />

elektronischen Medien, Suhrkamp Verlag, Frankfurt am Main 1991, S. 288<br />

86


Abbildung 20: Manfred Mohr, Arbeit aus der Serie Cubic L<strong>im</strong>it II 92<br />

Als eine dritte Stufe der maschinellen Autonomie sieht Nake die Modellierung geistiger und<br />

handwerklicher Operationen, also die Verschmelzung der beiden vorigen Eigenschaften.<br />

Hierbei entscheidet die Maschine eigenständig, wo welche elementaren Zeichen gesetzt<br />

werden und auf welches Material sie aufgebracht werden sollen. Der Künstler entwickelt<br />

diese Maschinen und befragt sich dabei gleichzeitig selbst. Er wird zu einer Art Forscher, der<br />

sich darüber <strong>im</strong> Klaren werden muss, wie er selbst zu Entscheidungen kommt und diese<br />

Erkenntnisse auf die Maschine überträgt. Die so entwickelten Maschinen kann man in den<br />

Bereich der Künstlichen Intelligenz einordnen, da sie selbstständig Entscheidungen treffen<br />

und der Ablauf der Algorithmen derart komplex ist, dass die tatsächlichen Ereignisse nicht<br />

mehr vorausgesagt werden können.<br />

Ein wichtiger Vertreter dieser Richtung ist Harold Cohen. Der englische Künstler lebt seit 1969<br />

in Kalifornien und spürt der Idee nach, eine Maschine zu entwerfen, welche ein funktionales<br />

Äquivalent des Künstlers selbst darstellt. Er entwickelte zuerst ein System namens Aaron,<br />

dass er 1974 der Öffentlichkeit vorstellte. Immer wieder entwickelt er „Malmaschinen“ dieser<br />

Art, die während ihres Einsatzes über das Trägermaterial fahren und selbständig<br />

Zeichnungen anfertigen. Mit diesen Arbeiten war er auch 1977 auf der Documenta 6<br />

vertreten. Mit seinen Arbeiten untersucht Cohen unter anderem die Regeln der Codierung von<br />

Informationen und die Frage nach der Entstehung der Bedeutung des Kunstwerkes. Die<br />

entworfenen Malmaschinen versteht er als semiotische Maschinen, da sie Bedeutung<br />

92 Bei der Arbeit handelt es sich um das Bild P-200/N aus der Serie Cubic L<strong>im</strong>it II, Acryl auf Holz, 112 x 112 cm, 1975,<br />

Bildquelle: http://www.dam.org/mohr/mohr_cube2_200n1.html (5.03.2002)<br />

87


erzeugen, wobei die Maschinen selbst kein Bewusstsein besitzen. Es sind Maschinen, die<br />

bedeutungstragende <strong>Bilder</strong> erzeugen, die aber selbst nicht intentional handeln. Daher ist es<br />

nicht verwunderlich, dass Cohen Kunstwerke aus einem konstruktivistischen Standpunkt<br />

heraus sieht. Für ihn ergibt sich die Bedeutung des Kunstwerkes erst <strong>im</strong> Vorgang der<br />

Rezeption her.<br />

Cohen ist einer der Künstler, die selbst Systeme entwickeln und programmieren und nicht auf<br />

vorhandene Systeme oder Programme zurückgreifen. In diesem Zusammenhang spricht man<br />

auch von so genannten offenen und geschlossenen Systemen. Franke dazu: „Bei einem<br />

offenen System kann man diese Programmteile beliebig einbringen. Von Seiten der Maler<br />

und Grafiker werden aber geschlossene Systeme verlangt. Bei einem offenen System<br />

müssen Sie noch ein eigenes Programm machen. Wenn Sie einen ganzen Katalog eigener<br />

Programme in ihr System integriert haben, dann wird auch ihr System individuell auf Sie<br />

ausgerichtet sein. Wenn man auf die eigene Programmierung verzichtet, dann ist man auf<br />

das angewiesen, was irgendein Programm an Routinen bietet. Das kann sehr viel sein, ist<br />

aber beschränkt. Jeder, der dieses System verwendet, verwendet auch dieselben<br />

Routinen.“ 93 Was hier angesprochen wird, ist ein Grundproblem der Computerkunst. Die<br />

Systeme sind derart komplex, dass es nicht sofort möglich ist, mit ihnen umzugehen. Deshalb<br />

wurden Programme entwickelt die dem Benutzer eine einfache Handhabung ermöglichen.<br />

Wenn er diese verwendet, schränkt sich der potenzielle Benutzer aber gleichzeitig auf die<br />

angebotenen Funktionen der Software ein, kann also nicht über den Funktionsschatz hinaus<br />

gestalterisch wirken. Damit geht der eigentliche offene Zustand der Systeme und die damit<br />

verbundenen Möglichkeiten verloren. Dennoch ist nur eine kleine Zahl von Künstlern bereit,<br />

sich das notwendige Know-How anzueignen, um selbst Programme zu entwickeln und sich<br />

damit von den vorhandenen Vorgaben zu emanzipieren. Sie beherrschen nicht die Systeme,<br />

sondern werden von den Systemen beherrscht.<br />

Besonders die angewandten Künstler setzen sehr auf Standards und könnten so zu bloßen<br />

Anwendern von Grafikprogrammen verkommen. Die latente Gefahr, die dabei <strong>im</strong> Raum<br />

schwebt ist, dass die Ergebnisse ähnlich ausfallen und in ihrer Diversifikation eingeschränkt<br />

sind.<br />

Es gibt also verschiedene Arten, wie man den Computer für gestalterische Zwecke einsetzen<br />

kann. Wir haben drei verschiedene Arbeitsweisen kennengelernt, wie man mit dem Computer<br />

als Werkzeug umgehen kann. Im Folgenden werden wir verschiedene Aspekte der drei<br />

Ansätze beleuchten und dabei die Bedingungen der Computerkunst beziehungsweise der<br />

computerunterstützten Gestaltung besser kennenlernen. Obwohl die veränderten<br />

Bedingungen sehr interessant sind, können diese nur kurz vorgestellt werden, weil das Feld<br />

derart umfangreich ist, dass dies wiederum eine eigene Arbeit wert wäre.<br />

93 Herbert W. Franke, Der Monitor als Fenster in einen unbegrenzten Raum, in: Florian Rötzer (1991), S. 288<br />

88


5.2 Gestaltung als ästhetisches Exper<strong>im</strong>ent<br />

Der Computer erlaubt es, beliebig lange an einem Bild zu exper<strong>im</strong>entieren. Nun ist es an und<br />

für sich nichts Neues, dass man <strong>im</strong> künstlerischen Prozess mit den Bildmedien, die man<br />

verwendet, exper<strong>im</strong>entiert. Mit den traditionellen Techniken der Bildproduktion kann man<br />

ebenso exper<strong>im</strong>entieren. Einen guten Eindruck davon bekommt man, wenn man sich zum<br />

Beispiel das druckgrafische Werk von Andy Warhol anschaut, das er mit den Techniken des<br />

Sieb- oder Offsetdruckes hergestellt hat. In einer seriellen Produktion stellt Warhol ganze<br />

Reihen eines Motivs her, die nur in ihrer Farbigkeit variieren. 94<br />

Aber es sind eben andere Parameter, die man be<strong>im</strong> Exper<strong>im</strong>entieren verändern kann. Mit dem<br />

Computer ist in einer gewissen Weise eine andere Art des exper<strong>im</strong>entellen Arbeitens möglich.<br />

Das <strong>digitale</strong> Bild kann ebenfalls in verschiedenen Varianten dargestellt werden. Es kann zum<br />

Beispiel bei einem Computerbild eine Farbe gegen eine andere ausgetauscht werden. Man<br />

kann Teile des Bildes ausschneiden oder herauszoomen, Details darin bearbeiten und die<br />

veränderte Version wieder in das Bild einfügen. Dabei können die Veränderungen <strong>im</strong>mer auch<br />

<strong>im</strong> nachhinein statt finden. Darüber hinaus gibt es aber einen weiteren wichtigen Aspekt: <strong>im</strong><br />

exper<strong>im</strong>entellen Arbeitsprozess können die <strong>Bilder</strong> nicht nur verändert, sondern diese<br />

Veränderungen auch wieder zurückgenommen werden, denn die <strong>digitale</strong>n <strong>Bilder</strong> lassen sich<br />

abspeichern und später wieder hervorholen. Es können also verschiedene Zustände der<br />

<strong>Bilder</strong> vorliegen, die man verwerfen, weiter bearbeiten oder auch als Ausgangspunkt für<br />

neue <strong>Bilder</strong> nehmen kann. Der Künstler als <strong>digitale</strong>r Homo Ludens. Da die eigentlichen<br />

Bilddaten, wie wir gesehen haben, <strong>im</strong>materiell vorliegen, hat man es eben nicht mit den<br />

übrigen Widrigkeiten des Materials zu tun.<br />

Hier tropft nichts, die Farbe fängt nicht an zu schnell zu trocknen und auch der Bleistiftstrich<br />

verschmiert nicht auf dem Papier.<br />

Insofern ist ein anderes exper<strong>im</strong>entelles Arbeiten wie mit den materiellen Techniken möglich.<br />

Insgesamt ergibt sich eine neue Arbeitsweise, die ein tastendes Exper<strong>im</strong>entieren besser<br />

zulässt als in den herkömmlichen Gestaltungsmethoden. Darin könnte man vielleicht auch eine<br />

Verbindung zwischen Naturwissenschaft und Kunst sehen: Das Exper<strong>im</strong>ent als Methode zur<br />

Gewinnung neuer Erkenntnisse und zur Herstellung neuer Sachverhalte. So könnte man jedes<br />

Produkt der Computerkunst als ein Exper<strong>im</strong>ent ansehen, aus dem man lernen kann, ob die<br />

Strukturen oder Methoden, die man eingebracht hat, zu etwas führen, das ästhetisch<br />

befriedigend ist oder nicht. Überhaupt kann man einen wesentlichen Teil der Computerkunst<br />

als eine Art exper<strong>im</strong>entelle Ästhetik verstehen, die sehr interessante ästhetische Qualitäten<br />

besitzt und dabei sehr oft das Medium selbst thematisiert. Dabei verändert der Computer<br />

vielleicht aber auch den künstlerischen Imaginationsprozess. Es ist einfacher Veränderungen<br />

vorzunehmen, denn diese können ohne Verluste wieder zurückgenommen werden. Damit fällt<br />

94 Vgl. Thomas Crow, Die Kunst der sechziger Jahre: von der Pop-art zu Yves Klein und Joseph Beuys, DuMont Verlag, Köln 1997,<br />

S.84-89<br />

89


die Entscheidung für eine Veränderung <strong>im</strong> Gestaltungsprozess eines Bildes leichter,<br />

gleichzeitig geht dafür vielleicht so etwas wie Verantwortung verloren. Der Schritt der<br />

Modifikation ist weniger gewichtig, wie der an einem traditionellen Bildmedium materiell<br />

vorgenommene. Denn die Veränderung bei materiellen Bildmedien hinterlässt Spuren und<br />

diese werden damit integraler Bestandteil der Arbeit. Diese Spuren aber gehen bei der<br />

<strong>digitale</strong>n Gestaltung <strong>im</strong> ästhetischen Exper<strong>im</strong>ent oftmals verloren.<br />

5.3 Das Problem der verlorenen Spuren<br />

Betrachtet man ein fertiges Artefakt, so lassen sich normalerweise viele Arbeitsspuren<br />

erkennen. Der Künstler kann zwar versuchen diese zu vermeiden oder ganz bewusst einen<br />

persönlichen Duktus verschleiern, aber auch dies ist wieder eine Art indirekte Handschrift, die<br />

man ablesen kann. Durch die Entscheidung für die Verschleierung hinterlässt er eine Art Spur.<br />

Anders dagegen sieht es bei den <strong>digitale</strong>n Bildmedien aus. Die äußere Erscheinungsform ist<br />

abhängig vom Ausgabegerät, ist also durch dieses Gerät vorgegeben und ist somit einheitlich.<br />

Was bedeutet das konkret? Im Arbeitsprozess entstandene Arbeitsspuren sind nicht mehr<br />

nachvollziehbar. Vorhanden ist nur das vorliegende Endergebnis, das aber ein Resultat<br />

unzähliger Korrekturen, Veränderungen oder Überarbeitungen sein kann. Wenn man zum<br />

Beispiel in einer Bleistiftzeichnung eine Korrektur vorn<strong>im</strong>mt, was unter der Zuhilfenahme eines<br />

Radiergummis leicht zu erledigen ist, ist es sehr schwer alle Spuren dieser Korrektur zu tilgen,<br />

den Vorgang zu neutralisieren. Bedingt durch die Materialität werden eigentlich <strong>im</strong>mer Spuren<br />

der Korrektur ablesbar sein. Im Endzustand der <strong>digitale</strong>n Medien sind diese Arbeitsspuren <strong>im</strong><br />

Nachhinein nicht mehr erkennbar, sind gänzlich verloren.<br />

Wenn man in einer Grafiksoftware ein Rechteck setzt, kann dieses beliebig auf dem<br />

definierten Arbeitsbereich verschoben werden, ohne dass <strong>im</strong> Nachhinein die geringste Spur<br />

erkennbar wäre. Die Informationen der Überarbeitung sind auf jeden Fall vollständig verloren.<br />

Seit ein paar Jahren stellen die Grafikprogramme so genannte „Protokolle“ zur Verfügung, die<br />

es ermöglichen, die durchgeführten Arbeiten Schritt für Schritt zurückzunehmen. Es kann also<br />

jeder Arbeitsschritt zurückverfolgt werden.<br />

Es ist aber fraglich, ob man dieses Protokoll als Arbeitsspur betrachten kann. Denn die<br />

Informationen stecken meiner Auffassung nach nicht <strong>im</strong> Werk, sondern stellen ein<br />

zusätzliches Protokoll dar. Im Arbeitsprozess werden alle Vorgänge mitgeschrieben, es wird<br />

aufnotiert was geschehen ist. Das wäre aber, wie wenn be<strong>im</strong> Malen eines Ölbildes ein<br />

Beobachter jeden Arbeitsschritt aufnotiert oder die verschiedenen Arbeitszustände in<br />

zusätzlichen <strong>Bilder</strong>n festhält. Dabei kommt es auch nicht darauf an, ob es sich <strong>im</strong><br />

Gestaltungsprozess um ein so genanntes additives oder subtraktives Verfahren handelt. Ein<br />

additives Verfahren wäre hierbei zum Beispiel eine Malerei, bei der <strong>im</strong> Verlauf des Malens<br />

<strong>im</strong>mer mehr Farbe aufgetragen wird und ein subtraktives Verfahren wäre die Herstellung<br />

einer Skulptur aus einem Holzblock, bei dem Schritt für Schritt Material weggenommen wird,<br />

90


is schließlich das fertige Werk herausgearbeitet ist. Denn auch be<strong>im</strong> subtraktiven Verfahren<br />

kann man <strong>im</strong> Nachhinein Arbeitsspuren feststellen. Zum einen am Werk selbst und zum<br />

anderen könnte man das übrig gebliebene Material, als eine Art Spur verstehen. Die<br />

Komplementärmenge des Werkes als nicht ausgewählte Form. Für diese Spuren ist es nicht<br />

nötig ein zusätzliches Protokoll anzufertigen, sie ergeben sich einfach aus dem<br />

Gestaltungsprozess.<br />

5.4 Die veränderte Zeitlichkeit <strong>im</strong> Bild<br />

Mit dem Problem der verlorenen Spuren ergibt sich auch eine veränderte Zeitlichkeit <strong>im</strong> Werk.<br />

Denn in jeder Arbeit steckt die ihr zugeführte Zeit, die notwendig war, um die Arbeit zu<br />

erstellen. Betrachtet man die fertiggestellte Arbeit, so kann man bei einer Malerei meistens<br />

Arbeitsspuren erkennen, die oft auch Rückschlüsse auf die Zeitlichkeit zulassen, die in der<br />

Arbeit steckt. Als Beispiel kann man sich die Selbstbildnisse von Max Beckmann vor Augen<br />

führen, bei denen man oft an speziellen Gesichtspartien Erhöhungen, Verdickungen<br />

entdecken kann. Dies weist darauf hin, dass der Künstler diesen Stellen besondere<br />

Aufmerksamkeit gewidmet hat, diese Stellen <strong>im</strong>mer wieder und wieder überarbeitet hat, bis er<br />

einen zufriedenstellenden Zustand erreicht hatte. Die Zeitlichkeit ist sozusagen an der<br />

Anhäufung von Material abzulesen, wobei das akkumulierte Material <strong>im</strong> Kontext des Bildes<br />

gesehen werden muss. So kann aus ein und derselben Erscheinung sowohl auf Flüchtigkeit,<br />

aber auch auf hohe Konzentration geschlossen werden.<br />

Das Phänomen der veränderten Zeitlichkeit ist aber auch bei den bereits bekannten<br />

Reproduktionsmedien zu verzeichnen. Es taucht <strong>im</strong>mer dann auf, wenn dreid<strong>im</strong>ensionale<br />

Bildmedien auf zwei D<strong>im</strong>ensionen reduziert und damit vorhandene Strukturen el<strong>im</strong>iniert<br />

werden. Der Verlust der dritten D<strong>im</strong>ension bewirkt also eine Verminderung der Möglichkeiten,<br />

die das Bild uns zur Erklärung seiner Entstehungsgeschichte zur Verfügung stellen kann.<br />

Durch die <strong>digitale</strong> Arbeitsweise gewinnt man aber gleichzeitig neue Möglichkeiten der<br />

Bildgestaltung. Wie diese aussehen können, werden wir nun ansprechen.<br />

5.5 Neue Werkzeuge für die Gestaltung<br />

Wenn man die Möglichkeiten untersucht, die ein Grafikprogramm zur Verfügung stellt, erkennt<br />

man, dass sehr viele dieser Funktionen an traditionelle Gestaltungstechniken angelehnt sind.<br />

Im Prinzip wird in den Programmen versucht, alle Techniken aus den traditionellen Techniken<br />

wie der Zeichnung oder der Malerei zu übernehmen, diese <strong>im</strong> Programm zu s<strong>im</strong>ulieren. So gibt<br />

es zum Beispiel Funktionen, um Freihandlinien zu zeichnen, oder man kann mit einer<br />

Gießkanne Flächen mit vordefinierten Farben ausfüllen. Auch ausgefallenere Methoden<br />

stehen zur Verfügung. So gibt es die Möglichkeit Linien oder Farbflächen, wie mit einem Finger<br />

91


zu verwischen oder Farbe in der Art der Airbrushtechnik auf der Arbeitsfläche aufzutragen.<br />

Man kann sagen, dass die manuellen Techniken <strong>im</strong>itiert beziehungsweise s<strong>im</strong>uliert werden.<br />

Man sollte aber erwarten, dass die Programme auch spezifische Methoden für die Gestaltung<br />

der <strong>digitale</strong>n <strong>Bilder</strong> zur Verfügung stellen und damit die Tür für neue Gestaltungsmöglichkeiten<br />

geöffnet wird. Ein wichtiger Ausgangspunkt ist die Möglichkeit, die <strong>digitale</strong>n <strong>Bilder</strong> zu<br />

berechnen und umzurechnen. Wie wir schon erfahren haben, handelt es sich bei den<br />

<strong>digitale</strong>n <strong>Bilder</strong>n um <strong>Bilder</strong>, bei denen jeder Bildpunkt mit allen seinen Merkmalen wie der<br />

Position und der Farbigkeit bekannt ist. Diese können vom Programm direkt angesprochen und<br />

modifiziert werden. Daraus ergeben sich vielfältige Möglichkeiten, die teilweise auch den<br />

Bereich der technischen <strong>digitale</strong>n Bildverarbeitung berühren. Um einen Eindruck zu bekommen,<br />

werden wir <strong>im</strong> Folgenden ein paar der neuen Möglichkeiten und die dabei eventuell<br />

auftretenden Probleme betrachten. Natürlich gibt es sehr viele Bearbeitungsmöglichkeiten,<br />

aber einige davon finden besonders häufig Verwendung in der Bildbearbeitung.<br />

Zunächst einmal gibt es Werkzeuge um die <strong>Bilder</strong> in ihrer Gesamtgröße zu vergrößern oder zu<br />

verkleinern. Man kann also das Bildformat auf beliebige D<strong>im</strong>ensionen abändern, wobei man in<br />

der Praxis eigentlich <strong>im</strong>mer auf rechteckige Formen eingeschränkt ist. Es können<br />

Bildausschnitte gewählt werden und diese kann man ausschneiden und kopieren, <strong>im</strong> Bild<br />

verschieben oder neu einfügen. Es gibt außerdem die Möglichkeit, Ausschnitte <strong>im</strong> Bild mit einer<br />

Lupenfunktion zu vergrößern und den gezoomten Ausschnitt <strong>im</strong> Detail zu bearbeiten.<br />

Desweiteren ist es möglich die <strong>Bilder</strong> zu drehen. Dabei kann man die <strong>Bilder</strong> <strong>im</strong> einfachsten Fall<br />

horizontal oder vertikal umklappen, was einer Drehung um 180° <strong>im</strong> Raum entspricht oder man<br />

gibt den Wert des Winkels, um den man das Bild drehen möchte, direkt an. Dabei muss man<br />

aber bedenken, dass die <strong>digitale</strong>n <strong>Bilder</strong> den Regeln der diskreten Geometrie unterworfen<br />

sind, wie wir gesehen haben. Das bedeutet zum Beispiel, dass man die <strong>Bilder</strong>, wenn man sie<br />

exakt erhalten will, eigentlich nur um ein Vielfaches von 90° drehen kann. Ansonsten<br />

verändert sich die Eigenschaften des Bildes. Ein einfaches Beispiel wäre eine gerade Linie,<br />

die exakt horizontal <strong>im</strong> Bild liegt. Wird diese nun um 5° gedreht, so wird sie „fransig“. Diese<br />

Probleme kann man in der Praxis durch Erhöhung der Auflösung beseitigen, denn damit kann<br />

man die auftretenden Störungen unter die Sichtgrenze des menschlichen Auges schieben.<br />

Das Problem ist deshalb aber <strong>im</strong>mer noch vorhanden, wir können es lediglich nicht mehr<br />

wahrnehmen.<br />

Ein weiterer und sehr wichtiger Bereich sind die mathematischen Transformationen. Nun<br />

muss man an dieser Stelle sagen, dass ja <strong>im</strong> Prinzip hinter allen bereits angesprochenen<br />

Methoden mathematische Operationen stehen, welche die Bilddaten in der gewünschten<br />

Weise verändern. Hier handelt es sich übrigens wieder um eine interessante Schnittstelle<br />

zwischen der Gestaltung auf der einen Seite und mathematischen Verfahren auf der<br />

anderen. So ist es auch mit den oft als „Filter“ bezeichneten Bildtransformationen. Damit<br />

lassen sich nun zum Beispiel Farbwerte invertieren oder polarisieren, die <strong>Bilder</strong> können<br />

schärfer oder unschärfer gemacht oder mit diversen anderen Effekten versehen werden.<br />

Schließlich kann man auch mit mehreren <strong>Bilder</strong>n arbeiten, indem man diese nach<br />

92


mathematischen Gesichtspunkten überlagert. Diese Vorgehensweise nutzt zum Beispiel<br />

Thomas Ruff um seine Substrat-<strong>Bilder</strong> herzustellen. Für diese sammelt er <strong>im</strong> Internet<br />

Comicbilder, die er in mehreren Schichten überlagert und miteinander multipliziert, bis<br />

schließlich semantisch leere <strong>Bilder</strong> entstehen. 95 Es gibt also einige neue Methoden und<br />

Werkzeuge, die sich ganz speziell auf die besonderen Eigenschaften der <strong>digitale</strong>n <strong>Bilder</strong><br />

einlassen, die also mit den traditionellen Techniken entweder gar nicht oder nur sehr mühsam<br />

möglich sind. Ein wichtiger Punkt ist, dass alle erwähnten Methoden nur am statischen Bild<br />

wirken. Durch die Verbesserung der Rechengeschwindigkeiten, der Auflösung und der<br />

Farbtiefe haben sich neue Möglichkeiten ergeben, die wir nun ein wenig kennenlernen<br />

werden.<br />

5.6 Vom statischen zum bewegten Bild<br />

Veränderungen <strong>im</strong> Bild können auch in Echtzeit vorgenommen werden, sie sind also mit der<br />

Anweisung durch den Anwender sofort verfügbar. Das heißt, die Veränderungen werden<br />

nicht erst berechnet und dann ausgegeben, sondern der Veränderungsvorgang wird<br />

unmittelbar zum Ereignis. Die Zeiten für die Berechnungen <strong>im</strong> Bild sind mittlerweile so kurz<br />

geworden, dass ein fließender Übergang von einem Zustand zum anderen möglich ist. Die<br />

logische Konsequenz ist dann der Schritt zum bewegten Bild, zur An<strong>im</strong>ation und damit auch<br />

zu Methoden wie dem Morphing. Durch die Möglichkeit der sehr schnellen Berechnung kann<br />

man wie bereits erwähnt die Veränderung der <strong>digitale</strong>n <strong>Bilder</strong> in Echtzeit vornehmen. Die<br />

Veränderungen können also mit ausreichender Geschwindigkeit stattfinden, so dass be<strong>im</strong><br />

Betrachten der Eindruck eines zeitlich flüssigen Ablaufes entsteht, eben wie man es vom Film<br />

gewohnt ist, bei dem ja 24 <strong>Bilder</strong> pro Sekunde genügen, um das menschliche kognitive System<br />

zu überlisten. Damit haben sich mittlerweile verschiedene Anwendungsbereiche<br />

herausgebildet.<br />

5.6.1 An<strong>im</strong>ation und Morphing<br />

Eine davon ist die Computeran<strong>im</strong>ation, bei der <strong>im</strong> Prinzip mehrere <strong>Bilder</strong> hintereinander<br />

geschaltet werden und damit der Eindruck der Bewegung durch die Veränderungen in den<br />

einzelnen <strong>Bilder</strong>n zueinander entsteht. Durch An<strong>im</strong>ation können nun verschiedene Arten von<br />

Sequenzen entstehen. Es kann sich also sowohl um s<strong>im</strong>ulierte reale Welten handeln, aber<br />

auch um künstlich erzeugte, die man zu Gesicht bekommt. Zumeist steht in den An<strong>im</strong>ationen<br />

aber der künstliche Charakter <strong>im</strong> Vordergrund und es wird offen gezeigt, dass die <strong>Bilder</strong> nur<br />

Repräsentationen für eine künstliche Welt sind. Ihre visuelle Sprache ist mehr mit der Grafik<br />

95 Thomas Ruff: Fotografien 1979 – heute (2001), S.247<br />

93


als mit der Fotografie verbunden. Ein berühmtes Beispiel ist die Computeran<strong>im</strong>ation<br />

„Panspermia“ von Karl S<strong>im</strong>s aus dem Jahre 1990, die 1991 auf der Ars Electronica in Linz<br />

prämiert wurde und lange Zeit auf MTV zu sehen war. Diese zeigt den Lebenszyklus, das<br />

Wachstum und die Entwicklung eines intergalaktischen Organismus. Dabei fällt ein Samen auf<br />

einen unbewohnten Planeten und explodiert in aggressive Formen botanischen Lebens, die zu<br />

dichten Wäldern verwachsen und die Oberfläche des Planeten bedecken. Und dann wachsen<br />

kanonenförmige Pflanzen, die Samen ins Weltall schiessen, um den Zyklus abzurunden. Die<br />

vollständig s<strong>im</strong>ulierte Sequenz mit einer Dauer von 2:08 Minuten zeigt wie sich diese fiktive<br />

Welt entwickelt. Die Pflanzenstrukturen entstanden aus Modellen des Pflanzenwachstums.<br />

Dabei wurde ein Satz aus 20 genetischen Parametern eingesetzt, um 3D-Modelle von Bäumen<br />

aus verbundenen Segmenten zu konzipieren. Es gibt lokale Wachstumsregeln, welche diese<br />

20 Parameter verwenden. Durch die Wachstumsregeln wird die hierarchische Position jedes<br />

Segments <strong>im</strong> Baum festgelegt, außerdem wie schnell jeder Abschnitt wächst, wann und in<br />

welche Richtung er neue Knospen entwickeln soll. Mit diesem Ansatz können die Pflanzen in<br />

beliebig kleinen Stufen wachsen, was eine glatte und fließende S<strong>im</strong>ulation und An<strong>im</strong>ation des<br />

Wachstumsprozesses ermöglicht. 96<br />

Abbildung 21: Snapshot aus der Computeran<strong>im</strong>ation Panspermia 97<br />

Die An<strong>im</strong>ationen dieser Art war zunächst <strong>im</strong> Bereich der Computerkunst angesiedelt. Die<br />

Grenze zum Film sind aber fließend und auch die Filmbranche hat sich diese Möglichkeiten zu<br />

eigen gemacht. Genau das bringt aber die Problematik, wie man sich dieser neuen Gattung<br />

des <strong>digitale</strong>n „Filmes“ annähern soll: Ist es nun die Filmtheorie oder die Kunsttheorie die<br />

geeigneter für Fragen der Beurteilung ist? Denn auch Vermischungen von vorhandenem<br />

historischen Filmmaterial, das digitalisiert wurde, und neu abgedrehtem Filmmaterial stellt heute<br />

kein Problem mehr dar.<br />

96 Vgl. http://prixars.aec.at/history/an<strong>im</strong>ation/1991 (4.03.2002)<br />

97 Bildquelle: http://prixars.aec.at/history/an<strong>im</strong>ation/1991/pictures/91gnA-panspermia3.jpeg (04.03.02)<br />

94


Ein bekanntes Beispiel dafür ist der Film „Forest Gump“ 98 aus dem Jahr 1994, in welchem der<br />

Hauptdarsteller Forest Gump alias Tom Hanks dem US-Präsidenten Kennedy anlässlich einer<br />

Ordensverleihung die Hand schüttelt. Dabei wurde auf historisches Filmmaterial<br />

zurückgegriffen, in das die Szene mit Tom Hanks eingearbeitet wurde. Dies geschieht <strong>im</strong><br />

Vorgang der <strong>digitale</strong>n Nachbearbeitung, der <strong>digitale</strong>n Post Production. Hier wird oft mit so<br />

genannten Gittermodellen gearbeitet, die später mit Leben gefüllt werden. Wenn man ein<br />

Objekt erst einmal in ein Gittermodell überführt hat, kann man dieses auch in ein anderes<br />

umwandeln. Diesen Vorgang nennt man „Morphing“. Wenn man ein Objekt „morphed“, man<br />

spricht in diesem Zusammenhang auch von „elastischer Wirklichkeit“, können sehr<br />

interessante neue Bildsequenzen entstehen. Beispielsweise besteht die Anfangsszene von<br />

Forest Gump aus einem ungewöhnlichen langen und extrem komplizierten Flug einer Feder.<br />

Um diese Aufnahme zu machen, wurde die wirkliche Feder in verschiedenen Positionen vor<br />

einem blauen Hintergrund gefilmt. Diese Aufnahmen wurden dann an<strong>im</strong>iert und mit Aufnahmen<br />

einer Landschaft kombiniert. Das Ergebnis ist eine neue Art des Realismus, das man als<br />

etwas beschreiben kann, dessen Aussehen genau dem gleichen soll, wie etwas geschehen<br />

sein könnte, obgleich dies in Wirklichkeit nicht geschehen kann. 99 Diese neuen Möglichkeiten<br />

werden mittlerweile intensiv von der Filmindustrie benutzt, wie man auch an Filmen wie<br />

„Terminator II“, „Die Maske“ oder „Matrix“ sehen kann.<br />

5.6.2 Generative <strong>Bilder</strong><br />

Ein anderes Feld, sind die durch den Computer selbst generierten, errechneten <strong>Bilder</strong>. Dies<br />

sind <strong>Bilder</strong>, die durch vorgegebene Algorithmen selbstständig entstehen. Die so entstehenden<br />

<strong>Bilder</strong> können sowohl statisch als auch an<strong>im</strong>iert sein. Im ersten Fall generiert das Programm<br />

ein Bild und zeigt dieses nach der Fertigstellung an. Als Beispiel könnte man Fraktale<br />

erwähnen, die visualisierte Mengen der Mathematik darstellen. Diese werden zunächst<br />

berechnet und ergeben dann das endgültige Bild. Im andern Fall würde das dargestellte Bild<br />

<strong>im</strong>mer wieder neu berechnet werden und die sich daraus ergebenden Veränderungen <strong>im</strong> Bild<br />

kontinuierlich angezeigt. Damit ergibt sich wieder der Eindruck einer Sequenz, also eines<br />

zeitlichen Ablaufs. In einem erweiterten Verständnis könnte man auch hier von einer<br />

An<strong>im</strong>ation sprechen, da es sich um bewegte <strong>Bilder</strong> handelt. Die <strong>Bilder</strong> können durch<br />

verschiedene Daten erzeugt werden. Das Programm kann zufällige Parameter, so genannte<br />

Startwerte durch einen Zufallsgenerator ermitteln oder es kann vorhandene Daten, die zum<br />

Beispiel in Dateien gespeichert sind, verwenden.<br />

98 Forest Gump, Robert Zemeckis, Paramount Pictures, 1994, Spezialeffekte von Industrial Light and Magic<br />

99 Diese formale Vorgehensweise erinnert ein wenig an die Turmspringerszenen in dem Olympiafilm „Fest der Völker“ von Leni<br />

Riefenstahl, bei dem vorwärts und rückwärts abgespielte Sequenzen zusammengeschnitten wurden. Der Film wurde aber für<br />

Propagandazwecke anlässlich der in Berlin ausgetragenen Olympischen Spiele <strong>im</strong> Jahr 1936 gedreht, steht also in keiner inhaltlichen<br />

Beziehung zum erwähnten Film „Forest Gump“.<br />

95


Eine andere Möglichkeit ist die Eingabe von Werten durch den Benutzer, in diesem Fall der<br />

Betrachter des Bildes. Dies kann vor dem eigentlichen generativen Prozess geschehen und<br />

legt damit die Startparameter fest. Diese beeinflussen dann die Entwicklung des entstehenden<br />

Bildes. Bei manchen Systemen kann der Betrachter, in diesem Fall auch der Benutzer,<br />

während des Vorganges in den laufenden Prozess eingreifen und diesen damit verändern.<br />

Diese <strong>Bilder</strong> sind also interaktiv.<br />

5.6.3 Interaktive <strong>Bilder</strong><br />

Interaktive Computerkunst 100 zeichnet sich dadurch aus, dass vom Künstler ein System zur<br />

Verfügung gestellt wird, welches best<strong>im</strong>mte Entscheidungen trifft. Die Entscheidungen des<br />

Systems sind aber zusätzlich abhängig von den Eingaben, die der Rezipient als Benutzer<br />

vorn<strong>im</strong>mt. Der Informationsfluss findet also zwischen dem System und dem Benutzer in beide<br />

Richtungen statt. Der Benutzer entscheidet über das Verhalten, das Aussehen, den Zustand<br />

und den Inhalt der Arbeit mit. Er kann durch seine Entscheidungen Einfluss auf den Ablauf des<br />

Systems nehmen. Für das visuelle Erscheinen der Arbeit können also weder Aussagen über<br />

den Endzustand noch über den Ablauf gemacht werden. Alles ist offen, <strong>im</strong> Rahmen der<br />

Grenzen die durch das vorgegebene System gesetzt sind. Hier haben wir einen sehr<br />

spannenden neuen Bereich, der sich entwickelt hat und in dem die Möglichkeiten für<br />

interaktive Arbeiten sehr vielfältig sind. Einen Eindruck von der Funktionsweise der<br />

interaktiven Arbeiten kann man am Beispiel einer frühen Arbeit aus diesem Bereich erhalten,<br />

welche sich <strong>im</strong> Zentrum für Kunst und Medientechnologie (ZKM) in Karlsruhe befindet. Es<br />

handelt sich um die Installation „Interactive Plant Growing“ von Laurent Mignonneau und<br />

Christa Sommerer aus dem Jahr 1991. Die Installation besteht <strong>im</strong> Wesentlichen aus einem<br />

Computersystem, einer Videoleinwand und natürlichen Pflanzen, die als Schnittstelle<br />

zwischen Betrachter und System dienen. In der Installation wachsen künstliche Pflanzen <strong>im</strong><br />

dreid<strong>im</strong>ensionalen virtuellen Raum des Computers. Durch den Kontakt und die Annäherung der<br />

Hand des menschlichen Betrachters zu den echten Pflanzen kann dieser das künstliche<br />

Wachstum von programmierten Pflanzen in Echt-Zeit beeinflussen und kontrollieren. Dies<br />

geschieht durch Sensoren an den Wurzeln der echten Pflanzen.<br />

100 Der Begriff Interaktion, abgeleitet vom Lateinischen „inter“ (zwischen) und „agere“ (handeln), beschreibt ursprünglich in den<br />

Sozialwissenschaften die gegenseitige Beeinflussung von Individuen und sozialen Gebilden. Die Bedeutung wurde in den achtziger<br />

Jahren auf den Bereich Mensch-Computer-Interaktion erweitert. Der Begriff in dieser abgeleiteten Version beschreibt <strong>im</strong> Bezug auf<br />

Computersysteme die Eigenschaften von Software, dem Benutzer eine Reihe von Eingriffs- und Steuermöglichkeiten zu eröffnen.<br />

Vgl. Ludwig J. Issing, Paul Kl<strong>im</strong>sa (Hrsg.), Information und Lernen mit Mult<strong>im</strong>edia, Psychlogie Verlags Union, Weinhe<strong>im</strong> 1995, S.152-<br />

153<br />

96


Abbildung 22: Ausstellungssituation der Installation<br />

„Interactive Plant Growing“ 101<br />

Das elektrische Potenzial, welches sich durch die verschiedenen Berührungen des<br />

Betrachters verändert, kann gemessen werden und dient als Vorgabe für den<br />

Wachstumsprozess der künstlichen Pflanzen, der auf eine Videowand vor dem Betrachter<br />

projiziert wird. Durch das Feedback des künstlichen Wachstums am Bildschirm kann der<br />

Betrachter auf die jeweiligen <strong>Bilder</strong> reagieren und durch seine Entscheidungen den weiteren<br />

Verlauf des Wachstums best<strong>im</strong>men. Die Installation ist so angelegt, dass mehre Menschen zur<br />

gleichen Zeit über die Schnittstelle der fünf echten Pflanzen in der Installation agieren können.<br />

In der Möglichkeit der Interaktion liegt zum einen der Reiz der Arbeiten und zum anderen wird<br />

dadurch die wesentliche Beschaffenheit der Arbeiten dieses Typs best<strong>im</strong>mt. Sie sind eben<br />

nicht statisch sondern verändern ihr Erscheinungsbild, indem sie Reaktionen auf die Eingaben<br />

des Betrachters zeigen. Die <strong>Bilder</strong> sind bewegt, gehen dabei aber über eine An<strong>im</strong>ation hinaus.<br />

Denn <strong>im</strong> Wechselspiel zwischen Werk und Betrachter entstehen Konstellationen, die der<br />

Künstler zum Zeitpunkt der Erstellung des Systems nicht vorhersehen kann. Der Benutzer<br />

übern<strong>im</strong>mt einen wesentlichen Teil der Gestaltung und best<strong>im</strong>mt damit den endgültigen<br />

Zustand der Arbeit mit. Der Prozess der Gestaltung wird also auf den Betrachter, besser den<br />

Benutzer übertragen und von diesem fortgeführt. Es handelt sich nicht mehr um ein<br />

vorgefertigtes Werk, sondern um eine zum Prozess gewordene Arbeit, an welcher der<br />

Benutzer aktiv teilnehmen kann. Der Betrachter erhält eine neue Rolle, indem er nicht nur als<br />

Rezipient sondern auch als Akteur auftritt. 102<br />

Durch den Wandel vom materiellen Kunstwerk zum digital codierten, <strong>im</strong>materiellen Werk ist ein<br />

ganz neuer Bereich der Gestaltung entstanden. Die Arbeiten dieser Gattung sind flexibel,<br />

aktivierbar, veränderlich; da sie <strong>im</strong>materiell vorliegen können und sie zudem über elektrische<br />

Leitungen oder Funk „transportiert“ und publiziert werden können.<br />

101 Quelle: http://on1.zkm.de/zkm/stories/storyreader$612 (4.3.2002)<br />

102 Auch in der Unterhaltungsindustrie sind solche interaktive Konzepte mittlerweile sehr populär geworden. In Funk und Fernsehen gibt<br />

es viele Beispiele (TED bei Wetten Dass oder Big Brother) bei denen der Zuschauer interaktiv gestaltend auf die Sendungen einwirken<br />

kann.<br />

97


5.7 Original und Kopie<br />

Ein Phänomen das mit der <strong>digitale</strong>n Codierung einher geht und somit auch den Bereich der<br />

<strong>digitale</strong>n <strong>Bilder</strong> betrifft, ist das neue Verhältnis zwischen Original und Kopie. Mit den gängigen<br />

Betriebssystemen ist es möglich vorhandene Dateien, die <strong>digitale</strong> Daten für zum Beispiel <strong>Bilder</strong><br />

oder Filme beinhalten, zu kopieren. Dies geschieht <strong>im</strong> Prinzip auch durch die Distribution über<br />

Datenleitungen, wie sie das Internet zur Verfügung stellt.<br />

Aus der vorliegenden Immaterialität der Bilddaten, also konkret des Bildes ergibt sich aber eine<br />

wichtige Konsequenz: man kann in diesem Zusammenhang nicht mehr von Original und Kopie<br />

sprechen oder anders gesagt das „auratische“ des Kunstwerkes geht verloren. Was bei<br />

Warhol noch die Forderung für eine Aufgabe des Individualkultes war, ist hier technische<br />

Realität. 103 Denn man kann von einer vorhandenen Bilddatei eine identische „Kopie“ anfertigen,<br />

wobei sich bei beiden Bilddateien die vorliegenden Bildwerte in keiner Hinsicht unterscheiden.<br />

Man könnte höchstens noch über den vorliegenden Metacode, der den Bildcode begleitet,<br />

Aussagen über das Entstehungsdatum des <strong>digitale</strong>n Bildes machen und über eine zeitliche<br />

Einordnung von einem früher oder später der Werke sprechen. Dieser Metacode aber gehört<br />

nicht zum Bild, sondern stellt eine Art Protokoll des Gestaltungsprozesses dar. Das Protokoll<br />

gehört nicht zum eigentlichen Werk und stellt zusätzliche Informationen dar, wie wenn man für<br />

eine angefertigte Handzeichnung eine Kontrollkarte anlegen würde, auf der die relevanten<br />

Eckdaten für das jeweilige Werk eingetragen sind. Das eigentliche Bild und die zugehörige<br />

Kopie unterscheiden sich in keiner Weise. Die Kopie, oder besser das Duplikat, besitzen<br />

genau die gleichen Qualitäten. Dies ist möglich geworden, weil das Bild durch numerische<br />

Werte repräsentiert wird und diese ohne Veränderung reproduziert werden können. Dies<br />

führt zu einer ganz neuen Situation, wenn es um die Beurteilung der Originalität geht. Das<br />

Original muss jetzt dazu deklariert werden und besitzt diese Eigenschaft nicht automatisch, da<br />

es absolut identisch dupliziert werden kann. Die Möglichkeit der Reproduktion der <strong>digitale</strong>n<br />

<strong>Bilder</strong> sind damit in höchstem Grad der Perfektion vorhanden. Um nicht in ein Loblied auf die<br />

Computer einzust<strong>im</strong>men, muss man auch erwähnen, dass es in der Praxis nicht <strong>im</strong>mer gelingt.<br />

Durch technische Fehler be<strong>im</strong> Kopieren oder Übertragen der Bilddaten können Störungen<br />

entstehen. 104<br />

5.8. Störungen<br />

Wenn <strong>im</strong> Gestaltungsprozess unerwünschte Phänomene auftauchen, die nicht durch den<br />

User bei angemessener Benutzung verursacht sind, kann man von Störungen sprechen.<br />

Diese können an verschiedenen Stellen <strong>im</strong> System entstehen, wenn dieses nicht einwandfrei<br />

103 Vgl. Thomas Crow (1997), S.86<br />

104 Vgl. dazu auch den Szenespruch: „Nur ein ausgeschalteter Computer verursacht keine Fehler!“<br />

98


funktioniert. So können durch die eingesetzten Hardware, aber auch durch die Programme<br />

Fehler entstehen. Dabei ist es möglich, dass der Fehler <strong>im</strong> Programm bereits angelegt ist, dass<br />

also das Programm fehlerhaft erstellt wurde oder dass das Programm durch ein weiteres<br />

gestört wird. Wenn zum Beispiel zwei Programme versuchen, denselben Speicherbereich <strong>im</strong><br />

Computer zu belegen, so kann dies Konflikte verursachen, die zu unerwarteten Resultaten<br />

führen können. Störungen können also auf verschiedene Art entstehen. Fehlerhafte<br />

Hardware oder Programme können die Ursache sein. Das Aufeinandertreffen von<br />

verschiedenen eigentlich fehlerlosen Programmen oder die Unst<strong>im</strong>migkeit zwischen<br />

Programmen und der Hardware kann ebenfalls Störungen auslösen. Nun kann man diese<br />

Störungen nicht nur als unerwünschte Fehler ansehen, sondern kann ihnen auch<br />

interessante Aspekte abgewinnen. Man kann mit ihnen arbeiten, indem man sie bewusst<br />

hervorruft und sie als künstlerischen Ausgangspunkt einsetzt. Im Prinzip ist es eine gängige<br />

Methode des Künstlers: indem er das gewohnte in Frage stellt und versucht vorhandene<br />

Grenzen zu überschreiten. Mit Störungen löst er Irritationen aus, die den Rezipienten dazu<br />

anregen, über die grundsätzliche Arbeitsweise eines funktionierenden Systems<br />

nachzudenken. Der Reiz liegt also in dem Versuch, die konventionellen Ausgangsmengen zu<br />

erweitern oder zu verändern, aber <strong>im</strong>mer in dem Maße, dass sie weiterhin kommunizierbar<br />

sind. Denn Kommunikation funktioniert nur über Konventionen. Die syntaktischen und<br />

semantischen Eigenschaften des verwendeten Codes müssen vorab zwischen Sender und<br />

Empfänger geklärt sein. Ist dies nicht der Fall, wird jede Äußerung zur privaten Sprache, die<br />

hermetisch und für andere nicht decodierbar ist und damit unverständlich bleibt. Die<br />

Möglichkeit bewusst mit Störungen zu arbeiten, eröffnete den Künstlern schon <strong>im</strong>mer neue<br />

Felder: „Schon in der klassischen Zeit gab es die Frage, ob nun die Harmonie, die Einheit<br />

oder die Gesetzlichkeit oder ob nicht eher die Abweichung oder Entfremdung vom<br />

Normalen, die Innovation, das Eigentliche in der Kunst wäre. Diese scheinbar<br />

widersprüchlichen Kriterien lassen sich mit der Informationspsychologie sehr gut vereinen.<br />

Es stellt sich nämlich heraus, dass weder die hundertprozentige Ordnung ein interessant zu<br />

nennendes Kunstwerk hervorbringt noch das völlige Chaos, sondern das Opt<strong>im</strong>um liegt<br />

irgendwo in der Mitte, was man auch quantifizieren kann. Es ist eine Art Gleichgewicht<br />

zwischen den verschiedenen Ordnungen des Gesetzlichen und der Innovation. Das gilt nicht<br />

nur für <strong>Bilder</strong>, sondern auch für alle anderen Kunstformen.“ 105 Die Schwierigkeit besteht also<br />

darin, die so genannte goldene Mitte zwischen Bekanntem und Unbekanntem, dem Neuem zu<br />

finden. Die enstehenden Veränderungen müssen sich noch erklären lassen.<br />

Wie können Störungen bei <strong>digitale</strong>n Bildmedien aussehen? Um Störungen bei <strong>digitale</strong>n <strong>Bilder</strong>n<br />

zu erzeugen, gibt es verschiedene Ansätze. Eine erste, sehr brachiale Möglichkeit könnte<br />

darin bestehen, die Technik des Systems, also die Hardware teilweise zu zerstören. Durch<br />

leichte Beschädigungen könnten unerwartete ausgefallene Resultate erzielt werden. Man<br />

kennt solche Vorgänge auch als User, wenn zum Beispiel die eingebaute Grafikkarte des<br />

105 Herbert W. Franke, Der Monitor als Fenster in einen unbegrenzten Raum, in: Florian Rötzer (1991), S. 285-286<br />

99


Computers Defekte aufweist. Es ist erstaunlich, welche Auswirkungen dies haben kann. Die<br />

ausgegebenen <strong>Bilder</strong> haben oftmals ästhetischen Wert. Ein anderer Weg wäre die bewusste<br />

Manipulation von Programmen, indem man den Programmcode verändert. Dieser Bereich spielt<br />

letztendlich bei Jugendlichen, die ein Spiel „knacken“, eine große Rolle. Man kann so<br />

vorhandene Funktionen abändern oder neue <strong>im</strong>plementieren.<br />

Störungen entstehen auch, wenn man die Programme in einer Art und Weise verwendet, für<br />

die sie nicht konzipiert sind. Wenn man zum Beispiel in einem Textverarbeitungssystem (z.B.<br />

Word) eine Sounddatei („Wav“ Dateiformat) öffnet. Eine interessante Möglichkeit wäre ein<br />

eigenes Programm zu schreiben, dass beliebige Dateien nach eigenem Verständnis visuell<br />

interpretiert. Der vorliegende Code wird dann auf eine Weise interpretiert, die zu neuen<br />

Erscheinungen führt. Diese Vorgehensweise setzt an einer Eigenschaft an, die wir bereits<br />

kennengelernt haben. Der <strong>digitale</strong> Bildcode verweist in seiner Erscheinung nicht auf das<br />

zukünftige Bild, für das er steht. Der Binärcode enthält keine Analogie und erhält seine<br />

Bedeutung erst <strong>im</strong> Vorgang der Interpretation.<br />

In umgekehrter Richtung gibt es heute schon Programme, die versuchen Störungen <strong>im</strong> Bild zu<br />

korrigieren. Im Bereich der Filmarchivierung und -restaurierung gibt es bereits solche<br />

Verfahren. Filme auf konventionellem Filmmaterial wie Zelluloid sind durch Verschleiß und<br />

Verfall des Trägermaterials oftmals in einem schlechten Zustand. Die Filme werden deshalb<br />

digitalisiert, um sie der Nachwelt zu erhalten. Dabei läuft be<strong>im</strong> Umwandlungsvorgang ein<br />

Programm, dass Fehler <strong>im</strong> Bild erkennt und versucht diese zu korrigieren, indem es die<br />

fehlerhaften Stellen <strong>im</strong> Film an die Umgebung anpasst. Die Erfolgsquote ist relativ hoch und nur<br />

wenige Stellen müssen manuell nachbearbeitet werden.<br />

Man sieht, dass auch das Feld der Störungen durchaus interessante Aspekte bietet.<br />

Störungen können eine Möglichkeit sein, sich über die Funktionsweise eines Systems klar zu<br />

werden, denn durch die Störungen „entlarvt“ sich in einer gewissen Weise das System.<br />

Wenn man eine Verständnis für die Systeme entwickelt hat, besitzt man aber gleichzeitig eine<br />

bessere Ausgangsposition, um sie zu gestalten, und darum geht es uns als bildende Künstler.<br />

Viele der in diesem Kapitel vorgestellten Gestaltungsmöglichkeiten kann man als sehr<br />

spezifisch für die <strong>digitale</strong>n Medien ansehen. Erst durch die Rechenbarkeit des digital<br />

vorliegenden Bildes wurden neue Methoden, wie zum Beispiel An<strong>im</strong>ation und Morphing<br />

möglich. Darüber hinaus sind diese jetzt in Echtzeit und interaktiv möglich.<br />

100


6. Abschliessende Zusammenfassung und Ausblick<br />

Von den etymologischen Betrachtungen zu den Störungen der <strong>digitale</strong>n System haben wir<br />

einen weiten Bogen gespannt und einen weiten Weg in der Geschichte zurückgelegt. Ich<br />

werde deshalb versuchen <strong>im</strong> Folgenden noch einmal die wesentlichen Aspekte dieser Arbeit<br />

zusammenfassen.<br />

Am Anfang der Arbeit stand der Versuch der Klärung der Begriffe „analog“ und „digital“ über<br />

eine sprachliche und geschichtliche Annäherung, die zu einem ersten Eindruck der Begriffe<br />

verholfen hat. Dabei wurde klar, dass das Wort „analog“ eine sehr alte Begriffsgeschichte<br />

besitzt. Es ist von dem ursprünglich griechischen Wort „Analogie“ abgeleitet und hat heute die<br />

Bedeutungen wie „entsprechend“, „ähnlich“ oder auch „gleichartig“. Die Analogie war<br />

zunächst ein Begriff der Philosophie, welchen <strong>im</strong> Wesentlichen die Pythagoreer circa 400 vor<br />

Christus entwickelt haben und der in der klassischen Antike große Bedeutung erlangte. Die<br />

Entdeckung der musikalischen Intervalle und spezieller Zahlenverhältnisse führte zur<br />

mathematischen Erörterung und später zur Vorstellung des richtigen, harmonischen<br />

Verhältnisses der Dinge zueinander. Daraus entwickelte sich der Begriff der Analogie, der in<br />

der pythagoreischen Schule zunächst jede Art von Gleichheit, je nach der Verbindung zweier<br />

Zahlen darstellte. In der klassischen Antike war die Wohlordnung der Dinge ein bevorzugter<br />

Zustand (Akribie bezeichnet die Perfektion und die Ordnung der Dinge) und war nicht wie<br />

heute negativ belegt. Die Analogie hat sich dann zu einem Verfahren weiterentwickelt, dass<br />

zur Herstellung von Beziehungen und Übertragungen zwischen eigentlich nicht<br />

zusammengehörenden Sachverhalten dient. Dies geschieht aufgrund von Ähnlichkeit der<br />

Verhältnisse in der Struktur oder der Funktion von Systemen oder Dingen.<br />

Das Adjektiv „digital“ bezeichnete ursprünglich Phänomene, die in Verbindung mit dem Finger,<br />

lateinisch „digitus“, standen. Dies konnte das Zeigen in der Rhetorik oder das Zählen in der<br />

Mathematik sein. Im medizinischen Kontext fand und findet der Begriff heute noch<br />

Verwendung. Erst in den dreißiger Jahren des 20. Jahrhunderts entwickelte sich die neue<br />

Bedeutungsvariante von „digital“ <strong>im</strong> Sinne von „in Ziffern darstellbar“, „in Stufen, in Schritten“<br />

oder auch „diskret“. Dies geschah <strong>im</strong> Zusammenhang mit den technischen Errungenschaften<br />

<strong>im</strong> Bereich der Rechnertechnik. Mit der Entwicklung des Digitalrechners veränderte sich die<br />

Funktionsweise des Rechners grundlegend. Die Rechner dieses neuen Typs arbeiten als<br />

Universalrechner mit einem endlichen Repertoire an Ziffern oder Zeichen und sind so vielseitig<br />

einsetzbar. Sie sind <strong>im</strong> Unterschied zum Analogrechner programmierbar und können somit für<br />

verschiedene Aufgaben benutzt werden. Dagegen stellte der Analogrechner eine<br />

Entsprechung eines zum Beispiel physikalischen Problems dar und war auf eine best<strong>im</strong>mte<br />

Aufgabe festgelegt. Mit der neuen Bedeutung von „digital“ entwickelte sich auch die<br />

Begriffserweiterung von „analog“ <strong>im</strong> Sinne von „kontinuierlich“ oder auch „stetig“, als<br />

Gegenstück zu „digital“ <strong>im</strong> Sinne von „diskret“.<br />

101


Am Beispiel der Fotografie und des Digital Imaging konnten wir erste spezifische<br />

Eigenschaften der beiden Bildmedien feststellen. Das Digital Imaging wird zu den Tertiären<br />

Medien gerechnet, bei denen sowohl auf der Produktions- als auch auf der Rezeptionsseite<br />

der Einsatz von Technik notwendig ist. Die unmittelbare, direkte Wahrnehmung der <strong>Bilder</strong><br />

konnte als spezifische Eigenschaft der <strong>analoge</strong>n Bildmedien verzeichnet werden. Aufgrund<br />

von Ähnlichkeiten, die sie <strong>im</strong> Bezug auf das, was sie denotierten zeigen, wirken sie<br />

analogisch und sind direkt wahrnehmbar. Demgegenüber sind die <strong>digitale</strong>n <strong>Bilder</strong> codierte, in<br />

Zahlen aufgelöste Wirklichkeit. Ein anderer Aspekt ist die unterschiedliche Authentizität der<br />

beiden Gattungen: während sich bei der <strong>analoge</strong>n Fotografie das Bild selbst „schreibt“ und als<br />

direktes materielles Resultat der einfallenden Lichtstrahlen gesehen werden kann, liegt das<br />

<strong>digitale</strong> Bild codiert vor und muss erst interpretiert werden. Die Möglichkeiten der <strong>digitale</strong>n<br />

Nachbearbeitung sind vielfältiger geworden und der Manipulation sind keine Grenzen gesetzt.<br />

Wir haben gesehen, dass <strong>digitale</strong> <strong>Bilder</strong> direkt erzeugt werden können, zum Beispiel be<strong>im</strong><br />

Digital Imaging, dass sie aber auch durch die Umwandlung von <strong>analoge</strong>n <strong>Bilder</strong>n entstehen<br />

können. Mit Hilfe eines „Scanners“ ist es zum Beispiel möglich analog vorliegende <strong>Bilder</strong> in<br />

<strong>digitale</strong> umzuwandeln, zu digitalisieren. Dabei werden die kontinuierlich vorliegenden Bilddaten<br />

<strong>im</strong> ersten Schritt gerastert, also in eine diskrete Geometrie überführt und dann die Farbwerte<br />

der Bildpunkte quantisiert, also auf endlich viele diskrete Farbwerte reduziert. Das bedeutet<br />

aber zugleich, dass Bilddaten verloren gehen. Das Resultat ist ein <strong>digitale</strong>s Bild, dass als<br />

zweid<strong>im</strong>ensionales Zahlenschema, als so genannte Matrix vorliegt. In dieser Matrix ist jeder<br />

Bildpunkt bezüglich seiner Position und Farbigkeit bekannt und kann jederzeit direkt<br />

angesprochen und verändert werden. Es liegt also ein rechenbares, flexibles, <strong>im</strong>materielles<br />

Bild vor. Soweit könnte man also festhalten, dass <strong>analoge</strong> Bildmedien Ähnlichkeit zu den<br />

Sachverhalten oder Dingen zeigen, auf die sie sich beziehen. Die <strong>digitale</strong>n <strong>Bilder</strong> sind durch<br />

Zahlen codiert und zeigen keine Entsprechung mehr zu dem, für was sie stehen.<br />

Die Bildtheorie zeigte, dass man die Begriffe „analog“ und „digital“ auch auf die strukturelle<br />

Beschaffenheit der <strong>Bilder</strong> beziehen kann. Der analytische Ansatz von Goodman hat gezeigt,<br />

dass syntaktische Dichte ein notwendiges Kriterium für <strong>analoge</strong> Symbolsysteme, also auch<br />

für <strong>analoge</strong> <strong>Bilder</strong> ist, wohingegen <strong>digitale</strong> <strong>Bilder</strong>, die zu <strong>digitale</strong>n Symbolsystemen gehören,<br />

als syntaktisch endlich differenzierbar oder auch diskret angesehen werden müssen. Dabei<br />

können <strong>digitale</strong> <strong>Bilder</strong> in diesem Sinn als Teilmenge der <strong>analoge</strong>n <strong>Bilder</strong> verstanden werden.<br />

Sie stellen sozusagen eine besondere Form des <strong>analoge</strong>n Bildes dar. Ein interessanter Aspekt<br />

war die Nähe der <strong>digitale</strong>n <strong>Bilder</strong> zum Text. Beide funktionieren linear und man weiß, wie man<br />

sie schreiben und lesen muss. Ein wichtiger Punkt war die Erkenntnis, dass nicht nur der<br />

Code das <strong>digitale</strong> Bild ausmacht. Vielmehr ist das <strong>digitale</strong> Bild <strong>im</strong> Prozess der Interpretation zu<br />

verstehen. Denn der Code selbst ist numerisch und als solcher ein Universalcode, der seine<br />

Bedeutung erst durch den Vorgang der Interpretation erhält. Die Substanz des <strong>digitale</strong>n Bildes<br />

ist nicht einfach <strong>im</strong> Bildcode begründet. Das wesentliche Kriterium, dass uns die Bildtheorie an<br />

die Hand gab, waren die unterschiedlichen Syntakta der beiden Gattungen. Die<br />

Unterscheidung der „<strong>analoge</strong>n“ und „<strong>digitale</strong>n“ Bildmedien lässt sich über die Begriffe der<br />

102


Dichte und der Differenziertheit best<strong>im</strong>men. Die Bildtheorie lieferte also eine andere Art der<br />

Charakterisierung der beiden Gattungen.<br />

Man muss also bezüglich der zwei Bedeutungen von „analog“ und „digital“ unterscheiden:<br />

Wenn man von „analog“ <strong>im</strong> Sinne von „ähnlich“ oder auch „entsprechend“ spricht, bezieht man<br />

sich eigentlich auf den Inhalt eines Bildes oder besser auf das, was es denotiert. Man kann<br />

also feststellen, dass bei <strong>analoge</strong>n <strong>Bilder</strong>n Ähnlichkeit zwischen dem, was das Bild zeigt,<br />

was es denotiert vorhanden ist. In diesem Sinne würde dann „digital“ genau das Gegenteil<br />

davon bedeuten, eben dass keine Ähnlichkeit vorhanden ist. Digitale <strong>Bilder</strong> sind digital codiert<br />

und insofern zeigen sie keine Entsprechung mehr zu dem, was sie denotieren. So kann auch<br />

die spezifische Eigenschaft der unmittelbaren Wahrnehmung von <strong>analoge</strong>n Bildmedien<br />

verstanden werden. Der Bildinhalt kann unmittelbar wahrgenommen werden, <strong>im</strong> Sinne dass er<br />

Ähnlichkeiten zum Denotat aufweist und nicht erst interpretiert werden muss. Der <strong>digitale</strong><br />

Bildcode hingegen muss erst aufbereitet werden, da er nicht analogisch wirkt. Er kann für<br />

alles stehen und bezieht sich nicht mehr auf das, für was er eigentlich steht.<br />

Die andere Verwendung von „analog“ und „digital“ bezieht sich auf die syntaktische<br />

Beschaffenheit der Bildmedien. Hierbei werden die Begriffe <strong>im</strong> Sinne von „kontinuierlich“ und<br />

„diskret“ verwendet und beschreiben Eigenschaften, wie die syntaktische Dichte der <strong>Bilder</strong>.<br />

Wir müssen also zum einen die Bedeutung des Bildes von der Beschaffenheit des Bildes<br />

unterscheiden. Dabei kann es durchaus Vermischungen der beiden Zustände geben. Etwas<br />

verwirrend ist zum Beispiel die Tatsache, dass es durchaus <strong>digitale</strong> <strong>Bilder</strong> geben kann, die<br />

analog <strong>im</strong> Sinne von „ähnlich“ sind. Dies könnte zum Beispiel ein Porträt einer Frau sein, dass<br />

als <strong>digitale</strong>s Bild vorliegt. Hierbei handelt es sich also um eine hybride Form, die sowohl analog<br />

als auch digital ist, je nachdem wie man die Begriffe deutet. Mein Vorschlag wäre also eine<br />

Art Doppelbezeichnung einzuführen, bei der man das Begriffspaar „analog“ und „digital“ zum<br />

einen auf die formalen Eigenschaften des Bildes bezieht, also die syntaktische Beschaffenheit<br />

und zum anderen auf die inhaltlichen Eigenschaften, also die Denotation des Bildes. Somit<br />

können beide Beziehungen beschrieben werden. Dies könnte in der Art wie bei einer Musik<br />

CD geschehen, bei der die unterschiedlichen Produktionsstufen mit Kürzeln, wie AAA oder<br />

ADD bezeichnet werden. Bei den <strong>Bilder</strong>n müsste man die zwei verschiedenen Beziehungen<br />

unterscheiden, zum Beispiel würde die Kategorie „AA“ ein syntaktisch dichtes, dem Denotat<br />

ähnliches Bild bezeichnen. Mit der vorgeschlagenen zweifachen Charakterisierung könnte<br />

man die verschiedenen Bildmedien wie in Abbildung 23: Ein Vorschlag für die Einteilung der Bildmedien<br />

einteilen.<br />

103


FORM<br />

INHALT<br />

analog = kontinuierlich<br />

digital = diskret<br />

analog =<br />

ähnlich<br />

Handzeichnung(*),<br />

Malerei<br />

<strong>digitale</strong>s Foto der “Welt”,<br />

gescannte<br />

Handzeichnung (*),<br />

Schrift (Text)<br />

digital =<br />

nicht analog<br />

(ähnlich)<br />

konkrete Kunst (**),<br />

z.B. Handzeichnung,<br />

Malerei<br />

Informationsästhetik,<br />

generative Kunst,<br />

Fraktale<br />

gescannte konkrete<br />

Kunst (**)<br />

Abbildung 23: Ein Vorschlag für die Einteilung der Bildmedien<br />

Vielleicht lassen sich die beiden Begriffsbedeutungen insofern in Einklang bringen, wenn man<br />

sagt, dass eigentlich alle durch unsere Sinne wahrnehmbaren Phänomene in der Welt<br />

<strong>analoge</strong>n Charakter besitzen und die strukturell <strong>analoge</strong>n <strong>Bilder</strong>, die aber nichts aus der Welt<br />

denotieren müssen (zum Beispiel nulldenotierende <strong>Bilder</strong>), in diesem Sinne ähnlich zur Welt<br />

sind. Dies wäre als Ähnlichkeit <strong>im</strong> Hinblick auf die Struktur von Welt und Bild. Es würde sich<br />

dann, um eine strukturelle Analogie handeln. Im Gegensatz dazu stehen die <strong>digitale</strong>n <strong>Bilder</strong>, die<br />

man einbinden kann, wenn man sie als Teilmenge der <strong>analoge</strong>n <strong>Bilder</strong> auffassen will.<br />

Die digital codierten, also rechenbaren <strong>Bilder</strong> brachten in der Gestaltung neue Möglichkeiten.<br />

Es konnten neue Formen der Kunst entstehen. Dabei kann man be<strong>im</strong> Gestaltungsprozess<br />

selbst verschiedene Grade der Selbstständigkeiten <strong>im</strong> Verhältnis zwischen Künstler und<br />

Maschine verzeichnen. Denn durch den Einsatz des Computers übergibt der Künstler<br />

Verantwortung an die Maschine. Aus der Rechenbarkeit der <strong>digitale</strong>n <strong>Bilder</strong> resultieren<br />

spezifische Gestaltungsmöglichkeiten wie Bildtransformationen, nachträgliche Bildbearbeitung,<br />

die Speicherung verschiedener Zustände und der Datenkompr<strong>im</strong>ierung. Durch die<br />

schnelle Umrechnung und damit Überführung von einem Bildzustand in den nächsten war der<br />

Weg zum bewegten Bild frei. Nachdem die Tür für die An<strong>im</strong>ation geöffnet worden war, die ja<br />

<strong>im</strong> Film bereits bekannt war, entwickelten sich darüber hinaus neue Formen des bewegten<br />

Bildes. Das Morphing als flüssiger Übergang eines Objektes in ein anderes war eine<br />

Innovation, die neue Sehgewohnheiten verursachte. Aber auch die Computeran<strong>im</strong>ation<br />

ermöglichte neue Formen weit über die bekannte An<strong>im</strong>ation <strong>im</strong> Film hinaus. Es konnten neue<br />

Welten erschaffen werden, wobei es möglich wurde, historisches und neues Filmmaterial zu<br />

104


mischen. Desweiteren ist es möglich, generative <strong>Bilder</strong> herzustellen, deren Erzeugung früher<br />

zu aufwendig und arbeitsintensiv gewesen wäre. Die Visualisierung von Fraktalen wurde<br />

erst mit dem Einsatz der Digitalrechner möglich, weil der Rechenaufwand für Menschen<br />

einfach unmöglich zu bewältigen war. Daraus konnte eine Erweiterung des visuellen<br />

Formenschatzes entstehen.<br />

Eine andere Möglichkeit ist die Interaktivität der Arbeiten. Diese können nun interaktiv ihr<br />

Aussehen verändern, sind also keine vorgefertigten endgültigen Zustände, sondern erhalten<br />

ihre Form und Aussehen erst <strong>im</strong> Prozess durch die aktive Teilnahme des Rezipienten. Der<br />

Betrachter wird zum Benutzer und er ist auch, der das Kunstwerk nach seinen Vorstellungen<br />

zur Vollendung bringt, indem er das System, dass ihm zur Verfügung gestellt wird<br />

durchforscht, die Grenzen auslotet und <strong>im</strong> Rahmen dieser Grenzen Veränderungen vorn<strong>im</strong>mt.<br />

Die Grenzen sind bei zweid<strong>im</strong>ensionalen Arbeiten aber nicht erreicht. Denn der <strong>digitale</strong> Code<br />

kann auch für dreid<strong>im</strong>ensionale Objekte stehen. Technisch ist es möglich auch mit<br />

Fräßmaschinen oder Plastikgussmaschinen dreid<strong>im</strong>ensionale Arbeiten herzustellen. 106<br />

Auch die Raumerfahrung ist mittlerweile in ganz neuen D<strong>im</strong>ensionen möglich. Der Benutzer<br />

kann vollständig in die erzeugten Welten eintauchen. Die Schnittstellen sind komfortabler und<br />

einfacher geworden. Längst ist der Cyberspace Wirklichkeit geworden, der 1984 von William<br />

Gibson in seinem Buch „Newromancer“ vorweg genommen wurde.<br />

Es gibt so genannte <strong>im</strong>mersionsfähige Systeme, die den Rezipienten vollständig umgeben und<br />

damit auch sein Sichtfeld vollständig ausfüllen. Der Benutzer wird vom Medium umgeben und<br />

die Grenze zwischen ihm und der virtuellen Welt ist aufgehoben.<br />

Damit fühlt er sich vollständig in die s<strong>im</strong>ulierte Welt versetzt. Ein solches System ist der HyPi6,<br />

der als Cave am Fraunhofer Institut in Stuttgart zu begehen ist. 107 Der Benutzer befindet sich<br />

in einem Kubus aus stabilen Glasplatten, die über Projektoren aus allen Richtungen bespielt<br />

werden. So entsteht ein vollständig s<strong>im</strong>ulierter Raum, in dem sich der Benutzer bewegen<br />

kann, indem er über ein Steuergerät mit dem System kommuniziert. Am Ende der Entwicklung<br />

könnte irgendwann die perfekte S<strong>im</strong>ulation von Realität stehen, bei der auch die anderen, die<br />

nichtvisuellen Kanäle vorhanden sind. Der Benutzer könnte dann auch über die taktilen,<br />

gustorischen und olfaktorischen Sinne die S<strong>im</strong>ulation erfahren.<br />

Eine andere Art der visuellen S<strong>im</strong>ulation findet in der so genannten „Augmented Reality“<br />

Anwendung statt. Hier wird dem Rezipienten über eine Datenbrille eine Überlagerung der<br />

realen Welt mit zusätzlichen <strong>digitale</strong>n S<strong>im</strong>ulationen geboten. Es handelt sich also um eine<br />

Vermischung von realen und künstlichen <strong>Bilder</strong>n, wobei die s<strong>im</strong>ulierten <strong>Bilder</strong> mit den realen<br />

korrespondieren. Diese Systeme finden meines Wissen zur Zeit noch keine Verwendung <strong>im</strong><br />

Kunstsektor. Ein Beispiel aus der Technik könnte derart aussehen, dass man durch eine<br />

Datenbrille ein reales Kraftfahrzeug betrachten kann und während man dieses anschaut,<br />

werden zusätzliche Informationen, zum Beispiel über den inneren Aufbau des Fahrzeuges,<br />

106 Karin Sander hat zum Beispiel in einer Arbeit biometrische Daten von Menschen mit einem Ganzkörperscanning eingelesen und<br />

anschließend kleine, <strong>im</strong> Maßstab reduzierte Figuren anfertigen lassen.<br />

107 Diesen konnte ich selbst be<strong>im</strong> Besuch des Fraunhofer Instituts in Stuttgart erleben und ausprobieren, <strong>im</strong> Rahmen des<br />

Forschungsprojektes „<strong>Visuelle</strong> <strong>Kompetenz</strong> <strong>im</strong> <strong>Medienzeitalter</strong>“ an der Akademie der Bildenden Künste Stuttgart<br />

105


über einen schwachen Laser direkt auf die Netzhaut geschickt. Dort überlagern sich beide<br />

Informationsstränge und verbinden sich zu einem Gesamtbild. Der <strong>im</strong>mense Rechenaufwand,<br />

um das s<strong>im</strong>ulierte Bild <strong>im</strong>mer mit den Augenbewegungen zu synchronisieren, führt momentan<br />

noch zu erheblichen Latenzzeiten, also zu Verzögerungen.<br />

Eine andere Entwicklung, die uns in absehbarer Zeit erreichen wird, ist das „e-paper“, eine<br />

Art elektronisches Papier. 108 Das elektronische Papier besteht aus Myriaden von kleinen<br />

Kügelchen, die zwischen zwei durchsichtigen Plastikfilmen eingeschweißt sind. In jedem<br />

Kügelchen befinden sich elektrisch geladene weiße und schwarze Farbpigmente. Je nach<br />

Spannung drehen sich die Kügelchen <strong>im</strong> Plastikfilm und die Pigmente an der Oberfläche<br />

werden sichtbar. Es erinnert ein wenig an die bei Kindern beliebten Zaubertafeln, die man mit<br />

einem Stift beschreiben und danach wieder löschen kann. Wenn es der Preis zulässt,<br />

werden Künstler sich auch auf dieses neue Medium einlassen, wer weiß, wie es das<br />

geschöpfte Papier aus Fasern verändern wird.<br />

Die Gestaltungsmöglichkeiten für Künstler werden sich also in Zukunft extrem erweitern.<br />

Gleichzeitig besteht die Möglichkeit zur Verfälschung und zur Manipulation. Die<br />

Unterscheidung von Wirklichkeit und S<strong>im</strong>ulation wird <strong>im</strong>mer schwieriger, was „Cave“- oder<br />

auch „Augmented Reality“-Systeme zeigen.<br />

Die perfekte S<strong>im</strong>ulation und damit auch Fälschung ist möglich geworden, auch weil die<br />

<strong>digitale</strong>n <strong>Bilder</strong> identisch reproduziert werden können. Darüber hinaus kann man eigentlich gar<br />

nicht mehr von Fälschung sprechen, weil sich diese <strong>Bilder</strong> nicht mehr auf die Welt oder ein<br />

anderes Bild beziehen, sondern einfach sich selbst sind. Ein große Veränderung birgt das<br />

neue Verhältnis zwischen Original und Kopie. Dieses ist mittlerweile nicht mehr<br />

unterscheidbar und man muss in diesem Zusammenhang besser von Original und Replikat<br />

sprechen. Man kann weder durch die Eigenschaften der Bildmedien noch durch Numerierung<br />

feststellen, welches das Original ist. Die <strong>Bilder</strong> unterscheiden sich in keiner Hinsicht, sind<br />

absolut identisch.<br />

Wenn man sieht wie rasant sich die neuen Medien weiterentwickeln, könnte man an diesem<br />

Punkt die Frage stellen: sind die traditionellen Techniken vielleicht anachronistisch?<br />

Meiner Auffassung nach sind die auf Computer basierenden Systeme, bei allen Möglichkeiten,<br />

welche die neuen Systeme zur Verfügung stellen, <strong>im</strong>mer als eine Ergänzung zum bekannten<br />

Instrumentarium und nicht als eine Alternative zu sehen. Denn jedes Medium hat seine<br />

spezifischen Eigenschaften und genau diese fehlen den <strong>digitale</strong>n auch, wenn es zum Beispiel<br />

um die Wirkung der Materialität geht. Bei den traditionellen Bildmedien handelt sich um<br />

verankerte Methoden, die auch unserem Verhaltensmuster angemessen erscheinen. So wird<br />

zum Beispiel ein Kind damit anfangen, wenn es gestalterisch aktiv wird, mit einem Stift auf ein<br />

Papier zu zeichnen. Das ist seiner Motorik und seinem Abstraktionsgrad angemessen. Es ist<br />

also unwahrscheinlich, dass die klassischen Methode, verschwinden werden. Außerdem<br />

108 vgl. Christiane Karweil, Noch schöner als <strong>im</strong> <strong>Bilder</strong>buch, in: Die Zeit 7.02.2002, S.20<br />

106


esitzen sie gegenüber den <strong>digitale</strong>n Bildmedien einige Vorteile: zum Beispiel ist mit ihnen ein<br />

direkterer Umgang mit dem Material möglich, was vielleicht auch zu einem besseren<br />

Verständnis für die Vorgänge, die dabei eine Rolle spielen, führt. Eine Erweiterung der<br />

Gestaltungsmöglichkeiten durch <strong>digitale</strong> Medien ist aber sinnvoll, denn sie schafft neue<br />

Ausdrucksmöglichkeiten. Der Einsatz von Werkzeugen ist legit<strong>im</strong>, denn auch ein Pinsel ist ein<br />

Werkzeug und das Beispiel der Musik zeigt, dass wir ohne Musikinstrumente, als technische<br />

Instrumente, nur die Möglichkeit unseres Körpers einsetzen könnten, also den vokalen<br />

Gesang. Gerade das Beispiel der Musik beweist, dass der Einsatz technischer Geräte zu<br />

einer gehörigen Erweiterung der Ausdrucksskala führen kann. Vielleicht könnte man auch<br />

sagen, dass gerade neuere Medien, die aus wissenschaftlichen und kulturellen<br />

Errungenschaften jüngerer und jüngster Zeit hervorgegangen sind, unserem Weltbild, unseren<br />

Vorstellungen und unserer Art zu denken viel näher sind, als alte Medien.<br />

Ich möchte die <strong>digitale</strong>n Bildmedien mit ihren spezifischen Eigenschaften als eine Erweiterung<br />

der künstlerischen Möglichkeiten verstehen. Meiner Meinung nach werden sie die traditionellen<br />

Techniken nicht verdrängen. Selbst wenn dies in weiter Zukunft der Fall sein sollte, könnte<br />

man sagen, dass die traditionellen Techniken <strong>im</strong> Hegelschen Sinn in diesen aufgehoben sind.<br />

Die Erfahrungen und Erkenntnisse aus der Vergangenheit gehen <strong>im</strong>mer in die<br />

Weiterentwicklungen mit ein. Die Entwicklungen werden, wie in der Wissenschaft auch, auf<br />

jeden Fall <strong>im</strong>mer weiter gehen, was vielleicht in einer der Triebfedern des Menschen<br />

begründet liegt, der Neugier.<br />

107


Hiermit erkläre ich, dass ich die Arbeit selbständig und nur mit den hier angegebenen Quellen<br />

verfasst habe.<br />

Ludwigsburg, den 12.März 2002<br />

_________________________<br />

108


7. Literaturliste<br />

Nachschlagewerke<br />

Der große Brockhaus, A - Z, Band 4, Brockhaus Verlag, Leipzig 1929<br />

Josette Rey-Debove und Gilberte Gagnon (Hrsg.), Dictionnaire des Anglicismes, Verlag Le<br />

Robert, Paris 1988<br />

Duden - Das Herkunftswörterbuch der deutschen Sprache, hg. von der Dudenredaktion, Band<br />

7, 2. völlig neu bearbeitete und erweiterte Auflage, Dudenverlag , Mannhe<strong>im</strong> 1989<br />

Duden - Das Fremdwörterbuch, hg. von der Dudenredaktion, Band 5, 5. neu bearbeitete und<br />

erweiterte Auflage, Dudenverlag, Mannhe<strong>im</strong> 1990<br />

Joach<strong>im</strong> Ritter (Hrsg.), Historisches Wörterbuch der Philosophie, Schwabe & Co. Verlag,<br />

Basel/Stuttgart 1971<br />

Hans Jörg Sandkühler (Hrsg.), Enzyklopädie Philosophie, Felix Meiner Verlag, Hamburg 1999<br />

Gert Ueding (Hrsg.), Historisches Wörterbuch der Rhetorik, Niemeyer Verlag, Tübingen 1992<br />

Johann Heinrich Zedler (Hrsg.), Grosses vollständiges Universal Lexikon, Band 7, Akad.<br />

Druck- und Verlagsanstalt, Graz 1961 (Erstveröffentlichung 1734)<br />

Bücher<br />

Otl Aicher, analog und digital, Ernst & Sohn, Lüdenscheid 1991<br />

Gernot Böhme, Theorie des Bildes, Wilhelm Fink Verlag, München 1999<br />

Bernd Busch, Belichtete Welt - Eine Wahrnehmungsgeschichte der Fotografie, Fischer Verlag,<br />

Frankfurt am Main 1995<br />

Thomas Crow, Die Kunst der sechziger Jahre: von der Pop-art zu Yves Klein und Joseph<br />

Beuys, DuMont Verlag, Köln 1997<br />

T<strong>im</strong> Daly, Handbuch <strong>digitale</strong> Photographie, Benedikt Taschen Verlag, Köln 2000<br />

109


Christian Doelker, Ein Bild ist mehr als ein Bild: visuelle <strong>Kompetenz</strong> in der Mult<strong>im</strong>edia-<br />

Gesellschaft, Klett-Cotta, Stuttgart 1997<br />

Umberto Eco, Einführung in die Semiotik, Wilhelm Fink Verlag, München 1972<br />

Umberto Eco, Kunst und Schönheit <strong>im</strong> Mittelalter, Deutscher Taschenbuch Verlag, München<br />

1993<br />

Umberto Eco, Zeichen. Einführung in einen Begriff und seine Geschichte, Suhrkamp Verlag,<br />

Frankfurt am Main 1977<br />

Werner Faulstich (Hrsg.), Grundwissen Medien, 4. Auflage, Wilhelm Fink Verlag, München<br />

2000<br />

Vilém Flusser, Für eine Philosophie der Fotografie, 9. Auflage, European Photography,<br />

Göttingen 2000<br />

Nelson Goodman, Sprachen der Kunst - Entwurf einer Symboltheorie, 2. Auflage, Suhrkamp,<br />

Frankfurt am Main 1998<br />

Peter Hoeg, Fräulein Smillas Gespür für Schnee, Rowohlt Taschenbuch Verlag, Reinbek bei<br />

Hamburg 1997<br />

Ludwig J. Issing, Paul Kl<strong>im</strong>sa (Hrsg.), Information und Lernen mit Mult<strong>im</strong>edia, Psychlogie<br />

Verlags Union, Weinhe<strong>im</strong> 1995<br />

Gottfried Jäger, Andreas Dress (Hrsg.), Visualisierung in Mathematik, Technik und Kunst,<br />

Vieweg, Braunschweig, Wiesbaden 1999<br />

Peter Jenny, Bildkonzepte, Verlag Hermann Schmidt, Mainz 2000<br />

Konrad Königsberger, Analysis I, Springer Verlag, Berlin 2001<br />

Florian Rötzer, Digitaler Schein - Ästhetik der elektronischen Medien, Suhrkamp Verlag,<br />

Frankfurt am Main 1991<br />

Thomas Ruff: Fotografien 1979 - heute, hg. von Matthias Winzen, Ausstellungskatalog:<br />

Baden-Baden 2001/02, Verlag der Buchhandlung Walther König, Köln 2001<br />

Klaus Sachs-Hombach, Klaus Rehkämper (Hrsg.), Bildgrammatik, Scriptum Verlag, Magdeburg<br />

1999<br />

110


Klaus Sachs-Hombach, Klaus Rehkämper (Hrsg.), Bild - Bildwahrnehmung - Bildverarbeitung,<br />

Deutscher Universitätsverlag, Wiesbaden 1998<br />

Willi Oelmüller (Hrsg.), Kolloquium Kunst und Philosophie 1: Ästhetische Erfahrung, Schöningh<br />

Verlag, Paderborn 1981<br />

Eckart Zundel, Clavis Quintilianea, Wissenschaftliche Buchgesellschaft, Darmstadt 1989<br />

Zeitungen<br />

Christiane Karweil, Noch schöner als <strong>im</strong> <strong>Bilder</strong>buch, in: Die Zeit 7.02.2002, S. 20<br />

Christian Wittwer, Das <strong>digitale</strong> Bild ist keine Fotografie, in: Neue Zürcher Zeitung 8.11.1996, S.<br />

37<br />

Internet<br />

Vortrag: Andreas Brennecke, Physikalische Analogien und Ziffernrechenmaschinen – Von<br />

mechanischen Rechengeräten zu Integrieranlagen und programmgesteuerten Maschinen.<br />

Quelle: http://iug.uni-paderborn.de/iug/veroffentlichungen/2000/anbr_greifswald/text.html<br />

(11.3.2002)<br />

111

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!