analoge & digitale Bilder - Visuelle Kompetenz im Medienzeitalter
analoge & digitale Bilder - Visuelle Kompetenz im Medienzeitalter
analoge & digitale Bilder - Visuelle Kompetenz im Medienzeitalter
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
<strong>analoge</strong> & <strong>digitale</strong> <strong>Bilder</strong><br />
Theoretische Staatsexamensarbeit<br />
<strong>im</strong> Fach Kunsterziehung<br />
an der<br />
Staatlichen Akademie der Bildenden Künste<br />
Stuttgart<br />
vorgelegt bei: Prof. Dr. Hans Dieter Huber<br />
Prof. Cordula Güdemann<br />
von Michael Rottmann<br />
aus Stuttgart<br />
abgegeben am 12.03.2002
1. VORBEMERKUNG...................................................................................................................4<br />
2. EINE ETYMOLOGISCHE UND GESCHICHTLICHE ANNÄHERUNG.........................................7<br />
2.1 ANALOG...............................................................................................................................7<br />
2.1.1 Zum Begriff..................................................................................................................7<br />
2.1.2 Begriffsgeschichte „analog“.......................................................................................9<br />
2.1.6 Zusammenfassung...................................................................................................14<br />
2.2 DIGITAL .............................................................................................................................15<br />
2.2.1 Zum Begriff................................................................................................................15<br />
2.2.2 Begriffsgeschichte „digital“......................................................................................15<br />
2.2.3 Zusammenfassung...................................................................................................18<br />
2.3 EINE KURZE GESCHICHTE DER RECHNERTECHNIK................................................................19<br />
2.3.1 Geschichte der <strong>analoge</strong>n Rechner..........................................................................19<br />
2.3.2 Der Übergang zum <strong>digitale</strong>n Rechner......................................................................20<br />
2.4 DAS BINÄR- UND DEZIMALSYSTEM......................................................................................21<br />
2.5 KONSEQUENZEN ................................................................................................................23<br />
3. ANALOGE UND DIGITALE BILDMEDIEN..............................................................................25<br />
3.1 GRUNDSÄTZLICHES ............................................................................................................25<br />
3.2 ANALOGE UND DIGITALE DARSTELLUNGEN..........................................................................26<br />
3.2.1 Einführung.................................................................................................................26<br />
3.3 FUNKTIONSWEISE ANALOGER / DIGITALER MEDIEN AM BEISPIEL DER FOTOGRAFIE..............27<br />
3.3.1 Analoge Fotografie....................................................................................................27<br />
3.3.2 Digitale Fotografie....................................................................................................28<br />
3.4 WAS UNTERSCHEIDET ANALOGE UND DIGITALE FOTOGRAFIE...............................................30<br />
3.4.1 Kameramodelle.........................................................................................................31<br />
3.4.2 Die Bezeichnung Digital Imaging.............................................................................32<br />
3.4.3 Technische Differenzen der Verfahren....................................................................32<br />
3.4.3.1 Informationsmodifikation......................................................................................32<br />
3.4.3.2 Zeitlichkeit............................................................................................................34<br />
3.4.4 Unmittelbare Wahrnehmung als Differenz...............................................................35<br />
3.4.5 Medientheoretische Unterscheidung........................................................................36<br />
3.4.6 Die veränderte Authentizität.....................................................................................37<br />
3.4.7 Abbildungen, Mengen und andere mathematischen Begriffe..................................41<br />
3.4.7.1 Der Mengenbegriff..............................................................................................41<br />
3.4.7.2 Der Abbildungsbegriff.........................................................................................42<br />
3.4.7.3 Abbildungstypen.................................................................................................42<br />
3.4.7.4 Der Isomorphismus..............................................................................................43<br />
3.5 DIGITALISIERUNG / ANALOGISIERUNG ................................................................................44<br />
3.5.1 Einführung.................................................................................................................44<br />
3.5.2 Umwandlung von <strong>Bilder</strong>n...........................................................................................45<br />
2
3.5.3 Umwandlung abstrakt betrachtet - Theorie..............................................................47<br />
3.7 SPEZIFISCHE EIGENSCHAFTEN............................................................................................50<br />
3.7.1 Analoge Bildmedien..................................................................................................50<br />
3.7.1 Digitale Bildmedien...................................................................................................52<br />
3.8 ZUSAMMENFASSUNG..........................................................................................................53<br />
4. BILDTHEORIE........................................................................................................................55<br />
4.1 EINFÜHRUNG......................................................................................................................55<br />
4.2 WAS IST EIN BILD? „BILDHAFTIGKEIT“ IN DER SYMBOLTHEORIE VON GOODMAN ..................58<br />
4.2.1 Einführung.................................................................................................................58<br />
4.2.2 Denotation oder das Problem der Ähnlichkeit.........................................................59<br />
4.2.3 Exemplifikation.........................................................................................................61<br />
4.2.4 Differenz zwischen <strong>Bilder</strong>n und anderen Symbolen................................................61<br />
4.2.5 Diskret, dicht, stetig und andere Begriffe.................................................................64<br />
4.2.5 Bildhaftigkeit nach Goodman...................................................................................69<br />
4.2.6 „Analoge“ und „<strong>digitale</strong>“ Symbolsysteme nach Goodman......................................71<br />
4.3 WAS IST EIN DIGITALES BILD?...........................................................................................72<br />
4.3.2 Das <strong>digitale</strong> Bild........................................................................................................73<br />
4.3.3 Ein struktureller Widerspruch und ein Lösungsvorschlag......................................74<br />
4.3.4 Syntaktische Veränderung und eine seltsame Verwandtschaft...............................76<br />
4.4 DIGITALE BILDER OHNE APPARATE?..................................................................................78<br />
4.5 SUBSTANZ DES DIGITALEN BILDES......................................................................................79<br />
4.5.1 Einführung.................................................................................................................79<br />
4.5.2 Begriff des Codes.....................................................................................................80<br />
4.5.3 Interpretation und Prozess.......................................................................................82<br />
5. VERÄNDERTE PRODUKTIONSBEDINGUNGEN.....................................................................85<br />
5.1 GESTALTUNGSMÖGLICHKEITEN...........................................................................................85<br />
5.2 GESTALTUNG ALS ÄSTHETISCHES EXPERIMENT...................................................................89<br />
5.3 DAS PROBLEM DER VERLORENEN SPUREN..........................................................................90<br />
5.4 DIE VERÄNDERTE ZEITLICHKEIT IM BILD .............................................................................91<br />
5.5 NEUE WERKZEUGE FÜR DIE GESTALTUNG...........................................................................91<br />
5.6 VOM STATISCHEN ZUM BEWEGTEN BILD..............................................................................93<br />
5.6.1 An<strong>im</strong>ation und Morphing...........................................................................................93<br />
5.6.2 Generative <strong>Bilder</strong>......................................................................................................95<br />
5.6.3 Interaktive <strong>Bilder</strong>.......................................................................................................96<br />
5.7 ORIGINAL UND KOPIE.........................................................................................................98<br />
5.8. STÖRUNGEN .....................................................................................................................98<br />
6. ABSCHLIESSENDE ZUSAMMENFASSUNG UND AUSBLICK............................................101<br />
7. LITERATURLISTE...............................................................................................................109<br />
3
1. Vorbemerkung<br />
Wenn man als bildender Künstler arbeitet, benutzt man Medien, mit denen man kommuniziert.<br />
Es gibt mittlerweile <strong>digitale</strong> Medien, wie die Digitalfotografie, die als so genannte<br />
Weiterentwicklungen der <strong>analoge</strong>n Medien verfügbar sind. Die <strong>digitale</strong>n Gestaltungs- und<br />
Reproduktionstechniken gewinnen zunehmend an Bedeutung und auch die freien Künste<br />
lassen sich <strong>im</strong>mer stärker auf die neuen Medien mit ihren eigenen Gestaltungsmöglichkeiten<br />
und ihrer eigenen Ästhetik ein. Aber es scheint <strong>im</strong>mer noch relativ unklar, was eigentlich die<br />
spezifischen Eigenschaften <strong>analoge</strong>r beziehungsweise <strong>digitale</strong>r Medien sind, nach welchen<br />
Kriterien die verschiedenen Medien klassifiziert werden können.<br />
Digitale Medien werden in der Praxis eigentlich <strong>im</strong>mer mit technischen Apparaten erzeugt. Am<br />
Beispiel der Analog- und Digitalfotografie soll exemplarisch die Funktionsweise der beiden<br />
Verfahren gezeigt werden. Es stellt sich dann natürlich die grundsätzliche Frage, wie<br />
überhaupt Apparate funktionieren, die <strong>digitale</strong> <strong>Bilder</strong> erzeugen, wie also die Digitalisierung<br />
vonstatten geht. Man könnte sich Gedanken machen, ob es überhaupt grundsätzlich eines<br />
Apparates bedarf um <strong>digitale</strong> <strong>Bilder</strong> zu erzeugen. Denn in den Apparaten finden Abläufe statt,<br />
die von Menschen erdacht und konstruiert wurden und somit den Apparat in seiner<br />
Funktionsweise erst ausmachen. Diese Abläufe könnten vielleicht auch manuell ausgeführt<br />
werden. Es wäre also denkbar, dass man <strong>digitale</strong> <strong>Bilder</strong> auch ohne den Einsatz von<br />
technischen Apparaten, sozusagen einfach mit der Hand herstellen könnte.<br />
Dies führt zu einem Verständnis der grundsätzlichen Funktionsweise von <strong>analoge</strong>n und<br />
<strong>digitale</strong>n Medien, wozu auch das abstrakte Verständnis der Vorgänge bei Digitalisierungsund<br />
Analogisierungsprozessen gehört. In Gegenüberstellung der beiden Verfahren kann man<br />
die charakteristischen Eigenschaften der beiden Mediengattungen herausarbeiten und damit<br />
<strong>im</strong>plizit gleichzeitig die jeweiligen Nicht-Eigenschaften. Ein Vergleich dieser spezifischen<br />
Eigenschaften wird zeigen, ob es sich tatsächlich um disjunkte 1 Mengen von Eigenschaften<br />
handelt, so dass wir also von unterschiedlichen Bezeichnungen ausgehen können. Dann<br />
wäre die gebräuchliche Unterscheidung der Begriffe „analog“ und „digital“ sinnvoll. Noch<br />
einmal anders gesagt: Wenn man feststellen würde, dass es Mischformen von Medien gibt,<br />
die sowohl als analog, wie auch als digital zu bezeichnen sind, dann müsste man sich<br />
Gedanken über den Sinn der Bedeutung der Begriffe machen. Die gemeinsamen<br />
Eigenschaften von analog und digital müssten herausgenommen werden und die<br />
verbleibenden jeweiligen spezifischen in neuen Begriffen formuliert werden.<br />
Im Rahmen der Untersuchung der Eigenschaften, wird es von Interesse sein, wie sich die<br />
spezifischen Eigenschaften auf die äußere Erscheinungsform auswirken. Wie wirken die<br />
verschieden hergestellten <strong>Bilder</strong> auf uns? Sind rein visuelle Unterschiede erkennbar?<br />
Es stellt sich weiterhin die Frage, was analog und digital <strong>im</strong> Kontext künstlerischer Arbeit<br />
bedeutet. Wie haben sich die künstlerischen Gestaltungsmöglichkeiten erweitert oder haben<br />
1 Zum Begriff „disjunkt“ vgl. Kapitel 3.4.7.1<br />
4
sie sich zu einem Besseren verändert? Denn man kann davon ausgehen, dass <strong>analoge</strong> wie<br />
auch <strong>digitale</strong> Gestaltungstechniken ihre spezifische Besonderheiten haben. Dass sich diese<br />
verändert haben, zeigen die neuen Sehgewohnheiten in den Medien. Auch die Frage der<br />
Echtheit der <strong>Bilder</strong> steht sofort <strong>im</strong> Raum. Denn in den modernen Printmedien werden die <strong>Bilder</strong><br />
auf jeden Fall digitalisiert, egal welchen Ursprungs sie sind. 2 Grund genug, um sich mit den<br />
Medien und ihren gestalterischen Möglichkeiten zu beschäftigen.<br />
Wie bereits erwähnt sollen vor allem die Medien, die man als bildender Künstler verwendet, <strong>im</strong><br />
Vordergrund stehen, eben die Bildmedien. In diesem Zusammenhang soll also auch eine<br />
Beschreibung verschiedener Medien und ihrer neuen Gestaltungsmöglichkeiten folgen. Was<br />
passiert, wenn man die Medien ineinander überführt, also Medienbrüche vollzieht? Welche<br />
Eigenschaften gehen verloren, welche verändern sich be<strong>im</strong> Analogisieren oder Digitalisieren<br />
von Medien?<br />
Bedingt durch die längere Geschichte der so genannten <strong>analoge</strong>n Medien wurden über diese<br />
viel mehr Abhandlungen verfasst. Deshalb wird es sinnvoll sein, <strong>im</strong> Folgenden vertieft die<br />
<strong>digitale</strong>n Medien beziehungsweise die <strong>digitale</strong>n <strong>Bilder</strong> „ins Auge zu fassen“. Auch die neuen<br />
Gestaltungsmöglichkeiten werden untersucht. Wenn man Grafikprogramme anwendet, um<br />
<strong>digitale</strong> <strong>Bilder</strong> zu bearbeiten, hat man eine best<strong>im</strong>mte Auswahl an möglichen Operationen, die<br />
man auf das <strong>digitale</strong> Bild anwenden kann. Das heißt, man bewegt sich in einem vorgegebenen<br />
System, in dem es abgesteckte Grenzen gibt. Was ist also überhaupt möglich in der <strong>digitale</strong>n<br />
Bildbearbeitung, was nicht. Auf den ersten Blick scheint es so, wie wenn viele der<br />
Werkzeuge, die die Grafikprogramme zur Verfügung stellen, eine Umsetzung, eine Art<br />
S<strong>im</strong>ulation der traditionell hergebrachten Werkzeuge sind. So gibt es eigentlich in jedem<br />
Programm einen Radierer, der die Wirkung eines tatsächlichen Radiergummis nachahmt. Es<br />
gibt also nachahmende Werkzeuge und eine Gruppe neuer Werkzeuge. Welche Werkzeuge<br />
kommen aber hinzu? Denn auch hier ergibt sich vielleicht ein Hinweis auf die spezifischen<br />
Eigenschaften <strong>digitale</strong>r Medien.<br />
Ein weiteres Feld wären die Störungen. Sie geben zusätzlich Aufschluss über die<br />
Funktionsweise und Grenzen eines Mediums. Was sind aber Störungen bei <strong>digitale</strong>n <strong>Bilder</strong>n,<br />
wie sehen sie aus? Dies kann natürlich nur eine abstrakte Untersuchung sein.<br />
Von großem Interesse ist die Frage, was die eigentliche Substanz des <strong>digitale</strong>n Bildes ist?<br />
Das <strong>digitale</strong> Bild muss sich ja <strong>im</strong>mer in irgendeiner Art und Weise manifestieren, wobei die<br />
verschiedenen Manifestationen durchaus sehr voneinander abweichen können. Wie hängen<br />
alle Manifestationen zusammen, was verbindet sie? Kann man in diesem Zusammenhang<br />
vielleicht vom „Code“ sprechen, der hinter allen Manifestationen steht?<br />
Dabei wird eine tiefgründige Untersuchung des Bildes unumgänglich sein. Denn wenn man<br />
nach der eigentlichen Substanz des <strong>digitale</strong>n Bildes fragt, muss man zunächst einmal klären,<br />
was man unter einem Bild versteht. Dabei soll es <strong>im</strong>mer um <strong>Bilder</strong> gehen, die in der praktischen<br />
2 Vgl. Peter Jenny, Bildkonzepte, Verlag Hermann Schmidt, Mainz 2000, S.205<br />
5
künstlerischen Arbeit entstehen. Mit „Bild“ seien also hier darstellende, visuelle <strong>Bilder</strong> gemeint.<br />
Klangbilder und Metaphern sind demnach, als <strong>Bilder</strong> in einem viel weiteren Sinn, nicht gemeint.<br />
Die Frage, was man unter Bildhaftigkeit versteht, führt auf eine Rekapitulation der<br />
Betrachtungen von Nelson Goodman. Hier schließt sich der Kreis, weil Goodman sich bereits<br />
1968 Gedanken über die Begriffe „analog“ und „digital“ machte, <strong>im</strong> Zusammenhang mit dem<br />
Versuch, eine allgemein gültige Symboltheorie zu entwerfen. Nelson Goodman beklagt in<br />
seinem Buch „Sprachen der Kunst - Entwurf einer Symboltheorie“ bereits 1968 die<br />
Unvereinbarkeit der beiden Begriffe und das Problem diese zu definieren: „Aber es fällt<br />
leichter, den Unterschied zwischen <strong>analoge</strong>n und <strong>digitale</strong>n Maschinen oder Systemen zu<br />
illustrieren als ihn zu definieren, und einige geläufige Vorstellungen darüber sind irrig.“ 3<br />
Um die Bildtheorie Goodmans zu vertiefen, wird ein mathematischer Exkurs notwendig sein,<br />
weil er an einigen Stellen seiner Theorie diese mit mathematischen Beispielen erklärt und<br />
illustriert. Zwischen Kunst und Mathematik hat es schon <strong>im</strong>mer viele Berührungspunkte<br />
gegeben. So haben manche strukturelle Eigenschaften der Mathematik in der Kunst eine Rolle<br />
gespielt. Die Entwicklung der Digitaltechnik schließlich führte zu einer neuen Verbindung von<br />
Kunst und Mathematik. Die so genannte Computergrafik arbeitet mit digital vorliegenden <strong>Bilder</strong>n,<br />
die „rechenbar“ sind. Hinter jeder Funktion in einem Grafikprogramm, wie zum Beispiel<br />
Photoshop eines ist, steckt viel Mathematik.<br />
In der vorliegenden Arbeit wird es also um eine grundsätzliche und umfassende Klärung der<br />
Begriffe „analog“ und „digital“ hinsichtlich des Bildes gehen. Denn die Begriffe „analog“ und<br />
„digital“ sind in aller Munde, aber sie werden, wie so oft in der Umgangssprache, sehr<br />
unscharf verwendet, weil die genauen Bedeutungen unklar sind. Es scheint daher sinnvoll,<br />
als Ausgangspunkt der wissenschaftlichen Arbeit eine begriffliche Annäherung durch eine<br />
etymologische Betrachtung der beiden Klassifikationsbegriffe zu erreichen. Es muss überprüft<br />
werden, ob die beiden Begriffe <strong>im</strong> Rahmen einer gründlichen Untersuchung überhaupt<br />
aufrecht erhalten werden können, und wenn ja, ob sie hinreichend gut sind, um den<br />
Sachverhalt angemessen zu beschreiben. Vielleicht wird es notwendig werden, neue<br />
Begriffe einzuführen.<br />
Diese Arbeit soll einen breit gefächerten Überblick über das Themenfeld geben. Ich halte es<br />
für notwendig, sich mit den Bedingungen der <strong>digitale</strong>n Medien auseinandersetzen, denn sie<br />
werden heute schon sehr stark in der gestalterischen Produktion der angewandten Künste<br />
eingesetzt und werden dies in Zukunft mit Sicherheit noch mehr werden. Die freien Künstler<br />
beschäftigen sich ebenfalls seit den 60er Jahren, mit diesen Medien.<br />
3 Nelson Goodman, Sprachen der Kunst - Entwurf einer Symboltheorie, 2. Auflage, Suhrkamp, Frankfurt am Main 1998<br />
6
2. Eine etymologische und geschichtliche Annäherung<br />
Die Sprache ist das Medium, in dem wir abstrakt denken, in dem wir Erkenntnisse formulieren.<br />
Wenn wir uns <strong>im</strong> Folgenden mit den Begriffen „analog“ und „digital“ auseinander setzen, soll<br />
zunächst geklärt werden, was uns die deutsche Sprache für Bedeutungen anbietet.<br />
Obwohl viele zumindest ein intuitives Verständnis von den Begriffen „analog“ und „digital“<br />
haben, ist die exakte Bedeutung nicht sofort ersichtlich. Betrachtet man verschiedene<br />
Definitionen in Lexika oder Büchern, so wird deutlich, dass es keine einheitlich akzeptierte<br />
Definition gibt. Die Bedeutungen sind vielfältig und besitzen wie so oft eine gewisse Breite.<br />
Im Sprachgebrauch treten somit Probleme auf, die einer näheren Betrachtung bedürfen.<br />
Beispielsweise wird „analog“ häufig mit „kontinuierlich“ gleichgesetzt, dabei bewegt sich der<br />
Stundenzeiger fast jeder Analoguhr schrittweise, also nicht kontinuierlich, sondern diskret 4 .<br />
Es scheint also eine andere Bedeutung hinter dem Präfix zu stecken. Weiterhin wurden in der<br />
Geschichte Rechner entwickelt, die analog arbeiteten, aber mit diskreten Werten operierten,<br />
bei denen nicht sofort klar ist, ob sie als analog oder digital zu bezeichnen sind.<br />
Für uns ist es wichtig, wie wir die verschiedenen Aspekte verwenden und auf künstlerische<br />
Erzeugnisse beziehen können.<br />
Im Folgenden werden deshalb die grundlegenden Bedeutungen der beiden Begriffe<br />
umfassend dargestellt. Die zugehörige historische Betrachtung soll ein Gefühl für die<br />
verschiedenen Bedeutungen der Begriffe geben und soll so zusätzliche Klärung schaffen.<br />
2.1 analog<br />
2.1.1 Zum Begriff<br />
Das deutsche Wort „analog“ ist das zugehörige Adjektiv des Substantivs „Analogie“ und<br />
besitzt heute die Bedeutungen „entsprechend“, „ähnlich“ oder auch „gleichartig“. Oder es wird<br />
<strong>im</strong> Sinne von „kontinuierlich“, „stufenlos“ verwendet.<br />
Das Adjektiv „analog“ wurde <strong>im</strong> 18. Jahrhundert über das französische Wort „analogue“<br />
(„entsprechend“), aus dem gleichbedeutenden griechischen „análogos“ entlehnt, was<br />
eigentlich soviel wie „dem Logos, der Vernunft entsprechend“ bedeutet. Das zugehörige<br />
Substantiv „Analogie“ ist von dem griechischen Wort „analogía“ (αναλογια) abgeleitet und<br />
erscheint als wissenschaftlicher Terminus bereits <strong>im</strong> 17. Jahrhundert. 5<br />
4 Den Begriff „diskret“ werden wir noch öfter in dieser Arbeit verwenden. Er soll <strong>im</strong> Sinne von „abgegrenzt, abgrenzbar“<br />
beziehungsweise <strong>im</strong> mathematischen Verständnis von „in einzelne Punkte zerfallend“, „abzählbar“ oder auch „Zahlenwerte, die durch<br />
endliche Intervalle voneinander getrennt stehen“ verstanden werden. Vergleiche hierzu auch Kapitel 4<br />
5 Duden - Das Herkunftswörterbuch der deutschen Sprache, hg. von der Dudenredaktion, Band 7, 2. völlig neu bearbeitete und<br />
erweiterte Auflage, Dudenverlag , Mannhe<strong>im</strong> 1989<br />
7
Im Griechischen ist „analogía“ die Übereinst<strong>im</strong>mung verschiedener Größen- oder<br />
Funktionsverhältnisse „ana ton auton logon“ (<strong>im</strong> gleichen „logos“ oder „verhältnismäßig“). Der<br />
Begriff Analogie stammt also aus der griechischen Geistesgeschichte und ist ursprünglich ein<br />
Begriff der Philosophie, speziell der Mathematik, der in der pythagoreischen Schule entwickelt<br />
wurde. Seit Cicero entspricht das lateinische Wort „proportio“, auch „proportionalitas“ dem<br />
griechischen Wort „analogía“ und beide besitzen <strong>im</strong> Deutschen die Bedeutung „Entsprechung“<br />
oder „Verhältnisgleichheit“.<br />
Der Begriff wird in den verschiedenen Wissensbereichen in wechselnder Bedeutung, teils in<br />
einem weiten, teils in einem engen Sinn angewandt. Allgemein gilt jedoch, dass die Analogie<br />
dazu gebraucht wird, um Unbekanntes aus Bekanntem zu erschließen, oder um Ungleiches<br />
mit Ungleichem, also eigentlich Inkommensurables in Zusammenhang zu bringen. Dies<br />
geschieht aufgrund von Ähnlichkeit, oder enger gefasst aufgrund von Verhältnisgleichheit<br />
beziehungsweise Verhältniseinheit. Damit wird dem relationalen, dem verbindenden Charakter<br />
der Analogie Rechnung getragen. Durch Analogie kann der Zusammenhang ganz<br />
verschiedener Wirklichkeitsbereiche aufgedeckt und begrifflich ausgedrückt werden, da es<br />
sich bei der Analogie um eine Ähnlichkeit zwischen eigentlich unähnlichen Dingen handelt.<br />
Die Analogie ist also ein in der Philosophie und anderen Wissenschaften gebräuchlicher<br />
Begriff zur Bezeichnung eines Verfahrens oder von Ergebnissen der relationalen<br />
Verknüpfung von Sachverhalten. Dies kann sowohl <strong>im</strong> Erkenntnisprozess, zum Beispiel be<strong>im</strong><br />
<strong>analoge</strong>n Problemlösen, als auch <strong>im</strong> Wissen statt finden.<br />
Im Unterschied zur Äquivalenz, der Übereinst<strong>im</strong>mung in einer best<strong>im</strong>mten Hinsicht und der<br />
Gleichheit, also der Übereinst<strong>im</strong>mung in allen Hinsichten, ist die Analogie das Ergebnis eines<br />
Vergleichs, aufgrund dessen zwischen Eigenschaften oder Zuständen von Gegenständen<br />
oder Systemen auf die Relation der Ähnlichkeit, eines richtigen Verhältnisses oder einer<br />
Entsprechung geschlossen wird. Die Analogie ist Ähnlichkeit unterschiedlichen Grades<br />
hinsichtlich best<strong>im</strong>mter Aspekte und Eigenschaften zwischen unterschiedlichen<br />
Gegenständen oder Systemen, die <strong>im</strong> Grenzfall Identität erreichen kann.<br />
Die Analogie bezeichnet also einander strukturell oder funktional ähnliche Eigenschaften oder<br />
Zustände. Zum Beispiel kann das Verhältnis zwischen einem Gegenstand oder einem System<br />
und einem repräsentierenden Modell als Analogie bezeichnet werden.<br />
Die Analogie kann auch zur Gewinnung neuer Erkenntnisse verwendet werden. Dies kann<br />
beispielsweise geschehen, indem bekanntes Wissen auf neue Sachverhalte übertragen<br />
wird. 6 Auch so genannte Analogieschlüsse sind ein Mittel der Erschließung von noch<br />
Unbekanntem aus Bekanntem. Um die Funktionsweise eines Analogieschlusses zu verstehen,<br />
6 Vgl. hierzu auch den Vortrag von Frau Prof. Dr. Gabi Reinmann-Rothmeier „Pädagogisch-didaktische Ideen zur Repräsentation und<br />
Kommunikation von Wissen <strong>im</strong> Netz“ gehalten anlässlich des Symposiums „Bildkompetenz und Wissensvernetzung“ am 23.11.2001<br />
<strong>im</strong> Rahmen des Forschungsprojektes „<strong>Visuelle</strong> <strong>Kompetenz</strong> <strong>im</strong> <strong>Medienzeitalter</strong>“ an der Akademie der Bildenden Künste Stuttgart:<br />
„Be<strong>im</strong> Aufbau von Wissen mit Hilfe der Netztechnologie sind aus pädagogisch-psychologischer Sicht Kriterien und Standards für eine<br />
lernfreundliche Informationsgestaltung <strong>im</strong> Netz zu entwickeln. Diesbezüglich sind Ideen erforderlich, wie man die Nutzer in ihren<br />
Fähigkeiten unterstützen kann, damit diese Informationen <strong>im</strong> Netz besser und schneller verstehen. Nach Auffassung von Prof. Dr.<br />
Reinmann-Rothmeier erscheint in diesem Zusammenhang ein narrativer Ansatz mit systematischem Einsatz von Analogien und<br />
Geschichten mit bildhafter Begleitung sinnvoll. Dabei wäre mit einem Rückgriff auf Analogien, Geschichten in Verbindung mit bildhafter<br />
Begleitung eine Verbesserung der Darstellung und der Vermittlung von Wissen zu erzielen.“<br />
8
etrachte man folgenden Sachverhalt: A habe die Merkmale a, b, c, x; B habe die Merkmale a,<br />
b, c; wahrscheinlich hat B auch das Merkmal x. Die Merkmale von B st<strong>im</strong>men mit den ersten<br />
drei Merkmalen von A überein und aufgrund der Ähnlichkeit von A und B in drei Merkmalen<br />
wird auf die Möglichkeit geschlossen, dass B ebenfalls das vierte Merkmal x hat. Ein<br />
einfaches Beispiel wäre folgender Sachverhalt: Schüler A ist ein guter Schüler am<br />
Gymnasium (Merkmal a), beendet die Schule mit einem guten Abschluss (Merkmal b), bringt<br />
während seiner Studienzeit gute Leistungen (Merkmal c) und schließt sein Studium mit guten<br />
Noten ab (Merkmal x), so ist zu erwarten, dass Schüler B, der ebenfalls ein guter Schüler (a),<br />
mit gutem Abschluss (b) und guten Leistungen während des Studiums (c) sein Studium mit<br />
guten Noten abschließen wird.<br />
Eigenschaften<br />
A<br />
B<br />
C<br />
X<br />
⇒<br />
Eigenschaften<br />
a<br />
b<br />
c<br />
wahrscheinlich x<br />
Abbildung 1 : Schematische Darstellung des Analogieschlusses<br />
2.1.2 Begriffsgeschichte „analog“<br />
Die Begriffsgeschichte des Wortes „analog“ ist sehr alt. Bei den frühen griechischen<br />
Philosophen, vor allem bei den Pythagoreern, also circa 400 vor Christus, tritt der Aspekt des<br />
richtigen, harmonischen beziehungsweise angemessenen Verhältnisses hervor. Dieser<br />
Schule zufolge ist alles durch Zahlenverhältnisse beziehungsweise musikalische Intervalle<br />
best<strong>im</strong>mt und dadurch harmonisch und proportional geordnet, sowohl jede Sache an sich, wie<br />
auch der Kosmos als Ganzes. Die Analogie entwickelte sich ursprünglich als Begriff der<br />
Mathematik, genauer der pythagoreischen Schule. Er wurde dort zunächst in der Form der<br />
arithmetischen beziehungsweise geometrischen Analogie verwendet. Hier bedeutet er also<br />
zunächst jede Art von Gleichheit je nach der Verbindung zweier Zahlen. Später trat aber<br />
mehr die Gleichheit von Verhältnissen, die durch Teilung zustande kommen, in den<br />
Vordergrund. Die so genannte geometrische Proportion.<br />
Die pythagoreische Entdeckung der Proportionalität von musikalischen Intervallen führte<br />
bereits früh zu einer grundlegenden mathematischen Erörterung der Analogie, die sich auf die<br />
weitere Entwicklung des Begriffes best<strong>im</strong>mend auswirkte. Der erste überlieferte Nachweis<br />
dieser mathematischen Proportionslehre findet sich bei Archytas von Tarent 7 . Schon <strong>im</strong><br />
frühesten Zeugnis von Archytas von Tarent, werden drei Arten von <strong>analoge</strong>n Verhältnissen<br />
7 Archytas von Tarent, VS 47 B 2, zitiert nach: Historisches Wörterbuch der Rhetorik, Gert Ueding (Hrsg.), Band 1, Niemeyer Verlag,<br />
Tübingen 1992, S.500<br />
9
aufgeführt, die auch als musikalische Mittel bezeichnet werden. Er spricht von den folgenden<br />
drei Arten <strong>analoge</strong>r Verhältnisse:<br />
Nach der ersten stehen drei Glieder einer Reihe von Zahlen (Größen) derart „<strong>im</strong> Verhältnis“<br />
zueinander, dass die erste - und größte (z.B. 10) - um ebenso viel größer ist als die zweite<br />
(6) wie die zweite größer ist als die dritte (2). Bei dieser arithmetisch genannten Analogie<br />
(Abbildung 2) handelt es sich um die Gleichheit von Differenzen (z.B. 10-6 = 6-2).<br />
6-2 10-6<br />
Abbildung 2 : arithmetische Analogie<br />
Die zweite, die geometrische Analogie, besagt Gleichheit von Verhältnissen, die durch die<br />
Teilung zustande kommen (Abbildung 3). Das Verhältnis der ersten Zahl zur zweiten ist auch<br />
hier gleich dem der zweiten zur dritten (8:4 = 4:2). Eine dritte Art der Analogie ist die<br />
harmonische, die beide vorhergehenden verbindet: Die erste Zahl übertrifft die zweite um<br />
eben den Teil ihrer Größe, um welchen Teil ihrer selbst die dritte Zahl von der zweiten<br />
übertroffen wird. Wenn also die Zahl 6 um ein Drittel ihrer Größe (um 2) die Zahl 4 übertrifft,<br />
so übertrifft die Zahl 4 ihrerseits die Zahl 3 um ein Drittel von deren Größe (um 1).<br />
Da die harmonische Analogie in einer ihrer Eigenschaften der arithmetischen Analogie<br />
entgegengesetzt ist, wurde sie ursprünglich auch die entgegengesetzte Analogie genannt.<br />
4 : 2 8 : 4<br />
Abbildung 3 : geometrische Analogie<br />
In allen drei Fällen dient die Analogie der Best<strong>im</strong>mung der „Mitte“, die den Abstand zwischen<br />
den Außengliedern überbrückt und sie in eine Reihe bindet.<br />
Umgekehrt kann die Analogie als ein Prinzip der Reihenbildung betrachtet werden, wenn von<br />
der kleinsten Zahl aus in gleichen Abständen oder Verhältnissen fortgeschritten wird. In<br />
10
eiden Hinsichten finden wir die Analogie-Lehre bei Euklid 8 und Nikomachos 9 erwähnt.<br />
Gleiches findet sich bei Empedokles, der in diesem Punkt durch die Pythagoreische Lehre<br />
beeinflußt worden ist: „Die weißen Knochen sind nicht zufällig zusammengefügt aus zwei<br />
Teilen Erde, zwei Teilen Wasser und vier Teilen Feuer, sondern göttlich durch den Le<strong>im</strong> der<br />
Harmonia.“ 10 Das Best<strong>im</strong>men der Mitte fand nicht nur Anwendung in der Musik und<br />
Mathematik, sondern auch in der Kosmologie, wo nach der Weltordnung gefragt wurde, und in<br />
der Ethik, wo es um die Best<strong>im</strong>mung des Gerechten ging.<br />
Platon hat als erster den Begriff der Analogie in der Philosophie verwendet. Bei ihm hat die<br />
Analogie in verschiedener Weise Verwendung gefunden. So wird in der Philosophie Platons<br />
die Analogie unter anderem auch zu einem kosmologischen Strukturprinzip, weil Gott die Dinge<br />
analog und ebenmäßig geordnet hat, und in der Ethik ist das Gute von <strong>analoge</strong>r Bedeutung für<br />
die sinnliche und die Ideen-Welt. Der Aufstieg zum Guten ist dem der Sonne analog. Er benutzt<br />
in seinen Dialogen an vielen Stellen Beispiele, Gleichnisse und Vergleiche als Mittel der<br />
Beweisführung. So wird <strong>im</strong> „Phaedon“ 11 die Unsterblichkeit der Seele anhand von<br />
Vergleichen bewiesen und in der „Politeia“ 12 die Gerechtigkeit des einzelnen Menschen mit<br />
der des Staates verglichen. Die Analogie ist in der Funktion eines kosmischen<br />
Ordnungsprinzipes zu sehen, das die vier Elemente zusammenfügt und in dasselbe Verhältnis<br />
setzt. Dabei werden die entferntesten Elemente (Feuer und Erde), die äußeren Glieder und die<br />
dazwischen liegenden Elemente (Luft und Wasser), die Mittelglieder derart ins Verhältnis<br />
gesetzt dass gilt: wie das Feuer zur Luft, so die Luft zum Wasser, und wie die Luft zum<br />
Wasser, so das Wasser zur Erde. Auf diese Weise hat Gott nach Platon die sichtbare und<br />
greifbare Welt als eine vollkommene Einheit verknüpfen und gestalten können.<br />
Bei Aristoteles tritt die kosmologische Anwendung der Analogie ganz zurück. Er knüpft in<br />
seiner Naturforschung eher an die mathematische Auffassung der Analogie an. In seiner<br />
„Metaphysik“ ist die Analogie das prädikative Verfahren der Herstellung von Beziehungen<br />
zwischen nicht zusammengehörenden Sachverhalten: „Der Gattung nach sind alle Dinge<br />
eines, die es der Gestalt nach sind, - während nicht alle Dinge, die der Gattung nach eines<br />
sind, auch der Gestalt nach eines sind. Solche Dinge sind aber sämtlich der Analogie nach<br />
eines, während nicht alle Dinge, die der Analogie nach eines sind, dies auch der Gattung<br />
nach sind.“ 13 Dieses Verfahren setzt er ein, um zum Beispiel unterschiedliche Lebewesen<br />
aufgrund <strong>analoge</strong>r Funktionen klassifizieren zu können: „was dem Vogel der Flügel, ist dem<br />
Fisch die Flosse“. 14<br />
In der „Poetik“ tritt die Analogie hervor bei der Metaphernbildung oder der Wortübertragung,<br />
wo Wörter in uneigentlicher Bedeutung verwendet werden. Bei der Bildung einer Metapher<br />
8 Euklid, Die Elemente Kapitel V und VII (nach Eudoxos), zitiert nach: Historisches Wörterbuch der Philosophie, Joach<strong>im</strong> Ritter<br />
(Hrsg.), Band 1, Schwabe & Co. Verlag, Stuttgart 1971, S. 214<br />
9 Nikomachos, Introductio arithmetica II, zitiert nach: ebd.<br />
10 Empedokles, VS 31 B 96, zitiert nach: Historisches Wörterbuch der Rhetorik (1992), S. 500<br />
11 Platon, Phaedon, zitiert nach: Historisches Wörterbuch der Rhetorik (1992), S. 501<br />
12 Platon, Politeia, zitiert nach: dito, S. 502<br />
13 Aristoteles, Metaphysik, zitiert nach: Enzyklopädie Philosophie, Hans Jörg Sandkühler (Hrsg.), Felix Meiner Verlag, Hamburg 1999,<br />
S.48<br />
14 Aristoteles, De part. an<strong>im</strong>al. I, zitiert nach: Historisches Wörterbuch der Philosophie (1971), S. 217<br />
11
gemäß der Analogie wird anstelle der zweiten Größe die vierte oder umgekehrt anstelle der<br />
vierten die zweite gesetzt. Verhält sich zum Beispiel die Weinschale (2) ähnlich zu Dionysios<br />
(1) wie der Schild (4) zu Ares (3), so kann man die Weinschale (2) Schild (4) des Dionysios<br />
oder den Schild (4) Schale (2) des Ares nennen. Oder, verhält sich das Alter (2) ähnlich zum<br />
Leben (1) wie der Abend (4) zum Tag(3), so kann man das Alter (2) als Abend (4) des<br />
Lebens und den Abend (4) als Alter (2) des Tages benennen. 15 Die Analogie kann in dieser<br />
Funktion auch dafür benutzt werden, um einen passenden Ausdruck für etwas zu finden, wo<br />
eine eigene Bezeichnung fehlt. So gibt es kein eigenes Wort für die Tätigkeit der Sonne, die ihr<br />
Licht ausstrahlt. Da sich jedoch diese Tätigkeit (2) ähnlich zum Sonnenlicht (1) verhält wie das<br />
Säen (4) zum Samen (3), kann man sagen ,dass die Sonne ihr Licht (1) sät (4). 16 In beiden<br />
Fällen geschieht eine Übertragung gemäß der Analogie.<br />
In der Stoa wurde die Analogie in der Erkenntnislehre und Ethik verwendet. Das sinnliche<br />
Wahrgenommene kann aufgrund der Analogie vergrößert oder verkleinert werden, wodurch<br />
man zu neuen Vorstellungen und Begriffen, zum Beispiel von Riesen und Zwergen, kommen<br />
kann. Die Stoa hat die Analogie aber vor allem als ein induktives Verfahren geprägt: Analogien<br />
führen von Bekanntem zu Unbekanntem aufgrund eines beiden gemeinsamen „logos“. 17<br />
Die Analogielehre des lateinischen Mittelalters knüpft hauptsächlich an die antiken Vorgaben<br />
an. Bedeutend sind vor allem die Anwendungen der Analogielehre in der Grammatik, der<br />
theologisch-philosophischen Spekulation seit dem 13. Jahrhundert und in den mathematischen<br />
und naturwissenschaftlichen Werken des Spätmittelalters. In den Künsten besaß die Analogie<br />
große Bedeutung. Es war eine gängige Vorstellung, dass die Einhaltung der Proportionen<br />
unmittelbar mit dem Grad der Schönheit verbunden war. Von allen Definitionen der Schönheit<br />
hatte eine <strong>im</strong> Mittelalter besonders Erfolg. Sie stammte von Augustinus: „Quid est corporis<br />
pulchritudo? Congruentia partium cum quadam coloris suavitate.“ 18 (Worin besteht die<br />
körperliche Schönheit? Im richtigen Verhältnis der Teile zueinander in Verbindung mit einer<br />
gewissen Lieblichkeit der Farben.)<br />
Die Theoretiker und Verfasser praxisbezogener Abhandlungen bezogen sich auf Vitruv,<br />
durch den die Theorie der Proportionen in das Mittelalter weitergegeben wurde (später durch<br />
Leonhardo da Vinci illustriert). Diese finden in Vitruvs Schriften nicht nur die Termini<br />
„proportio“ und „symmetria“, sondern auch Definitionen wie: „ratae partis membrorum in omni<br />
opere totiusque commodulatio o ex ipsius operis membris conveniens consensus ex<br />
partibus separatis ad universae figurae speciem ratae partis responsus.“ 19 In der also von<br />
der „Symmetrie der Elemente eines best<strong>im</strong>mten Teiles und des Ganzen in jedem Werk“ und<br />
vom „harmonischen Zusammenst<strong>im</strong>men der Elemente des Werkes und der Korrespondenz der<br />
einzelnen Teile eines best<strong>im</strong>mten Teiles zum Bild der gesamten Figur“ die Rede ist.<br />
15 Aristoteles, Poetik, zitiert nach: Historisches Wörterbuch der Rhetorik (1992), S. 502-503<br />
16 Aristoteles, Poetik, zitiert nach: ebd.<br />
17 Cicero, De finibus III, zitiert nach: Historisches Wörterbuch der Rhetorik (1992), S. 504<br />
18 Augustinus, Epistula 3, zitiert nach: Umberto Eco, Kunst und Schönheit <strong>im</strong> Mittelalter, Deutscher Taschenbuch Verlag, München<br />
1993, S.49<br />
19 Vitruv, De architectura III, zitiert nach: dito, S.50<br />
12
In der neuzeitlichen Wissenschaft tritt der Begriff in verschiedenen Kontexten in Erscheinung.<br />
Die Linguistik sieht die Analogie als die Erscheinung, dass Sprachmittel, die einander in<br />
irgendeiner Hinsicht (Inhalt, Gestalt, Formenbildung oder Fügungsweise) entsprechen, sich<br />
auch in den übrigen Stücken mehr oder weniger nacheinander richten. Das Prinzip der<br />
Übertragung von Lautungen und Wortformen fand in der zweiten Hälfte des 19. Jahrhunderts<br />
große Beachtung bei den Junggrammatikern. In der Literaturwissenschaft spielt sie eine Rolle<br />
bei dem Vergleich von literarischen Texten, wo sie als strukturelle Entsprechung zweier<br />
Erzählungen gilt. Gleichsam wird sie hier als Metapher und Gleichnis studiert.<br />
Mit dem Begriff der Analogie bezeichnet man in der Biologie Ähnlichkeiten verschiedener<br />
Organismen, die nicht auf Verwandtschaft beruhen, sondern unabhängig voneinander<br />
entstanden sind, zum Beispiel die Flügel der Insekten und der Vögel, die Linsenaugen der<br />
Tintenfische und die der Wirbeltiere. In diesen Fällen bedeutet analog nicht homolog. Da die<br />
Analogie meist auf gleicher Funktion der Strukturen beruht, wurde häufig Gleichheit der<br />
Funktion als Kriterium gesetzt.<br />
In der Logik wird sie als Methode des Schlussverfahrens behandelt, wo ihr zusätzlich noch<br />
als Modell, Entsprechung und strukturelle Abbildung ein bedeutender Wert bei der<br />
Formulierung von Hypothesen und Theorien zuerkannt wird. Allgemein gilt, dass die Analogie<br />
als Modell und Übereinst<strong>im</strong>mung sowohl in den Geistes- wie auch in den<br />
Naturwissenschaften zunehmend an Bedeutung gewinnt. In der neueren Diskussion wird<br />
mittlerweile zwischen struktureller- und funktionaler Analogie unterschieden. Unter einer<br />
struktureller Analogie versteht man dabei die völlige oder teilweise Übereinst<strong>im</strong>mung der<br />
Strukturen zweier Systeme, wobei von der konkreten stofflichen Realisierung der jeweiligen<br />
Systeme abstrahiert wird. Eine bekannte strukturelle Analogie ist die Analogie zwischen dem<br />
Bohrschen Atommodell (Nils Bohr) und dem Sonnensystem. In beiden Systemen gibt es einen<br />
Mittelpunkt, um den <strong>im</strong> einen Fall die Elektronen, <strong>im</strong> anderen die Planeten auf konzentrischen<br />
Bahnen um denselben kreisen.<br />
13
Eine funktionale Analogie liegt dann vor, wenn zwei Systeme, die sich sowohl nach der Art<br />
ihrer Elemente, als auch in ihrem strukturellen Aufbau voneinander unterscheiden, <strong>im</strong> Hinblick<br />
auf die Funktionen, die sie erfüllen können, übereinst<strong>im</strong>men. Die funktionalen Analogien, wie<br />
zum Beispiel <strong>im</strong> Begriffspaar Schiffssteuermann, Staatssteuermann sind ungenauer als<br />
strukturelle und sind der Metapher, dem Symbol und der Allegorie verwandt. 20<br />
2.1.6 Zusammenfassung<br />
Zusammenfassend ist für die weiteren Gedankengänge in der vorliegenden Arbeit folgendes<br />
wesentlich: Zum einen kann „analog“ also soviel wie „gleichartig“ , „ähnlich“ , „entsprechend“<br />
bedeuten, <strong>im</strong> Sinne einer vorhandenen Analogie zwischen zwei Systemen oder<br />
Gegenständen. Dabei unterscheidet man heute zwischen der funktionalen und strukturellen<br />
Analogie. Desweiteren kann die Analogie als Schlussverfahren verwendet werden und es ist<br />
möglich eigentlich Ungleiches miteinander in Verbindung zu bringen. Im technischen<br />
Verständnis wird das Adjektiv <strong>im</strong> Sinne von „kontinuierlich“, „stufenlos“ verwendet. Diese<br />
Bedeutung wird <strong>im</strong> Zusammenhang der Geschichte des Begriffes „digital“ <strong>im</strong> Folgenden<br />
zusätzlich erläutert, denn sie entstand als Gegenstück zur Bedeutung des Begriffes „digital“.<br />
20 Dazu eine kurze Erinnerung der Begriffe Metapher, Symbol und Allegorie.<br />
Die Allegorie ist ein in Literatur und Bildender Kunst bekanntes Mittel zur Veranschaulichung eines oft abstrakten Gedankens, einer<br />
Vorstellung durch eine bildhafte Darstellung. Als Beispiel mag das Leben als Fastnachtsspiel in der Literatur dienen oder das Schiff und<br />
die Schiffahrt für die Staatsführung. Eine allegorische Figur nennt man auch die Darstellung eines abstrakten Begriffs als Person, zum<br />
Beispiel die Justitia mit den ausgeglichenen Waagschalen in der Hand als Verkörperung der Gerechtigkeit. Oder die Germania als<br />
Verkörperung des Deutschen Staates.<br />
Die Metapher ist ein sprachliches Verfahren der Übertragung der darzustellenden Wirklichkeit auf eine bildhafte Wirklichkeit.<br />
Darstellungsbereich und Abbildungsbereich sind durch ein gemeinsames semantisches (bedeutungsmäßiges) Merkmal miteinander<br />
verbunden. Ein Beispiel wäre der Ausdruck „ am Fuß des Berges“ (vergleiche auch die Bezeichnung „Piemont“ in Italien (am Fuß des<br />
Berges, eben der Alpen)) oder Flussbett. Gemeinsames Merkmal ist hier die Eigenschaft „ganz unten“. Die Metapher wird seit der<br />
Antike auch als verkürzter Vergleich erklärt. Es geht aber weniger um ein rationales Vergleichen zweier Gegenstandsbereiche als<br />
vielmehr um das Zusammenbringen von „Auseinanderliegendem“ in einem Bild.<br />
Ein Symbol ist eine Darstellung abstrakter geistiger oder seelischer Vorstellungen und Erfahrungen in konkreten oder anschaulichen<br />
Gegenständen, Sachverhalten oder Handlungen nennt man Symbol. Zum Beispiel ist Wasser seit jeher das Symbol des Lebens, aber<br />
auch des Todes, die Taube ist ein Symbol für den Frieden und das Herz ein Symbol für die Liebe.<br />
14
2.2 digital<br />
2.2.1 Zum Begriff<br />
Das Adjektiv „digital“, besitzt <strong>im</strong> deutschen mehrere Bedeutungen. Zum einen hat es die<br />
Bedeutung „mit dem Finger“ und berührt hierbei die medizinische Fachterminologie. Zum<br />
anderen bedeutet „digital“ soviel wie „in Stufen, in Schritten erfolgend.“ Es steht dann <strong>im</strong><br />
direkten Gegensatz zu analog <strong>im</strong> Sinne von kontinuierlich. Daneben erscheint es in der<br />
Technik <strong>im</strong> Sinn von „Informationen, Daten in Ziffern darstellend“. 21 Dazu hat sich in neuerer<br />
Zeit die eventuell unter dem Einfluss des englischen Wortes „digitalize“ aufgekommene<br />
Verbableitung „digitalisieren“ gebildet. Dies bedeutet in der Physik und der Technik in diskrete<br />
Einzelschritte auflösen, Informationen computergerecht umwandeln, ziffernmäßig darstellen.<br />
So wird bei einer Digitaluhr die Uhrzeit oder auf einem Thermometer die Temperatur unter<br />
Zuhilfenahme von Ziffern dargestellt. Das zugehörige Verbalsubstantiv heißt „Digitalisierung“.<br />
Das Wort „digital“ wird mittlerweile als Präfix oft in einem anderen Sinn verwendet. Infolge des<br />
Marktangebotes und der Werbung wird das Wort häufig in Verbindung mit den Begriffen<br />
„modernste Technik“ oder „neuartige Technik“ gebraucht. Es suggeriert so die Modernität, der<br />
als digital ausgezeichneten Medien.<br />
2.2.2 Begriffsgeschichte „digital“<br />
Über das Wort „digital“ lässt sich angesichts der wesentlich kürzeren Begriffsgeschichte<br />
deutlich weniger sagen. Das deutsche Adjektiv „digital“ in der Bedeutung „in Stufen, in<br />
Schritten erfolgend“ und „Informationen, Daten in Ziffern darstellend“ wurde Mitte des 20.<br />
Jahrhunderts aus dem gleichbedeutenden englischen „digital“ entlehnt, ist also über die<br />
englische Fachsprache ins Deutsche gekommen. In der Bedeutung „mit Hilfe des Fingers“ ist<br />
es <strong>im</strong> Deutschen wesentlich älter. Das Wort „digital“ hat also zwei Wurzeln.<br />
Betrachtet man zunächst die ältere Bedeutung kann man folgendes feststellen. Das Wort<br />
wurde aus dem lateinischen Wort „digitalis“ entlehnt, was soviel wie „mit dem Finger“ heißt,<br />
von lateinisch „digitus“, „der Finger“ oder auch „die Zehe“. (vgl. auch dt. „der Fingerhut“, mit<br />
dem lateinischen Namen „Digitalis“)<br />
Der Finger wurde unter anderem zum Zeigen verwendet zum Beispiel be<strong>im</strong> Vortrag einer<br />
Rede in gewissen Haltungen und best<strong>im</strong>mten Bewegungen. (vgl. auch Zeigefinger). 22<br />
Zum anderen ist es eine Andeutung auf das Zählen. Denn früher wurde mit den Fingern<br />
gezählt, woher unter anderem unser dekadisches Zahlensystem herrührt. So war die<br />
Bezeichnung „digiti“ für „Fingerzahlen“ noch <strong>im</strong> 18. Jahrhundert sehr geläufig, so dass sie <strong>im</strong><br />
„Grossen vollständigen Universal Lexikon“ aus dem Jahr 1734 wie folgt beschrieben wird:<br />
„digiti heißen bei einigen die Zahlen von 0 - 9 oder die s<strong>im</strong>plen Einheiten in der dekadischen<br />
21 Duden - Das Fremdwörterbuch, hg. von der Dudenredaktion, Band 5, 5. neu bearbeitete und erweiterte Auflage, Dudenverlag,<br />
Mannhe<strong>im</strong> 1990<br />
22 Eckart Zundel, Clavis Quintilianea, wissenschaftliche Buchgesellschaft, Darmstadt 1989, S.28<br />
15
Rechnung, weil man solche gemeiniglich an Fingern abzuzehlen pflegt, daher man sie auch<br />
Fingerzahlen <strong>im</strong> Teutschen nennen könnte.“ 23<br />
In der Medizin gibt es heute noch Fachtermini, die sich auf die Bedeutung „mit dem Finger“<br />
beziehen. Im Jahre 1929 wurde das Adjektiv „digital“ <strong>im</strong> Brockhaus 24 noch ausschließlich <strong>im</strong><br />
medizinischen Kontext erwähnt. Die zweite Bedeutungsebene wurde erst später, Mitte des<br />
20. Jahrhunderts ins Deutsche übernommen.<br />
In dieser, der anderen Herkunft von „digital“ steckt das heutige englische Wort „digit“, was<br />
soviel wie „Zeichen“, „Ziffer“ oder auch „Dez<strong>im</strong>alstelle“ bedeutet. Das englische Wort „digit“<br />
stammt von dem sehr alten englischen Ausdruck „digit“ ab. Der Ausdruck aus der Arithmetik<br />
(um 1398), bezeichnete ebenfalls zunächst die ersten Ziffern bis Zehn, die man mit den<br />
Fingern abzählen kann (vgl. oben „digiti“). Der Ausdruck „digit“ wurde dann als Attribut in der<br />
Form „digite number“ verwendet (um 1613).<br />
Das Wort „digital“ <strong>im</strong> Sinne von „mit diskreten Werten operierend“, also nicht kontinuierlichen<br />
entwickelte sich in der Elektrotechnik, parallel zu den technischen Errungenschaften. In dieser<br />
Bedeutung wurde es zuerst in den 30er Jahren, um 1938 verwendet und hat sich dann in der<br />
Elektrotechnik, bedingt auch durch den 2. Weltkrieg, bis 1945 stark verbreitet. 25 Gleichzeitig<br />
entstand „analog“ <strong>im</strong> Sinne von „kontinuierlich“ als Gegenstück. Das Wort „digital“ wurde dabei<br />
vermutlich erstmals <strong>im</strong> Umkreis der letzten Version des Differential Analyzers von Vanevar<br />
Bush geprägt, das bereits ein analog-<strong>digitale</strong>r Hybrid war. Also ein Apparat, der eine<br />
Mischform aus <strong>analoge</strong>m und <strong>digitale</strong>m Rechner darstellte und zur Berechnung von<br />
Differential-Gleichungen eingesetzt wurde. Diese bereits als digital bezeichneten Rechner<br />
gingen als Weiterentwicklung aus den Analogrechnern hervor.<br />
„Claude E. Shannon war 1936 als Forschungsassistent für den Differential Analyzer ans MIT<br />
gekommen, nachdem er seinen Abschluß als Bachelor sowohl in Mathematik als auch in<br />
Elektrotechnik gemacht hatte. Shannon schrieb einen Aufsatz über die mathematische<br />
Theorie des Differential Analyzers und entwickelte eine Standardnotation für die<br />
Einstellungen des Analyzers, die einfacher und allgemeiner war als die von Vanevar Bush<br />
entwickelte. Shannon begann sich jedoch auch für die Schalter als solche zu interessieren<br />
und für ihr Potential für Berechnungen (nicht nur für die Beschreibung von Berechnungen).<br />
Seine Magisterarbeit von 1937 “A Symbolic Analysis of Relay and Switching Circuits”<br />
untersuchte die logische Struktur und die Synthese von Relaisschaltkreisen “in automatic<br />
telephone exchanges, industrial motor-control equipment, and in almost any circuits<br />
designed to perform complex operations automatically.” Shannon ging explizit von der<br />
Struktur und der Notation der elektrischen Netzwerktheorie aus und zeigte, dass “several of<br />
the well-known theorems on <strong>im</strong>pedance networks have roughly analogous theorems in relay<br />
circuits.” Er wendete Boolesche Algebra auf Systeme von Relais an und zeigte, wie sie<br />
analysiert und zusammengesetzt werden konnten durch binäre Arithmetik und klassische<br />
23 Johann Heinrich Zedler, Grosses vollständiges Universal Lexikon, Band 7, Akad. Druck- und Verlagsanstalt, Graz 1961<br />
(Erstveröffentlichung 1734)<br />
24 Der große Brockhaus, A-Z, Band 4, Brockhaus Verlag, Leipzig 1929<br />
25 Josette Rey-Debove und Gilberte Gagnon (Hrsg.), Dictionnaire des Anglicismes, Verlag Le Robert, Paris 1988<br />
16
Wahrheitswertlogik mit ihren Funktionen von „Nicht“, „Oder“ und „Und“. Einmal in Algebra<br />
übersetzt, konnten Schaltfunktionen nach gewöhnlichen Regeln manipuliert werden, was den<br />
Planer in die Lage versetzte, den effektivsten Schaltkreis für eine gegebene logische<br />
Funktion zu entwerfen. Mit einem Schlag führte Shannon damit den Entwurf von<br />
Schaltungssystemen in die Welt der mathematischen Logik und der Netzwerktheorie ein. Als<br />
Shannons Arbeit veröffentlich wurde, war ein junger Ingenieur namens George Stibitz in der<br />
Abteilung für Mathematik in den Bell Laboratories damit beschäftigt, Rechenmaschinen aus<br />
alten Telefonrelais zu bauen. “I was delighted", erinnerte sich Stibitz später, " with the<br />
s<strong>im</strong>plicity and conciseness.” Er übernahm sofort Shannons netzwerkähnliche Notation.<br />
Stibitz prägte ebenfalls einen neuen Begriff für Rechenmaschinen die Schaltkreise,<br />
Boolesche Algebra und den Binärcode verwendeten: er nannte sie digital.“ 26<br />
Die Bedeutung „mit diskreten Werten operierend“, „mit Zeichen arbeitend“ oder auch<br />
„Informationen, Daten in Ziffern darstellend“ kam also daher, dass die neuen Rechenanlagen<br />
in der Lage waren mit einem Symbolvorrat, eben mit vorher festgelegten Zeichen zu arbeiten.<br />
Da es besonders einfach war die Schaltungen mit den zwei Stromzuständen „fließt“ und<br />
„fließt nicht“ zu realisieren, wurden die zu lösenden Probleme binär, also auf zwei Zeichen<br />
reduziert, codiert. Für die Vereinfachung der Schaltungen konnte dann die Boolesche Algebra<br />
eingesetzt werden, die es erlaubt, über einfache Berechnungen komplizierte Schaltzustände<br />
auf weniger komplexe zu vereinfachen. Nachdem der Begriff in dieser Bedeutung geprägt<br />
war, wurde er durch technische Entwicklungen und deren Verbreitung in der Alltagskultur<br />
zunehmend bekannt. Es gab mehrere bedeutende Phasen in denen der Begriff an Popularität<br />
gewann.<br />
Der erste Schub war in den 60er Jahren, als die Digitaltechnik zunehmend Einzug in die<br />
Alltagswelt hielt. Die Digitaltechnik wurde in der Verkehrstechnik, zum Beispiel bei<br />
Signalanlagen oder in Fahrkartenautomaten eingesetzt. So meldete die Stuttgarter Zeitung vom<br />
1.12.1967: „Elektronische Rechenmaschinen kommen in Deutschland mehr und mehr in<br />
Gebrauch, die sich aus den verschiedensten Bausteinen der Digitaltechnik<br />
zusammensetzen.“<br />
Bald darauf, in den frühen 70er Jahren kamen die ersten Digitaluhren auf den Markt. Mit der<br />
Verbreitung der Digitaluhren wurde der Begriff sehr populär. FAZ vom 14.4.1971: „die [...]<br />
erste quarzgesteuerte Digitaluhr (Ziffern statt Zeigeranzeige) mit Batteriebetrieb.“<br />
In den frühen 80er Jahren brachte Sony ein neues Medium auf den Markt, dass als Ersatz der<br />
bisher bekannten Schallplatte gedacht war, die Compact Disc, kurz CD. Die Scheibe war klein<br />
und handlich, glänzte verheisungsvoll silbern, war anscheinend robuster gegenüber Kratzern<br />
und sollte wesentlich bessere Klangqualität bieten.<br />
FAZ 3.3.1983 über die Compact Disc: „Über die Technik der neuen, zwölf Zent<strong>im</strong>eter großen,<br />
silberglänzenden Scheiben soll hier nur gesagt werden, dass sie anstelle der bisherigen<br />
26 Diese Informationen konnte ich freundlicherweise von Herrn Prof. Dr. Bernhard Siegert, Bauhaus Uni We<strong>im</strong>ar, Fakultät Medien<br />
erhalten.<br />
17
„<strong>analoge</strong>n“ Schallrille eine ziffernmäßig „digital“ verschlüsselte Folge von Impulsen in Form<br />
mikroskopisch kleiner Erhebungen „pits“ speichern...“<br />
Und auch in der Kommunikationstechnik sollte bald die Umstellung auf die <strong>digitale</strong> Technik<br />
erfolgen. So stellte die Deutsche Bundespost ein neues Verfahren der Übermittlung bei<br />
Telefongesprächen zur Verfügung. Die Informationen wurden nicht mehr als Strom<strong>im</strong>pulse<br />
analog zu den zu übermittelnden Schallfrequenzen, sondern codiert als binäres Signal<br />
geschickt. Darüber hinaus war es nun möglich schnellere Datenverbindungen aufzubauen,<br />
um zum Beispiel Videokonferenzen mit Bildtelefonen zu führen oder Datenpakete zu<br />
verschicken. FAZ 9.1.1985: „Die Übertragung von Telefongesprächen erfolgt heute noch auf<br />
„<strong>analoge</strong>“ Weise: Die elektronischen Signale sind dabei ein Abbild der akustischen<br />
Schwingungen. Künftig wird jedoch der Telefonverkehr in der <strong>digitale</strong>n Sprache des<br />
Computers als eine Zahlenfolge aus 0 und 1 abgewickelt.“<br />
Heute werden bei Neuinstallationen ausschließlich <strong>digitale</strong> Anschlüsse geschaltet. So wird<br />
das <strong>analoge</strong> Netz zunehmend durch das <strong>digitale</strong> ersetzt. Spiegel vom 17.5.1993: „Ab Januar<br />
löst das <strong>digitale</strong> Fernmeldenetz ISDN (Integrated -Services Digital Network) der Telekom<br />
die Analogvermittlung [...] nach und nach ab.“<br />
2.2.3 Zusammenfassung<br />
Der Begriff „digital“ hat <strong>im</strong> deutschen zwei Wurzeln. Zum einen kann er in der Bedeutung „mit<br />
dem Finger“ verwendet werden. In diesem Sinne ist er oft noch <strong>im</strong> medizinischen Kontext zu<br />
finden. Zum anderen wird er heute überwiegend in einer technischen Bedeutung <strong>im</strong> Sinne von<br />
„Informationen, Daten in Ziffern darstellend“, „in Stufen, in Schritten“ oder auch „diskret“<br />
benutzt.<br />
Diese Bedeutung entstand durch den Einsatz von „Ziffern“ oder „Zahlen“ in der Arbeitsweise<br />
der Automaten. Durch die veränderte Rechnertechnologie war es möglich geworden, diese<br />
so genannte „Ziffernrechenmaschine“ vielseitig einzusetzen, indem man sie mit Symbolen<br />
programmiert. 27<br />
Der eigentliche Unterschied des Digitalrechners ist es also, dass er mit vorgegebenen Zeichen<br />
arbeiten konnte und somit vielseitig für die unterschiedlichsten Probleme einsetzbar war. Dazu<br />
musste er lediglich programmiert werden. Für die notwendigen Operationen der<br />
Problemlösung verwendete er einen Code, der aus festgelegten Symbolen bestand. Wenn<br />
man heute vom Rechner oder dem Computer spricht, meint man eigentlich diesen, den<br />
Digitalrechner. Um die unterschiedliche Arbeitsweisen besser verstehen zu können, soll <strong>im</strong><br />
Folgenden ein kurzer Abriss der Geschichte der Rechner gezeigt werden.<br />
27 Im Gegensatz zum bisher verwendeten Analogrechner, der speziell zur Lösung eines best<strong>im</strong>mten Problems gebaut wurde. Ein<br />
Analogrechner stellte eine physikalische Analogie zu einem Problem dar.<br />
18
2.3 Eine kurze Geschichte der Rechnertechnik<br />
Heutzutage verbindet man mit Computer automatisch eine digital arbeitende elektronische<br />
Rechen-Maschine. Bis in die Mitte des 20. Jahrhunderts wurden mit dem Begriff „Computer“<br />
jedoch noch Menschen bezeichnet, die teilweise mit mechanischen Tischrechenmaschinen<br />
ausgestattet aufwendige Berechnungen durchführten. Es ist kaum noch bekannt, dass es<br />
zwei Arten von Recheninstrumenten und Rechenmaschinen gab, von denen manche analog,<br />
andere digital arbeiteten.<br />
2.3.1 Geschichte der <strong>analoge</strong>n Rechner<br />
Analoge Rechengeräte gab es bereits in der Antike. Schon von den Griechen wurden<br />
Astrolabien gebaut, mit deren Hilfe die Positionen der Gestirne am Firmament zu einem<br />
gegebenen Datum oder aus dem Stand der Gestirne die (lokale) Uhrzeit best<strong>im</strong>mt werden<br />
kann. Astrolabien bestehen aus gegeneinander verdrehbaren Metallplatten sowie Zeigern, auf<br />
denen Koordinaten, Winkel- und Zeitskalen, Sternzeichen sowie weitere Hilfslinien eingraviert<br />
sind. Nach dem manuellen Einstellen der Scheiben und Zeiger lassen sich einzelne<br />
astronomische Werte ablesen. Es gab weiterhin Geräte, deren Einstellung sich fortwährend –<br />
entweder manuell oder durch einen Mechanismus angetrieben – veränderte, wodurch die<br />
angezeigten Positionen der Gestirne analog zu den beobachtbaren Positionen am Firmament<br />
wandern. Das älteste bekannte Gerät wird nach seinem Fundort als Antikythera-<br />
Mechanismus bezeichnet und stammt aus dem 1. Jahrhundert vor Christus. Eine<br />
Röntgenanalyse des nicht mehr funktionsfähigen Mechanismus ergab, dass er die Bewegung<br />
der Sonne <strong>im</strong> Tierkreis, Mondphasen sowie Auf- und Untergänge der hellen Sterne angezeigt<br />
haben muss<br />
Diese Geräte waren speziell auf astronomische „Berechnungen“ zugeschnitten. Aber auch<br />
zur Lösung allgemeiner Probleme bediente man sich verschiedenster nicht rechnerischer<br />
Methoden. Im Altertum wurden viele Probleme geometrisch mit Lineal und Zirkel gelöst. Zur<br />
Vereinfachung geometrischer Konstruktionen und Berechnungen wurden später eine Reihe<br />
von geschlitzten und mit Gelenken verbundenen Linealen entworfen. Darauf wurden<br />
verschiedene Skalen für spezielle (beispielsweise trigonometrische) Funktionen angebracht.<br />
Mit Hilfe eines Zirkels konnten dann einzelne Werte best<strong>im</strong>mt werden. Im 17. Jahrhundert<br />
erlangten Quadranten und Proportionalzirkel als wichtige Rechenhilfsmittel eine weite<br />
Verbreitung. Mit ihnen war neben dem Ablesen geometrischer und astronomischer Skalen<br />
unter Zuhilfenahme eines Zirkels auch das Multiplizieren und Dividieren möglich.<br />
Die Einführung logarithmischer Skalen in der ersten Hälfte des 17. Jahrhunderts reduzierte die<br />
Multiplikation zweier Zahlen auf die Addition von zwei logarithmischen Strecken - ebenfalls mit<br />
Hilfe eines Zirkels. Einfacher wurde das Rechnen mit logarithmischen Skalen durch die<br />
19
Einführung des Rechenschiebers, bei dem zwei oder mehr Skalen gegeneinander verschoben<br />
werden können. Das Problem bei all diesen Geräten ist die geringe Genauigkeit (2–4<br />
Dez<strong>im</strong>alstellen), die durch Verlängerung der Skalen erhöht werden kann. Man konstruierte für<br />
genauere Berechnungen längere Rechenschieber oder ordnete die logarithmischen Skalen<br />
auf Walzen an.<br />
Bei allen bisher beschriebenen Instrumenten ist das Ergebnis <strong>im</strong>mer direkt von der Einstellung<br />
abhängig. Beispielsweise ergibt die Multiplikation durch Aneinanderlegen zweier<br />
logarithmischer Skalen, innerhalb einer gewissen Genauigkeit, <strong>im</strong>mer dasselbe Resultat, das<br />
für weitere Berechnungen in einem anderen Medium aufbewahrt werden muss – meist durch<br />
Aufschreiben auf Papier. Zur Vereinfachung vieler Rechnungen ist es von Vorteil, dieses<br />
Übertragen von Werten zu reduzieren und Zwischenergebnisse direkt weiterverwenden zu<br />
können. Be<strong>im</strong> Ausrechnen eines best<strong>im</strong>mten Integrals wird das Ergebnis durch eine<br />
Summation von Funktionswerten erzielt, wobei der jeweils aktuelle Funktionswert zum<br />
bisherigen Wert addiert wird. Solch ein „Aufsummieren“ lässt sich mit speziellen<br />
mechanischen Integratoren durchführen, bei denen <strong>im</strong> Integrator das Zwischenergebnis<br />
„gespeichert“ wird.<br />
In der ersten Hälfte des 19. Jahrhunderts, wurden eine Reihe so genannter Plan<strong>im</strong>eter<br />
entwickelt, mit denen graphisch aufgezeichnete Funktionen integriert und Flächeninhalte<br />
best<strong>im</strong>mt werden konnten. Lord Kelvin zeigte bereits, dass sich durch eine rückgekoppelte<br />
Zusammenschaltung der Kugelintegratoren seines Harmonic Analysers prinzipiell auch<br />
Differentialgleichungen beliebigen Grades lösen lassen. Das von den Kugelintegratoren<br />
übertragene Drehmoment reichte jedoch nicht aus, um mehrere mit Reibung behaftete<br />
mechanische Elemente miteinander zu verbinden.<br />
2.3.2 Der Übergang zum <strong>digitale</strong>n Rechner<br />
In den 1920er Jahren wurde unter der Leitung von Vannevar Bush am MIT ein Gerät zur<br />
Behandlung von Differentialgleichungen zweiter Ordnung – der so genannte Produktintegraph<br />
– entwickelt. Bei diesem wurden ein elektrischer Stromzähler und ein Scheibenintegrator als<br />
zweites Integrationsglied miteinander verbunden.<br />
Dabei stellte sich der mechanische Scheibenintegrator als das einfachere und genauere<br />
Integrationsglied heraus. Um mehrere Scheibenintegratoren zusammenschalten zu können,<br />
musste jedoch das Problem der Ungenauigkeit durch Reibung und Schlupf gelöst werden.<br />
Harold Hazen, ein Mitarbeiter Bushs schlug vor, einen von C. W. Niemann entwickelten<br />
mechanischen Drehmomentverstärker einzusetzen. Damit konnten nun in der ersten Version,<br />
sechs Scheibenintegratoren zusammen mit anderen mechanischen Rechengetrieben sowie<br />
manuell bedienbare Eingabetische für spezielle Funktionswerte und Ausgabetische zum<br />
Aufzeichnen der Ausgabefunktion gekoppelt werden. Da der Umbau für eine neue<br />
Differentialgleichung sehr aufwendig war, wurde dieser Differential Analyzer <strong>im</strong><br />
20
Wesentlichen dort eingesetzt, wo eine Differentialgleichung für sehr viele Werte berechnet<br />
wurde. Beispielsweise best<strong>im</strong>mte man während des zweiten Weltkriegs<br />
Geschossflugbahnen, so genannte Trajektorien, mit unterschiedlichen Koeffizienten und<br />
Anfangsbedingungen, um daraus Schießtabellen zu generieren. Der Differential Analyser<br />
wurde auf der ganzen Welt nachgebaut und hat die Entwicklung des ENIAC (Electronic<br />
Numerical Integrator and Computer) maßgeblich beeinflusst, der als schnelles elektronisches<br />
Pendant zum an der Moore School eingesetzten Differential Analyzer geplant wurde. Der<br />
ENIAC wiederum gilt als wichtiger Ausgangspunkt für die Entwicklung elektronischer Rechner.<br />
Da der Umbau des mechanischen Differential Analysers sehr aufwendig war, wurde der<br />
zweite große Differential Analyser von Vannevar Bush 1942 zwar mit Scheibenintegratoren,<br />
aber mit „elektronischen Wellen“ gebaut. 28<br />
Wie oben bereits gezeigt, wurden die Rechner dann vollständig elektronisch. Die Mechanik<br />
wurde durch elektrische Schaltungen ersetzt, so dass der Rechner flexibel programmierbar<br />
wurde. Der <strong>digitale</strong> Rechner war geboren. Der Begriff digital wird sehr oft mit binär in<br />
Verbindung gebracht. So wird häufig vom Digitalrechner gesprochen, der ja mit einem binären<br />
Zahlensystem arbeitet. Der Digitalrechner ist eine Maschine, die nicht mechanisch, sondern mit<br />
einem vorgegebenen Vorrat an Zeichen, konkret Zahlen arbeitet. Grundsätzlich kann dies mit<br />
allen Zahlensystemen realisiert werden, aber die binäre, also auf zwei Zustände reduzierte<br />
Darstellung ist sehr geschickt. Denn sie kann sehr einfach mit den zwei Zuständen Strom<br />
„fließt“ oder „fließt nicht“ umgesetzt werden. Wie also die beiden Begriffe zusammenhängen<br />
soll <strong>im</strong> Folgenden gezeigt werden.<br />
2.4 Das Binär- und Dez<strong>im</strong>alsystem<br />
Für die meisten Menschen scheint das be<strong>im</strong> Zählen übliche dez<strong>im</strong>ale Zahlensystem<br />
naturgegeben zu sein. Es wird selten als Erfindung des Menschen angesehen. Von den<br />
ersten Anfängen des Zählens und des Ordnens bis zu unserem, den Alltag beherrschenden<br />
dez<strong>im</strong>alen Zahlensystem war es ein langer Weg. Die Erfindung des Dez<strong>im</strong>alsystems muss<br />
man aus der heutigen Sicht als geniale Leistung bezeichnen. Um hiervon eine Vorstellung zu<br />
bekommen, wollen wir uns kurz mit der allgemeinen Problematik des Zählens<br />
auseinandersetzen. Dabei versteht man, dass andere Zahlensysteme genauso natürlich sind<br />
wie das dez<strong>im</strong>ale.<br />
Ein Schäfer der Abends seine Schafe durchzählen wollte, konnte dies einfach tun, indem er<br />
die Menge der Schafe mit der Menge der kleinen Steine in seinem Lederbeutel verglich. Wenn<br />
die Mengen übereinst<strong>im</strong>mten konnte er beruhigt sein Schäferstündchen beginnen. Die<br />
Grenzen dieses vergleichenden Systems waren aber schnell erreicht, denn mit zunehmender<br />
Größe der Herde, hätte der Schäfer eine ebenso große Menge an Vergleichsgegenständen<br />
28 Vgl. Vortrag: Andreas Brennecke, Physikalische Analogien und Ziffernrechenmaschinen – Von mechanischen Rechengeräten zu<br />
Integrieranlagen und programmgesteuerten Maschinen.<br />
Quelle: http://iug.uni-paderborn.de/iug/veroffentlichungen/2000/anbr_greifswald/text.html (11.3.2002)<br />
21
herumtragen müssen. Dieses Problem konnte mit einer Übertragung der konkreten<br />
Vergleichsgegenstände auf abstrakte Zeichen gelöst werden. Nehmen wir an, der<br />
vorgeschichtliche Mensch habe Feuersteine hergestellt und sie zum Tausch angeboten. Um<br />
dieses Geschäft bewältigen zu können, hat er Symbole erfunden (und mit anderen Menschen<br />
vereinbart), die jeweils die Anzahl der Tauschobjekte oder deren Wert repräsentierten.<br />
Dies mag ursprünglich so ausgesehen haben, wie es Abbildung 4 (links) zeigt. Dieses<br />
Strichlisten-Verfahren ist heute noch gebräuchlich zum Beispiel bei einer Verkehrszählung<br />
oder auf dem Bierdeckel in der Gaststätte. Auch der Ausdruck „etwas auf dem Kerbholz<br />
haben“ ergibt sich übrigens so. Das Kerbholz war ein Gegenstand auf dem zum Beispiel<br />
Schulden eingeritzt wurden, um Streitigkeiten zu vermeiden. Jeder konnte den Stand ablesen<br />
und einer nachträglichen falschen Behauptung war vorgebeugt.<br />
Mit der wachsenden Anzahl der zu zählenden Elemente n<strong>im</strong>mt bei diesem System natürlich<br />
auch die Anzahl des wiederkehrenden gleichen Symbols zu. Bei großen Stückzahlen wird<br />
das Ganze bald nicht mehr überschaubar.<br />
Eine andere denkbare Möglichkeit der Darstellung von Zählergebnissen zeigt Abbildung 4<br />
(rechts). Für jede best<strong>im</strong>mte Anhäufung von abzuzählenden Elementen wird ein der Anzahl<br />
entsprechendes Symbol gesetzt. Das Problem hierbei ist, dass mit größer werdender Anzahl<br />
der Elemente irgendwann einmal der Vorrat an Symbolen erschöpft ist. Darüber hinaus führt<br />
die Vielfalt der Symbole unvermeidlich zu Verwirrungen und zu Mißverständnissen.<br />
I<br />
II<br />
III<br />
I<br />
∆<br />
Abbildung 4 : Zählen nach dem Strichlisten-Verfahren / Zählen durch Symbol-Zuordnung<br />
Die große Errungenschaft des Zählens war die Begrenzung der Symbole. Das erstaunliche<br />
war, dass ein System entwickelt werden konnte, das mit einer endlichen Anzahl von<br />
Symbolen beliebig viele Zahlen beschreiben konnte. Dazu mussten die wenigen festgelegten<br />
Symbole mehrfach verwendet werden. Die ersten Ansätze dazu finden sich bereits bei den<br />
Römischen Zahlen. Je nach Kombination der Symbole ergeben sich verschiedene<br />
Zahlenwerte, wobei das Repertoire der zur Verfügung stehenden Symbole begrenzt ist.<br />
Allerdings war das System sehr unübersichtlich und damit nicht sehr praktisch. Dies zeigt<br />
sich auch darin, dass in dieser Zeit nur sehr wenige mathematische Weiterentwicklungen<br />
entstanden.<br />
Der wesentliche Trick war dann ein so genanntes Positionssystem zu entwickeln. Dabei<br />
verwendet man eine begrenzte Anzahl von verschiedenen Symbolen. Diese werden je nach<br />
der Position auf der sie stehen unterschiedlich gewichtet.<br />
22
Im dez<strong>im</strong>alen Zahlensystem werden die zehn verschiedenen Ziffern 0 bis 9 in der so<br />
genannten Stellenschreibweise eingesetzt. So ist zum Beispiel die Zahl 124,3 als eine<br />
Abkürzung der ausführlichen Summenschreibweise 1 * 100 + 2 * 10 + 4 * 1 + 3 * 0.1<br />
aufzufassen. Die einzelnen Ziffern werden entsprechend ihrer Position <strong>im</strong> Stellensystem mit<br />
Gewichten multipliziert, die Potenzen von 10 sind. Die 10 ist dabei die so genannte Basis, da<br />
alle Gewichte in der Form 10 hoch x dargestellt werden können. Die Basis dieser Potenzen<br />
gibt dem Zahlensystem den Namen „Zehnersystem“, also „Dez<strong>im</strong>alsystem“ oder auch<br />
„dez<strong>im</strong>ales Zahlensystem“.<br />
Dez<strong>im</strong>alzahl ... 1 2 4 , 3 ...<br />
Stelle ... 2 1 0 -1 .... 1 * 100 + 2 * 10 + 4 * 1 + 3* 0.1<br />
Gewichtung 100 10 1 0.1<br />
Abbildung 5 : Schematische Darstellung der Funktionsweise des Dez<strong>im</strong>alsystems<br />
Man könnte natürlich ohne weiteres eine andere Zahl als Basis für ein Zahlensystem wählen.<br />
So wird be<strong>im</strong> „Binären-“ oder „Dualsystem“ die Zwei als Basis genommen. Jetzt werden alle<br />
Zahlen mit den Gewichten der Form 2 hoch x multipliziert. Wenn man zum Beispiel die dez<strong>im</strong>ale<br />
Zahl 11 binär darstellen will, muss man sie schrittweise in Potenzen von 2 auflösen. Dies sieht<br />
dann so aus: 1 * 8 + 0 * 4 + 1 * 2 + 1 * 1. Also entspricht die binäre Zahl 1011 der dez<strong>im</strong>alen<br />
11. Mit genau diesem Zahlensystem arbeiten die Digitalrechner, weil alle Zahlen mit nur zwei<br />
Symbolen, eben der Null und der Eins dargestellt werden können. Mit Computern können aber<br />
nicht nur Zahlen, sondern auch Schrift oder <strong>Bilder</strong> verarbeitet werden. Dies geschieht zum<br />
Beispiel bei der Schrift durch Zuordnung von Buchstaben zu binären Zahlen. Die<br />
Informationen müssen also codiert werden. Damit nicht jeder Rechner ein anderes System der<br />
Zuordnung verwendet, wurden in diesem Zusammenhang Standards definiert. Einer dieser<br />
Standards ist der so genannte ASCII-Code (American Standard Code for Information<br />
Interchange). Er legt zum Beispiel fest, dass der Buchstabe „A“ den binären Code „1000001“<br />
besitzt (dez<strong>im</strong>al 65). Über die Begriffe „Code“ und „Information“ wird <strong>im</strong> Folgenden noch<br />
ausführlich zu sprechen sein. Denn wie bereits gesagt, werden ja auch <strong>Bilder</strong> derart codiert<br />
und um diese wollen wir uns speziell kümmern.<br />
2.5 Konsequenzen<br />
Die Klärung der Begriffe und der Rückblick in die Begriffsgeschichte haben eine gute<br />
Vorstellung von den Bedeutungen der Begriffe gegeben. Es ist jetzt klar, dass der Begriff<br />
„digital“ in seiner Bedeutung, wenn er <strong>im</strong> Zusammenhang mit Medien verwendet wird, sehr<br />
23
jung ist. Die neue Bedeutung <strong>im</strong> Sinne von „in Stufen, in Schritten“ wurde erst mit der<br />
Entwicklung der „Ziffernrechenmaschinen“, also den „<strong>digitale</strong>n“ Rechnern geprägt. Diese sind<br />
als Weiterentwicklung der bis dahin vorhandenen „<strong>analoge</strong>n“ Rechner beziehungsweise<br />
Rechenmaschinen entstanden. Wir haben gesehen, dass die „<strong>digitale</strong>n“ Rechner <strong>im</strong><br />
Unterschied zu den <strong>analoge</strong>n Apparaten elektronisch und mit einem Zeichenvorrat arbeiten,<br />
also mit einem vorgegebenen Symbolsystem. Dabei ist dieses Symbolsystem in seinem<br />
Umfang beschränkt, besitzt nur endlich viele verschiedene Symbole.<br />
Wir können festhalten, dass die Frage, warum <strong>analoge</strong> Medien, als analog bezeichnet<br />
werden, zunächst nur teilweise beantwortet werden kann. Eine Möglichkeit der<br />
Beantwortung ergibt sich aus der Bedeutung und der Begriffsgeschichte, indem man sagt,<br />
dass <strong>analoge</strong> <strong>Bilder</strong> eine Entsprechung, dessen was sie darstellen, aufweisen. Dies wäre<br />
zum Beispiel bei einem gemalten oder gezeichneten Porträt der Fall oder bei einer Fotografie<br />
mit ihrer hohen „Wiedergabetreue“. In allen Fällen besteht sozusagen eine Ähnlichkeit<br />
zwischen dem Bild und dem Abgebildeten. Dabei besitzt das Wort „analog“, wenn man es in<br />
dieser Bedeutung versteht, kein zugehöriges Gegenstück in den Bedeutungen des Wortes<br />
„digital“. In diesem Sinne kann <strong>im</strong> Übrigen auch ein <strong>digitale</strong>s Bild analog sein. Wenn man daran<br />
denkt, dass man eine Porträtfotografie auch „einscannen“, also in den Computer einlesen kann<br />
und diese dann digital vorliegt. Hierbei würde es sich dann um ein <strong>analoge</strong>s <strong>digitale</strong>s Bild<br />
handeln. Ein erster Eindruck der sich aufzwängt ist, dass wir mit den begrifflichen<br />
Annäherungen keine besonders klare Vorstellung der spezifischen Eigenschaften der beiden<br />
Medienklassen erhalten haben. Es scheint als wären die Begriffe nicht selbsterklärend.<br />
Aber da gibt es ja noch die andere Bedeutungsebene der beiden Begriffe: „Analog“ <strong>im</strong> Sinne<br />
von „kontinuierlich“, als Gegenstück zu „digital“ <strong>im</strong> Sinne von „in Stufen, in Schritten“ oder<br />
auch „diskret“. Um dies auf die Situation der <strong>Bilder</strong> zu übertragen und den Zusammenhang zu<br />
den Eigenschaften herstellen zu können, müssen wir uns <strong>im</strong> Folgenden etwas eingehender<br />
mit den Medien und ihren Produktionsbedingungen beschäftigen.<br />
24
3. Analoge und <strong>digitale</strong> Bildmedien<br />
3.1 Grundsätzliches<br />
Es gibt so genannte <strong>analoge</strong> und <strong>digitale</strong> Bildmedien 29 . Ziel dieses Kapitels soll es sein, die<br />
Eigenschaften der <strong>analoge</strong>n und <strong>digitale</strong>n Medien darzulegen. Wenn man dann die<br />
Unterschiede betrachtet, kann man feststellen, welches die spezifische Eigenschaften der<br />
<strong>analoge</strong>n und <strong>digitale</strong>n Medien sind. Am Beispiel der Fotografie werden die Verfahren<br />
vorgestellt und ihre Unterschiede heraus gearbeitet.<br />
Die Fotografie bietet sich aus zwei Gründen an. Zum einen gibt es in der Fotografie beide<br />
Verfahren, also sowohl die <strong>analoge</strong>, als auch die <strong>digitale</strong> Verarbeitung. Dies macht einen<br />
Vergleich sinnvoll und auch einfacher. Zum anderen habe ich durch eigene künstlerische<br />
Arbeit mit diesem Medium selbst praktische Erfahrungen sammeln können.<br />
Um die Erkenntnisse allgemein zu halten, sie also nicht ausschließlich auf die Fotografie zu<br />
beziehen, wird <strong>im</strong> Anschluss das grundsätzliche Prinzip der Digitalisierung und des inversen<br />
Verfahrens der Analogisierung erläutert. Schließlich sollen also die beiden abstrakten<br />
Transformationsprozesse dargestellt werden.<br />
Im Folgenden werde ich mich <strong>im</strong> wesentlichen auf Veröffentlichungen von Christian<br />
Wittwer 30 , sowie Gottfried Jäger 31 beziehen, weil ich bei der Durchsicht der Literatur viele<br />
meiner Gedanken dort bereits angedacht fand.<br />
29 „Das Wort Medium kann in drei verschiedenen Bedeutungen verstanden werden. So wird es <strong>im</strong> allgemeinen Sprachgebrauch<br />
(erstens), als Wort, heißt Medium „Mittel“ oder „Vermittelndes“. In verschiedenen Disziplinen wird Medium sodann (zweitens) als<br />
Fachbegriff verwendet. In diesem Sinn spricht die Pädagogik von den „Unterrichtsmedien“, die Literaturwissenschaft vom Medium<br />
„Literatur“, die Musikwissenschaft vom „Medium Musik“, die Kunstwissenschaft vom „Medium Kunst“, die Sprachwissenschaft vom<br />
„Medium Sprache“. In diesem Zusammenhang spielt aber der Medienbegriff keine zentrale Rolle für die jeweilige Fachwissenschaft;<br />
vielmehr wird „Medium“ in aller Regel nur <strong>im</strong> übertragenen, <strong>analoge</strong>n Sinn gebraucht, oder es dominiert der Charakter des<br />
Instrumentellen. Darauf kann kaum deutlich genug hingewiesen werden: Wenn man vom Licht oder vom Rad, von der Uhr oder von der<br />
Schreibmaschine usf. als von „Medien“ spricht (z.B. Marshall McLuhan), dann sind damit stets nur ganz allgemein, oft metaphorisch<br />
umkleidet, Werkzeuge oder Mittel oder Instrumente gemeint. In dieser Form kann schlechthin alles ein Medium sein.<br />
Einige Disziplinen widmen sich zentral dem „Medium“, und hier kann man nicht mehr lediglich von Begriffen oder gar nur Wörtern<br />
sprechen, sondern hier wurde (drittens) komplexere theoretische Bedeutungen von „Medium“ als spezifische Phänomen entwickelt.<br />
Schon in der Terminologie unterscheiden sich die Auffassungen beträchtlich voneinander: Einmal heißt Medium „Zeichenvorrat“<br />
(Informatik und Kybernetik), dann „technischer Kanal“ (Kommunikationssoziologie und Massenkommunikationsforschung/Publizistikwissenschaft),<br />
dann wiederum „ästhetisches Kommunikationsmittel“ (Einzelmedientheorie und<br />
Medienwissenschaft) oder schließlich „gesellschaftliche Interaktion“ (Soziologie, speziell Systemtheorie). Neuerdings wird verstärkt<br />
vom einzelnen Medium als einem eigenständigen „System“ gesprochen; teilweise meint System hier aber auch die Gesamtheit aller<br />
Medien.“ Werner Faulstich (Hrsg.), Grundwissen Medien, 4. Auflage, Wilhelm Fink Verlag, München 2000, S. 21<br />
Das Wort Medium wird <strong>im</strong> Folgenden in der Bedeutung „ästhetisches Kommunikationsmittel“ verwendet werden.<br />
30 Christian Wittwer, Das <strong>digitale</strong> Bild ist keine Fotografie, in: Neue Zürcher Zeitung 8.11.1996<br />
31 Gottfried Jäger, Andreas Dress (Hrsg.), Visualisierung in Mathematik, Technik und Kunst, Vieweg, Braunschweig, Wiesbaden 1999<br />
25
3.2 Analoge und <strong>digitale</strong> Darstellungen<br />
3.2.1 Einführung<br />
Um <strong>analoge</strong> und <strong>digitale</strong> Medien zu verstehen, ist es nützlich zunächst eine Vorstellung von<br />
<strong>analoge</strong>n und <strong>digitale</strong>n Darstellungen zu haben. Eines der augenfälligsten<br />
Unterscheidungsmerkmale zwischen <strong>analoge</strong>r und <strong>digitale</strong>r Darstellung findet man bereits bei<br />
der Darstellung von Größen- und Sachzusammenhängen. Zur Darstellung von Größen, zum<br />
Beispiel physikalischer Natur, können zwei grundsätzlich verschiedene Prinzipien<br />
angewendet werden. Beide gebräuchliche Darstellungsformen, die <strong>analoge</strong> wie auch die<br />
<strong>digitale</strong> Darstellung, sind gewiß bekannt. Dennoch kurz zur Erinnerung ein erstes Beispiel:<br />
Europa<br />
Asien<br />
Afrika<br />
Amerika<br />
Australien und Ozeanien<br />
10 000 000 km 2<br />
44 200 000 km 2<br />
29 800 000 km 2<br />
42 000 000 km 2<br />
8 900 000 km 2<br />
Abbildung 6: <strong>analoge</strong> bzw. <strong>digitale</strong> Darstellung der Landflächen der Erdteile<br />
Es sind die Landflächen der Erdteile vergleichend darzustellen. In der <strong>analoge</strong>n<br />
Darstellungsform (Abbildung 6 links) werden die Landflächen der Erdteile zum Beispiel durch<br />
Rechtecke dargestellt, deren Länge ein Maß für die Größe der Erdteile sind und die mit einem<br />
Vergleichsnormal, zum Beispiel 1 cm = 10 Mill. km 2 , verglichen werden müssen. Es besteht<br />
eine Analogie zwischen den Rechtecklängen und den Landflächen der Erdteile. Oder mit<br />
anderen Worten: Die Längen der dargestellten Rechtecke stehen <strong>im</strong> richtigen Verhältnis zu<br />
den Landflächen der Erdteile, es besteht Verhältnisgleichheit.<br />
Bei der <strong>digitale</strong>n Darstellung der gleichen Gegebenheiten werden die Erdteilflächen durch<br />
Zahlenangaben, das heißt durch ein Aneinanderreihen verschiedener Ziffern (digits),<br />
dargestellt (Abbildung 6 rechts). Es ist ersichtlich, dass durch Hinzufügen weiterer Ziffern die<br />
Genauigkeit der Flächenangaben erhöht werden könnte.<br />
In der alltäglichen Welt sind nahezu alle Erscheinungen analog. Dabei können die<br />
physikalischen Größen, mit denen Vorgänge beschrieben werden, beliebige Zwischenwerte<br />
annehmen. Ein weiteres Beispiel kann diese verdeutlichen: Ein Auto beschleunigt von 0 auf<br />
100 km/h. Während der Beschleunigung durchläuft es alle Geschwindigkeiten, die es<br />
zwischen 0 km/h und 100 km/h gibt, also unendlich viele. Mit einem mechanischen<br />
Tachometer, der mit einem Zeiger arbeitet, kann jeder dieser unendlich vielen<br />
Geschwindigkeiten angezeigt werden, weil der Zeiger ebenfalls unendlich viele Positionen<br />
überstreicht beziehungsweise anzeigt. Anschaulich verändert sich der Zeigerausschlag mit<br />
26
steigender Geschwindigkeit. Der Zeiger ist daher ein <strong>analoge</strong>s Meßgerät. Ganz anders sieht<br />
es mit einem Tachometer aus, der die Geschwindigkeit mit Ziffern angibt. Dieser Tachometer<br />
wird mit einer Geschwindigkeit von 0 km/h beginnen und dann während der Beschleunigung<br />
über 1 km/h, 2 km/h usw. bis 100 km/h hochzählen. Ein solcher Tachometer liefert <strong>digitale</strong><br />
Daten. Er kann nur eine endliche Anzahl von Werten anzeigen. Alle Zwischenwerte werden<br />
entweder aufgerundet oder abgerundet. Während also <strong>analoge</strong> Daten kontinuierliche Werte<br />
mit beliebig vielen Zwischenstufen annehmen können, sind <strong>digitale</strong> Daten auf diskrete Werte<br />
beschränkt. Dies ist als ein bedeutender Unterschied der beiden Darstellungsformen<br />
festzuhalten.<br />
3.3 Funktionsweise <strong>analoge</strong>r / <strong>digitale</strong>r Medien am Beispiel der Fotografie<br />
Diese beiden grundsätzlichen Prinzipien wirken auch in den künstlerischen Medien. Die<br />
Fotografie bietet bei einer Untersuchung den Vorteil, dass beide Verfahren in der Fotografie<br />
realisiert wurden. Im Folgenden werden die beiden Methoden zunächst von ihrer technischen<br />
Seite beleuchtet. Daran schließt ein gründlicher Vergleich beider Medien an. Ausgehend vom<br />
anschaulichen Beispiel, können dann die abstrakten Vorgänge <strong>im</strong> Digitalisierungs- und<br />
Analogisierungprozess beschrieben werden.<br />
3.3.1 Analoge Fotografie<br />
„Fotografie ist die technologische Verknüpfung des optischen Prinzips der<br />
perspektivischen Wahrnehmungsweise mit dem chemischen Aufzeichnungsverfahren der<br />
empfindlichen fotografischen Schicht.“ 32<br />
Was Bernd Busch hier kurz und prägnant beschreibt, sind die beiden Grundlagen der<br />
<strong>analoge</strong>n Fotografie. Hinter dem chemischen Aufzeichnungsverfahren stecken konkret die<br />
lichtempfindlichen Eigenschaften von Silberhalogeniden, von der chemischen Verbindung<br />
aus Silber und Halogenen (Brom, Chlor oder Iod). Bei der Belichtung eines Filmes, der aus<br />
einer festen Dispersion von feinsten Silberhalogenidkörnern in einem Schutzkolloid<br />
(Gelatine) auf einer transparenten Trägerschicht aus Celluloseacetat oder Polyester<br />
besteht, gehen die Silberhalogenide chemische Reaktionen ein und bilden ein so genanntes<br />
latentes Bild (die Dispersion wird <strong>im</strong> Allgemeinen Sprachgebrauch auch als Emulsion<br />
bezeichnet). Bei der Entwicklung eines Filmes wird das latente – verborgene – Bild sichtbar<br />
und beständig. Die so erhaltene Abbildung wird als Negativ bezeichnet, da in ihr dunkle<br />
Stellen des Ursprungsmotivs hell, helle aber dunkel wiedergegeben werden. Bei<br />
Farbnegativen sind Farbwerte komplementär wiedergegeben. In einem zweiten<br />
32 Bernd Busch, Belichtete Welt - Eine Wahrnehmungsgeschichte der Fotografie, Fischer Verlag, Frankfurt am Main 1995, S. 8<br />
27
Belichtungsprozess, bei dem der fotografische Papierabzug entsteht, werden diese Werte<br />
erneut umgekehrt und so den realen Farbgegebenheiten des Motivs angepaßt (Negativ-<br />
Positiv-Verfahren). Die für die Fotografie relevanten physikalischen Grundsätze sind<br />
maßgeblich solche der geometrischen Optik. Dies gilt sowohl für die <strong>analoge</strong>, als auch für<br />
die <strong>digitale</strong> Fotografie. Fotografische Filme weisen hinsichtlich ihrer Reaktionen auf<br />
verschiedene Wellenlängen des Lichtes unterschiedliche Eigenschaften auf. Die ersten<br />
Schwarzweißfilme reagierten nur auf die kürzeren Wellenlängen des sichtbaren Spektrums,<br />
also auf blaues Licht. Später wurden den Filmemulsionen chemische Stoffe<br />
(Sensibilisatoren) beigemischt, um die fotografische Schicht auch für andere Wellenlängen<br />
empfänglich zu machen. So ist der orthochromatische Film für jedes Licht (außer für rotes)<br />
empfindlich und stellte somit eine deutliche Verbesserung gegenüber dem blauempfindlichen<br />
Schwarzweißfilm dar. Be<strong>im</strong> panchromatischen Film endlich sind der Emulsion auch<br />
Sensibilisatoren für rotes Licht beigemischt, wodurch der Film für den gesamten sichtbaren<br />
Spektralbereich empfänglich wird. Daher benutzt die Mehrzahl der Amateur- und<br />
Berufsfotografen heute den panchromatischen Filmtyp. Eine spezielle Art des<br />
Schwarzweißfilmes ist der Reprofilm, der in erster Linie zur Reproduktion in den<br />
graphischen Künsten verwendet wird. Reprofilme sind extrem kontrastreich, so dass <strong>Bilder</strong><br />
entstehen, die als Werte nur Schwarz und Weiß, also keinerlei Grauabstufungen,<br />
aufweisen. Weitere Spezialfilme sind für Wellenlängen empfindlich, die über das sichtbare<br />
Spektrum des Lichtes hinausgehen. Dazu gehören zum Beispiel Infrarotfilme. Sofortbildfilme<br />
für spezielle Kameras, die Ende der vierziger Jahre von Polaroid entwickelt wurden, geben<br />
die fertigen Abzüge kurz nach der Aufnahme aus, dabei ist der Entwickler als Paste in das<br />
Filmpapier integriert.<br />
3.3.2 Digitale Fotografie<br />
Von Digitaler Fotografie spricht man, wenn zur Aufnahme Kameras eingesetzt werden, bei<br />
denen anstelle des Films eine aus CCD-Elementen gebildete Rezeptionsfläche in der<br />
Fokussierebene liegt. Dieser Chip wandelt die einfallende Lichtenergie in elektrische Energie<br />
um. Als Bildsensor ist er das Herzstück der Digitalen Kamera und seine Qualität entscheidet<br />
letztlich über die Qualität der Fotos. Zu den wichtigsten Charakteristika zählen die Anzahl der<br />
Sensorzellen (Pixelauflösung) und die Art, wie die Farbinformation gewonnen wird.<br />
Die Mehrzahl aller <strong>digitale</strong>n Video- und Fotokameras ist derzeit noch mit CCD-Bildsensoren<br />
ausgestattet. Jedes Sensorelement besteht aus einer lichtempflindlichen Fotozelle und einer<br />
ebenso winzigen Speicherzelle. Fotozellen wandeln Licht in elektrische Spannung, die sofort<br />
in der Speicherzelle als elektrische Ladung gespeichert wird. Das Akronym „CCD“ steht dabei<br />
für „charge coupled devices“ (etwa „ladungsgekoppelte Halbleiterelemente“). Der Name<br />
verweist auf die zeilenweise Zusammenschaltung der einzelnen Elemente, die das lineare<br />
28
„Herausschieben“ der elektrischen Ladungen mittels eines Taktsignals erlaubt. Die Ladungen<br />
werden einfach von Element zu Element durchgereicht,<br />
bis die Zeile leer ist. Auf diese Weise<br />
entsteht aus den ursprünglich parallel<br />
vorliegenden Informationen ein serielles Signal,<br />
wie es die Computertechnik benötigt. CCD-<br />
Sensoren, die nur aus einer Zeile bestehen,<br />
arbeiten übrigens seit langem in Faxgeräten und<br />
Flachbettscannern. Der Papiertransport oder das<br />
Bewegen eines Schlittens unter dem<br />
Vorlagenglas schafft dabei die zweite D<strong>im</strong>ension,<br />
die dem Zeilensensor fehlt. In Kameras<br />
Analog-Digital-Wandler, ein elektronisches<br />
Gerät, mit dem <strong>analoge</strong> Daten für elektronische<br />
Anlagen wie Digitalcomputer, <strong>digitale</strong> Kassettenund<br />
Videorekorder und Kommunikationsgeräte in<br />
<strong>digitale</strong> Daten umgewandelt werden. Als Eingabe<br />
erhält der Wandler <strong>analoge</strong> oder kontinuierlich<br />
variierende elektrische Wellen, deren Werte in<br />
gleichbleibenden Zeitabständen gemessen werden<br />
(Sampling). Diese Werte drückt das Gerät als<br />
<strong>digitale</strong> Zahl aus. Die sich ergebenden Digitalcodes<br />
können in verschiedenen Arten von<br />
Kommunikationssystemen verwendet werden.<br />
sind ganze CCD-Matrizen (Flächensensoren) eingebaut, doch das Prinzip bleibt gleich. In<br />
<strong>digitale</strong>n Video- und Fotokameras wird das <strong>analoge</strong> Signal mit einem Analog-Digital-Wandler<br />
(A/D-Wandler) in Zahlenwerte umgewandelt. Das Hauptkennzeichen eines Bildsensors ist<br />
die Anzahl der Sensorzellen. Sie best<strong>im</strong>mt maßgeblich die erzielbare Bildauflösung und wird<br />
bei Digitalkameras oft als Pixelauflösung angegeben. Strenggenommen ist die in Pixel<br />
gemessene Bildauflösung jedoch nur dann mit der Anzahl der CCD-Zellen identisch, wenn es<br />
sich um einen Sensor für Schwarzweiß-Aufnahmen handelt. Bei den Farbdigitalkameras für<br />
den Consumerbereich liegt die theoretisch erzielbare Bildauflösung, physikalisch bedingt,<br />
<strong>im</strong>mer unter der Anzahl der Sensorzellen.<br />
CCD-Sensoren sind nämlich, genauso wie Silberhalogenidkristalle, grundsätzlich nicht farbsondern<br />
nur lichtempflindlich. Es gibt momentan verschiedene Verfahren, um zu den<br />
Farbinformationen zu gelangen. Man kann beispielsweise drei Filterfolien in den Grundfarben<br />
Rot, Grün und Blau nacheinander über den Sensorchip legen und jeweils eine Aufnahme<br />
machen. Eine andere Möglichkeit ist das Ausleuchten des Motivs mit Lampen in den drei<br />
Grundfarben, ebenfalls nacheinander. Da für eine Farbaufnahme drei Einzelaufnahmen<br />
notwendig sind, heißen diese Kameras Multi-Shot-Kameras.<br />
Statt einen Chip durch drei Farbfilter dre<strong>im</strong>al zu belichten, kann man auch drei Sensorchips,<br />
die jeweils ihren eigenen Farbfilter tragen, optisch parallel schalten (mittels halbdurchlässiger<br />
Spiegel). Auch hierbei entstehen drei <strong>Bilder</strong> in den Grundfarben, doch nun mit einer einzigen<br />
Aufnahme, man spricht von One-Shot-Kameras. Diese Technik ist aber nur in professionellen<br />
Video- und Digitalkameras verwirklicht.<br />
Außerhalb der Studios sind solche Techniken zu langsam, zu teuer oder beides.<br />
Digitalkameras für den Consumer-Markt arbeiten deshalb mit Sensorchips, deren<br />
lichtempfindliche Zellen jede für sich farbempfindlich gemacht wurden. Dazu dienen<br />
fotochemisch aufgebrachte, transparente Lack-Linsen in den Grundfarben Rot, Grün und<br />
Blau. Die Farben wechseln von Zelle zu Zelle. Ähnlich arbeitet das Auge, dessen Netzhaut ja<br />
bekanntlich ebenfalls drei Sorten von farbempfindlichen Zäpfchen enthält.<br />
29
Die Farbfähigkeit wird bei dieser Methode allerdings mit einer Verringerung der Auflösung<br />
erkauft, denn für ein Bild-Pixel mit der vollen RGB-Farbinformation werden die Werte von drei<br />
Fotozellen benötigt. In der Praxis versucht man durch geschickte Interpolation den<br />
Auflösungsverlust zu verringern. Trotzdem kann die Pixel-Auflösung einer Digitalkamera, die<br />
nach diesem Prinzip arbeitet, nie mit der Anzahl der lichtempfindlichen Elemente auf dem<br />
Sensorchip identisch sein. Letztere wird aber in der Werbung und in den Produktinformationen<br />
als Pixel-Auflösung beworben. Eine Kamera mit einer Auflösung von 1,5 Megapixel (1,5<br />
Millionen) Sensorzellen hat streng genommen nur eine physikalische Auflösung von etwa<br />
500.000 Pixeln, auch wenn sie durch Interpolation beispielweise 1,3 Millionen Pixel große<br />
<strong>Bilder</strong> liefert. Die Physik setzt sich trotz aller Interpolationstricks durch, in diesem Fall durch<br />
Kantenunschärfe und Farbsäume bei Strukturen, die bei echten 1,5 Millionen Pixeln noch<br />
einwandfrei abgebildet werden müssten.<br />
Ganz so streng muss man jedoch nicht sein, denn schließlich ist auch das Auge ein sehr<br />
unvollkommenes Gebilde. Bekanntlich ist es für Farbinformationen wesentlich weniger<br />
empfindlich als für Helligkeitsunterschiede. Die Farbauflösung darf also geringer sein als die<br />
Schwarz-Weiß-Auflösung eines Bildes. 33<br />
3.4 Was unterscheidet <strong>analoge</strong> und <strong>digitale</strong> Fotografie<br />
Nachdem jetzt die technischen Grundlagen vorgestellt worden sind, kann man sich genauer<br />
auf die veränderten Produktionsbedingungen einlassen. Dabei gibt es verschiedene Punkte an<br />
denen man die Veränderungen ausmachen kann. Diese werden <strong>im</strong> Folgenden einzeln<br />
besprochen. Wie bereits kurz erwähnt, kann man durch die verschiedenen<br />
Produktionsbedingungen davon ausgehen, dass die erzeugten <strong>Bilder</strong> Unterschiede aufweisen<br />
werden. Insofern ist eine Untersuchung dieser Art von erheblichem Interesse, um die<br />
spezifischen Eigenschaften der <strong>analoge</strong>n und <strong>digitale</strong>n <strong>Bilder</strong> zu erhalten. Ein anderer Aspekt<br />
zielt auf die Qualität der Arbeiten, die mit den neuen Verfahren hergestellt werden. Denn erst<br />
durch das Wissen um die spezifischen Eigenschaften, können die Möglichkeiten ausgeschöpft<br />
werden und das Medium <strong>im</strong> künstlerischen Prozess sinnvoll eingesetzt werden.<br />
Dazu Gottfried Jäger: „Die Unterscheidung erweist sich heute als notwendig, um eine<br />
„Fotografie nach der Fotografie“ zu beschreiben. Es ist dabei unumgänglich, sich das<br />
bisher Selbstverständliche, die <strong>analoge</strong> Eigenschaft des Fotos, erneut bewußt zu machen,<br />
um das „andere“ das <strong>digitale</strong> Foto, von ihm zu unterscheiden.“ Und ein anderer Aspekt: „Es<br />
ist wichtig, diese Unterschiede kenntlich zu machen, denn die Präzision künftiger<br />
Kommunikation wird von dieser Unterscheidung mit abhängig sein.“ 34<br />
33 Vgl. T<strong>im</strong> Daly, Handbuch <strong>digitale</strong> Photographie, Benedikt Taschen Verlag, Köln 2000, S.32-34<br />
34 Gottfried Jäger, Abbildungstreue. Fotografie als Visualisierung: Zwischen <strong>Bilder</strong>fahrung und <strong>Bilder</strong>findung, in: Gottfried Jäger,<br />
Andreas Dress (Hrsg.) (1999), S. 146-147<br />
30
Das Verständnis für Digital Imaging führt also zur Präzisierung zukünftiger Bildfindungen, über<br />
die ja die visuelle Kommunikation abläuft. Diese ist aber nur mit einem vorhandenen Wissen um<br />
die <strong>analoge</strong> Fotografie möglich. Auch deshalb scheint es mir sinnvoll <strong>im</strong> Folgenden einen<br />
gründlichen Vergleich anzustellen.<br />
3.4.1 Kameramodelle<br />
Betrachtet man zunächst die äußere Erscheinung der Kameramodelle, muss man feststellen,<br />
dass sich die Geräte eigentlich kaum voneinander unterscheiden. Erst sehr spät kamen die<br />
Hersteller auf die Idee, das Design der <strong>digitale</strong>n Fotoapparaten zu verändern. Denn durch die<br />
neue Technik sind gewisse Konstruktionsvorgaben nicht mehr notwendig und man kann den<br />
inneren Aufbau der Apparate neu gestalten. So ergibt sich heute ein neues Erscheinungsbild<br />
der Digitalkameras, die bekannten Gehäuseformen wurden durch veränderte abgelöst. Bisher<br />
wurde durch die äußere Ähnlichkeit suggeriert, dass beide Apparate auch gleich arbeiten.<br />
Aber wie zuvor gezeigt wurde, hat man es mit zwei sehr verschiedenen Verfahren der<br />
Aufzeichnung von Bildinformationen zu tun.<br />
Christian Wittwer, der 1996 in der Neuen Zürcher Zeitung eine Serie von Artikeln zur <strong>digitale</strong>n<br />
Fotografie veröffentlichte, beschreibt die Situation wie folgt: „Äußerlich haben sich die<br />
Geräte erst spät gewandelt, denn anstatt von Grund auf neue Kameramodelle zu<br />
konstruieren, werden schon vorhandene Gehäuse (von Nikon und Canon) zu Digitalkameras<br />
umgerüstet, wodurch bestehendes Zubehör weiter eingesetzt werden kann. Dies hat den<br />
Nachteil, dass eine enge Verwandtschaft zwischen <strong>analoge</strong>r und <strong>digitale</strong>r Bildtechnologie<br />
angenommen wird, dies umso mehr, als das Endresultat, das Bild als Farbprint oder<br />
Druckerzeugniss, keine Rückschlüsse auf seine Entstehungsgeschichte mehr zulässt.“ 35<br />
Dies zeigt die Problematik. Im Prinzip stellt er dasselbe fest, spricht aber noch einen<br />
interessanten Punkt an. Er bemerkt, dass man am Endresultat keine Rückschlüsse mehr auf<br />
die Enstehungsgeschichte des Bildes ziehen kann. Hierin besteht natürlich ein großes<br />
Problem. Wenn man an den fertigen vorliegenden <strong>Bilder</strong>n nicht mehr erkennen kann, wie sie<br />
erzeugt wurden, ist es zum Beispiel unmöglich auf die bisher gewohnte hohe Authentizität<br />
des <strong>analoge</strong>n Bildes zu vertrauen. Das ist ein sehr sensibler Bereich. Denn es könnten den<br />
Bildkonsumenten sehr leicht „gefakte“ <strong>Bilder</strong> untergeschoben werden, denen sie hilflos<br />
ausgeliefert sind. 36 Auf die Differenz der Authentizität wird noch eingehend in Kapitel 3.4.6<br />
eingegangen.<br />
35 Christian Wittwer (1996), S. 37<br />
36 vgl. hierzu auch Christian Doelker, Ein Bild ist mehr als ein Bild: visuelle <strong>Kompetenz</strong> in der Mult<strong>im</strong>edia-Gesellschaft, Klett-Cotta,<br />
Stuttgart 1997, S.24-28<br />
31
3.4.2 Die Bezeichnung Digital Imaging<br />
In einem seiner Artikel n<strong>im</strong>mt Wittwer eine aus meiner Sicht sinnvolle Begriffsbest<strong>im</strong>mung vor.<br />
Er sieht den Begriff der „Digitalen Fotografie“ als unzutreffend an und äußert: „Der Begriff<br />
Digitale Fotografie ist irreführend, denn er <strong>im</strong>pliziert, dass es sich bei der neuen <strong>digitale</strong>n<br />
Bildtechnologie nur um eine technische Weiterentwicklung der konventionellen<br />
Silbersalzverfahren handelt.“ und schlägt weiter vor: „Digital Imaging ist als Begriff<br />
konsistenter.“ Er begründet seine Aussage wie folgt: „ ...denn er verweist nicht mehr auf den<br />
vom griechischen "phos"=Licht und "graphein"=schreiben abgeleiteten Begriff Photographie,<br />
also auf den Vorgang des selbsttätigen Einschreibens von Information in die<br />
lichtempfindliche fotografische Schicht. Zudem umfasst Digital Imaging mehr, nämlich alle<br />
Verfahren zur Bearbeitung und Visualisierung <strong>digitale</strong>r Daten.“ 37<br />
Ich halte diese Argumentation und die daraus resultierende Begriffsbest<strong>im</strong>mung für sinnvoll<br />
und werde <strong>im</strong> weiteren die neue Bezeichnung verwenden. Denn Digital Imaging ist, wie<br />
gesagt, nicht nur eine Weiterentwicklung der <strong>analoge</strong>n Fotografie, sondern birgt vielmehr neue<br />
Eigenschaften und Möglichkeiten, wie die der Bearbeitung und Visualisierung <strong>digitale</strong>r Daten.<br />
Zunächst einmal n<strong>im</strong>mt die Loslösung vom Ausdruck „Fotografie“ die Nähe zur konventionellen<br />
Fotografie. Und Digital Imaging meint mehr. Es ist nicht nur der Moment der Aufnahme, sondern<br />
ist vielmehr als ein Prozess zu verstehen. Der Ausdruck weist so deutlicher auf die<br />
unterschiedlichen Verfahren hin.<br />
3.4.3 Technische Differenzen der Verfahren<br />
Nachdem wir uns bereits die technischen Unterschiede vor Augen geführt haben, werden<br />
nun die daraus resultierenden Konsequenzen, die ja <strong>im</strong> Bild wirken, betrachtet.<br />
3.4.3.1 Informationsmodifikation<br />
Eine aus der Technik resultierende Differenz ist die, der unterschiedlichen<br />
„Informationssammlung“. Es werden also unterschiedliche Abbilder eines Urbildes erzeugt.<br />
Konkret heißt das: Wenn man mit einer konventionellen Kamera und einer Digitalkamera vom<br />
gleichen Standpunkt aus, also vom gleichen Punkt <strong>im</strong> Raum, eine Aufnahme mit denselben<br />
Einstellungen macht, entstehen nicht dieselben <strong>Bilder</strong>, weil nicht dieselben Objektpunkte<br />
„eingesammelt“ werden. Für dieses Problem der Differenz liefert Jäger eine Beschreibung,<br />
indem er den Unterschied zwischen <strong>analoge</strong>r und Digital Imaging <strong>im</strong> Bild wie folgt erklärt: „Im<br />
konventionellen Foto entspricht jeder Bildpunkt einem - „seinem“ - Objektpunkt. Beide<br />
Punkte sind durch den Lichtstrahl ursächlich miteinander verknüpft: Das Bild ist Ergebnis<br />
37 Christian Wittwer (1996), S. 37<br />
32
einer Analogie zwischen der Welt außerhalb und innerhalb der Kamera. Es entsteht bei der<br />
Belichtung und in der Regel in einem kurzen Augenblick, „mit einem Mal“, als komplexer,<br />
ganzheitlicher Vorgang, nicht etwa durch einen Aufbau Punkt für Punkt. Diese beiden<br />
Prinzipen, Analogie und Komplexität, sind bei der <strong>digitale</strong>n Bildherstellung aufgehoben. Das<br />
„Foto“ mutiert von einem komplexen in ein lineares Medium. Sein Bild ist nicht mehr wie<br />
vorher „mit einem Mal“ da, sondern es wird Punkt für Punkt und Zeile für Zeile in einen<br />
elektronischen Datenträger eingelesen - gescannt - , dort entsprechend gespeichert und<br />
später weiterverarbeitet.“ 38<br />
In seiner Beschreibung steckt zunächst eine brauchbare Definition für den Begriff analog,<br />
indem er das Bild als „Ergebnis einer Analogie zwischen der Welt außerhalb und innerhalb<br />
der Kamera“ sieht. Es besteht sozusagen Verhältnisgleichheit zwischen dem erzeugten Bild<br />
und den Objekten, die abgebildet wurde. Dies wäre auch sehr nahe an der Bedeutung des<br />
Begriffes, die uns die Etymologie geliefert hat (vgl. Kapitel 2.1.1).<br />
Die Aussage, dass <strong>im</strong> konventionellen Foto jeder Bildpunkt „seinem“ Objektpunkt entspricht, ist<br />
intuitiv nachvollziehbar, aber entspricht so nicht den technischen Gegebenheiten. Dann<br />
müssten beide Punktmengen gleichmächtig sein, die Anzahl der Punkt <strong>im</strong> Urbild und <strong>im</strong><br />
resultierenden Foto gleich groß sein. Es würde sich also um eine bijektive Abbildung<br />
handeln 39 . Tatsächlich aber gibt es natürlich nur endlich viele Molekülstrukturen auf der<br />
Oberfläche, die sich durch eintreffende Photonen verändern können. Es werden also mehrere<br />
einfallenden Lichtstrahlen, in etwa wie in einem Trichter, zusammengefasst und an ein Molekül<br />
gebunden. Die Information anderer Lichtstrahlen geht dabei vielleicht ganz verloren. Die<br />
Aussage, dass somit beide Punkte ursächlich miteinander verknüpft sind, ist somit nicht<br />
haltbar.<br />
Was man sagen kann ist, dass die <strong>analoge</strong> Fotografie zur Zeit noch die wesentlich höhere<br />
Auflösung bietet. Es findet aber auch bei der <strong>analoge</strong>n Fotografie ein „massiver“<br />
Informationsverlust statt. Dabei spreche ich hier nicht das Problem der Reduktion der<br />
Informationskanäle an. Also das Wegfallen von Sound, Gerüchen, Zeitverlauf, der dritten<br />
D<strong>im</strong>ension etc.. Mit zunehmender Verbesserung des Aufzeichnungsverfahren be<strong>im</strong> Digital<br />
Imaging wird diese Grenze aber irgendwann genommen werden. Da die technischen<br />
Möglichkeiten ständig weiterentwickelt werden, wird es nur eine Frage der Zeit sein, bis dies<br />
geschehen wird. Jäger spricht aber auch von der Mutation des Fotos von einem komplexen in<br />
ein lineares Medium. Das wäre also eine Überführung vom überdeterminierten Bild 40 in eine<br />
lineare Form, also eine Art Text. Dies scheint mir ein weiterer wichtiger Punkt. Denn <strong>im</strong> Text<br />
ist die Lesart bekannt und die Überbest<strong>im</strong>mung aufgehoben. Dies ist ja tatsächlich so, denn<br />
38 Gottfried Jäger , Abbildungstreue. Fotografie als Visualisierung: Zwischen <strong>Bilder</strong>fahrung und <strong>Bilder</strong>findung, in: Gottfried Jäger,<br />
Andreas Dress (Hrsg.) (1999), S. 146<br />
39 Zu den Begriffen „gleichmächtig“ und „bijektiv“ siehe Kapitel 3.4.7.2<br />
40 Gottfried Boehm spricht <strong>im</strong> Zusammenhang der konkreten Kunsterfahrung, der Rezeption von <strong>Bilder</strong>n, von einem unausschöpfbaren<br />
Potenzial, das durch eine unerhörte Überdetermination gekennzeichnet ist, weil es eine unabsehbare Zahl von Konjunktionen der<br />
Bildelemente gibt. Gottfried Boehm: Kunsterfahrung als Herausforderung der Ästhetik, in: Willi Oelmüller (Hrsg.), Kolloquium Kunst<br />
und Philosophie 1: Ästhetische Erfahrung, Schöningh Verlag, Paderborn 1981, S.19<br />
33
das als codierte Information vorliegende <strong>digitale</strong> Bild kann nur reproduziert werden, indem es<br />
ausgelesen und erzeugt wird. Also ist die Lesart in dieser Weise bekannt.<br />
3.4.3.2 Zeitlichkeit<br />
Die entstehende Linearität bewirkt aber noch eine weitere Veränderung des Bildes. Die<br />
Zeitlichkeit, die <strong>im</strong> Bild steckt ist eben eine andere, wie die der <strong>analoge</strong>n Fotografie. In der<br />
<strong>analoge</strong>n Fotografie können die Lichtstrahlen für einen festgelegten Zeitraum, eben während<br />
der Belichtungszeit, durch das Linsensystem auf den Film gelangen. Dabei gelangen alle<br />
Lichtstrahlen synchron, was Jäger als ganzheitlichen und komplexen Vorgang beschreibt,<br />
gleichzeitig auf den Film und werden dort festgehalten. Dagegen haben wir be<strong>im</strong> Digital<br />
Imaging das „lineare Herausschieben“ der Bildinformationen. Wenn <strong>im</strong> <strong>analoge</strong>n<br />
Aufzeichnungsprozess jeder Raumpunkt seine relative Position zum Nachbarpunkt behält,<br />
werden die Bildpunkte be<strong>im</strong> Digital Imaging neu angeordnet und verlieren so die frühere<br />
Zeitlichkeit. Während be<strong>im</strong> <strong>analoge</strong>n Foto die Struktur der Bildpunkte zueinander auf eine<br />
gewisse Weise erhalten bleibt, wird diese be<strong>im</strong> Digital Imaging aufgelöst.<br />
Betrachtet man den Vorgang genauer wird es wirklich komplexer. Denn ein Lichtstrahl<br />
bewegt sich mit einer <strong>im</strong>mens hohen Geschwindigkeit von ca. 300.000 km/s und dennoch<br />
benötigt er Zeit für den Weg den er zurückgelegt hat. Sind also die Objekte die fotografiert<br />
werden in unterschiedlichem Abstand zur Fotokamera, so benötigen die ausgesandten<br />
Lichtstrahlen verschiedene Zeiten. Dies würde aber bedeuten, das man generell <strong>im</strong><br />
festgehaltenen Bild verschiedene Zeitlichkeiten festhält. Also noch einmal etwas abstrakter:<br />
Belichtet man <strong>im</strong> Zeitraum t0 bis t1 den Film, so sind die Objekte <strong>im</strong> Abstand s0 Distanzeinheiten<br />
(z.B. Meter) zur Realzeit t0 - k0 bis t1 -k0 festgehalten und die Objekte <strong>im</strong> Abstand s1<br />
Distanzeinheiten (z.B. Meter) zur Realzeit t0 - k1 bis t1 -k1. Wobei sich die Verschiebungs-<br />
Summanden k1 und k2 aus der Zeit die das Licht vom Objekt auf den Film benötigt berechnen.<br />
Also k0 = s0 / c und k1 = s1 / c , wobei c = const. die Lichtgeschwindigkeit darstellt. Der<br />
Sachverhalt spielt natürlich bei geringen Distanzdifferenzen eine kleine Rolle. Mit<br />
zunehmenden Distanzdifferenzen ∆s entsteht ein nicht unerheblicher Unterschied in der<br />
festgehaltenen Realzeit der Objekte. Dies wird besonders offensichtlich bei astronomischen<br />
Aufnahmen, wie man sie auch zum Beispiel <strong>im</strong> Werk von Thomas Ruff 41 sehen kann. Ruff<br />
thematisiert genau dieses Phänomen, indem er Sternenbilder aus dem Archiv der ESO<br />
(European Southern Observatory) ankauft, nachbearbeitet und ausstellt. Als<br />
Lichtzeichnungen <strong>im</strong> ursprünglichsten Sinn zeigen sie genau die unterschiedliche Zeitlichkeit<br />
der Sterne zu einem best<strong>im</strong>mten Aufnahmezeitpunkt. Das gezeigte Phänomen wirkt aber<br />
sowohl bei der <strong>analoge</strong>n, wie auch be<strong>im</strong> Digital Imaging, führt also zu keiner Unterscheidung.<br />
41 Thomas Ruff: Fotografien 1979 - heute, hg. von Thomas Winzen, Ausstellungskatalog: Baden-Baden 2001/02, Verlag der<br />
Buchhandlung Walther König, Köln 2001, S.193<br />
34
3.4.4 Unmittelbare Wahrnehmung als Differenz<br />
Einen anderen Aspekt der Unterscheidung erwähnt Wittwer. Für ihn „handelt es sich be<strong>im</strong><br />
fotografischen Bild um ein <strong>analoge</strong>s Medium, denn die Information ist für den Menschen<br />
unmittelbar erfassbar und nicht codiert.“ 42 Eine Fotografie ist also dann analog, wenn sie für<br />
unser kognitives System unmittelbar wahrnehmbar ist. Ich halte diese Auffassung für<br />
fragwürdig, denn wie bereits erläutert (vgl. Kapitel 3.3.1) entsteht <strong>im</strong> Verlauf des <strong>analoge</strong>n<br />
<strong>Bilder</strong>zeugungsprozesses zunächst ein so genanntes latentes Bild. Dies ist der Schritt, wenn<br />
das Licht, das von den aufgenommenen Objekten reflektiert wurde, auf den Film auftritt. Wir<br />
haben jetzt einen Zustand, in dem die Bildinformationen übertragen wurden, die eigentliche<br />
Abbildung also statt gefunden hat und dennoch kann zu diesem Zeitpunkt die Information nicht<br />
unmittelbar mit unseren Sinnen erfasst werden. Erst über einen chemischen<br />
Transformationsprozess erhält man das Negativ und die Information wird uns zugänglich.<br />
Dennoch ist diese Definition nicht ganz von der Hand zu weisen. Die analog fotografierten<br />
Objekte liegen nämlich sofort wieder materiell in einer Weise vor, dass wir sie nur für unsere<br />
Augen sichtbar machen müssen. Dies geschieht be<strong>im</strong> Entwicklungsprozess, durch chemische<br />
Verfahren. 43 Be<strong>im</strong> Digital Imaging haben wir die Bildinformation codiert als Zeichenkette von<br />
Nullen und Einsen vorliegen. Über den Aspekt der Codierung kann man aber geteilter Meinung<br />
sein. Man könnte auch argumentieren, dass das latent vorliegende Filmbild eine Codierung,<br />
also einen Code des Urbildes darstellt.<br />
Umberto Eco liefert für den Begriff des „Codes“ folgende vorläufige Definition: Ein Code ist<br />
„jedes System von Symbolen, welches durch vorherige Übereinkunft dazu best<strong>im</strong>mt ist, die<br />
Information zu repräsentieren und sie zwischen Quelle und Best<strong>im</strong>mungspunkt zu<br />
übertragen“ 44 . Geht man von dieser Definition aus, dann ist aus meiner Sicht auch das latent<br />
vorliegende Filmbild ein Code. Denn die Farbpunkte sind Symbole in Abhängigkeit der Position,<br />
die Information repräsentieren und zwischen Sender und Empfänger übermitteln können.<br />
Wobei der Empfänger die Information eben nur technisch abfragen kann, die Entschlüsselung<br />
mit seinen Sinnen nicht möglich ist. Beide Medien sind aber auf eine andere Art codiert.<br />
Während be<strong>im</strong> <strong>analoge</strong>n Bild die Struktur des Urbildes erhalten bleibt, wird diese <strong>im</strong> <strong>digitale</strong>n<br />
Bild linearisiert und so aufgelöst. Auf die offensichtliche Codierung des <strong>digitale</strong>n Bildes<br />
werden wir in Kapitel 4 noch ausführlich eingehen.<br />
42 Christian Wittwer (1996), S. 37<br />
43 Filme müssen nicht unbedingt entwickelt werden. So verwendete zum Beispiel Daguerre zunächst Jodsilberplatten, bei denen das<br />
Bild bei sehr langer Belichtungszeit von selbst erscheint. Dies ändert aber nichts an der Tatsache, dass das Bild materialisiert vorliegt.<br />
Vgl. Bernd Busch (1995), S.186<br />
44 Umberto Eco, Einführung in die Semiotik, Wilhelm Fink Verlag, München 1972, S.19<br />
35
3.4.5 Medientheoretische Unterscheidung<br />
Die unterschiedliche Rezeptionsweise der beiden Medien ermöglicht auch eine Zuordnung zu<br />
verschiedenen Kategorien nach medientheoretischen Gesichtspunkten. Sieht man von dem<br />
Punkt ab, dass bei der <strong>analoge</strong>n Fotografie zunächst ein latenten Bild entsteht, dass sich auch<br />
unserer unmittelbaren Wahrnehmung entzieht, scheint dies nützlich.<br />
Wittwer: „In der Medientheorie mit ihrer charakteristischen Unterscheidung von Pr<strong>im</strong>är-,<br />
Sekundär- und Tertiärmedien wird der Unterschied zwischen Fotografie und Digitaler<br />
Bildbearbeitung explizit. Während ein Sekundärmedium wie die Fotografie den<br />
Technikeinsatz nur auf der Produktionsseite kennt, charakterisieren sich Tertiärmedien<br />
durch den Technikeinsatz sowohl auf der Produktions- als auch auf der Rezeptionsseite.<br />
Das konventionelle fotografische Bild ist dem menschlichen Wahrnehmungsapparat direkt<br />
zugänglich, das <strong>digitale</strong> erst über einen Transformationsprozess.“ 45<br />
Interessant ist die Unterscheidung durch die Zuordnung der <strong>analoge</strong>n Fotografie zu den<br />
Sekundärmedien und des Digital Imaging zu den Tertiärmedien. 46 Durch die vorgenommene<br />
Einbettung in die Medientheorie wird ein gravierender Unterschied erneut offensichtlich, der<br />
uns <strong>im</strong> Folgenden noch beschäftigen wird: Der notwendige Einsatz von Technik <strong>im</strong><br />
Rezeptionsprozess be<strong>im</strong> Digital Imaging. Denn be<strong>im</strong> Digital Imaging liegt das <strong>digitale</strong> Bild<br />
zunächst als lineare „<strong>im</strong>materielle“ Information vor und muss über Einsatz von Technik<br />
umgewandelt, materialisiert werden. Der Ausdruck „<strong>im</strong>materiell“ ist folgendermaßen zu<br />
verstehen. Es ist klar, dass es unmöglich ist Informationen ohne Veränderungen von Materie<br />
„dauerhaft“ zu speichern. Gespeicherte Information ist meiner Auffasung nach eigentlich<br />
<strong>im</strong>mer eine Zustandsveränderung von Materie. Auch der vorliegende Bildcode muss<br />
irgendwie auf einem Datenträger zwischengespeichert werden, zum Beispiel auf einer<br />
Diskette, einer MOD (Magnetical Optical Disc) oder einer Festplatte. In diesem Zustand ist er<br />
materialisiert, zum Beispiel durch Ausrichtung der Spins der Elektronen der mikroskopischen<br />
Eisenteilchen durch Magnetköpfe be<strong>im</strong> Schreiben der Daten. Der Code selbst aber, der dann<br />
wieder abgerufen und <strong>im</strong> Lesevorgang hergestellt wird, ist eine reine Aneinanderreihung von<br />
Ziffern. Be<strong>im</strong> Binärcode sind dies eben Nullen und Einsen. Der Code ist natürlich <strong>im</strong>materiell,<br />
denn die Zeichen, die Ziffern des Codes sind abstrakte Erfindungen vom Menschen erdacht<br />
und sind keine materiellen Objekte. In dieser Weise ist die Immaterialität des Codes zu<br />
verstehen.<br />
So muss also be<strong>im</strong> Digital Imaging, das <strong>digitale</strong> Bild, das zunächst als lineare „<strong>im</strong>materielle“<br />
Information vorliegt, über Einsatz von Technik umgewandelt, materialisiert werden. Es ist<br />
bekannt, dass die so erzeugten Erscheinungen des Bildes sehr unterschiedlich ausfallen<br />
können. So sieht die Ausgabe auf einem Bildschirm sicherlich anders als ein Ausdruck auf<br />
45 Christian Wittwer (1996), S. 37<br />
46<br />
„Durchgesetzt hat sich weitgehend die Unterscheidung in Pr<strong>im</strong>ärmedien (das heißt Medien ohne notwendigen Einsatz von Technik<br />
wie z.B. das Theater), Sekundärmedien (mit Technikeinsatz auf der Produktionsseite wie z.B. die Zeitung) und Tertiärmedien (mit<br />
Technikeinsatz auf Produktions- und Rezeptionsseite wie z.B. die Schallplatte). Ergänzend spricht man inzwischen auch von<br />
Quartärmedien...“, in: Werner Faulstich (2000), S.21<br />
36
einem Drucker aus. Genau mit diesem Problem hat ja die Zunft der Grafik-Designer zu<br />
kämpfen. Die Problematik, die hier angesprochen wird, berührt wieder einmal die Frage nach<br />
der Substanz des <strong>digitale</strong>n Bildes, das sich ja so unterschiedlich manifestieren kann. Damit<br />
werden wir uns ebenfalls noch eingehend in Kapitel 4 beschäftigen.<br />
3.4.6 Die veränderte Authentizität<br />
Ein viel diskutierter Aspekt ist die Frage der Objektivität, besser der Authentiziät der <strong>Bilder</strong><br />
be<strong>im</strong> Digital Imaging. Oft wird gefordert, dass Begriffe wie Glaubwürdigkeit, Wahrheit und<br />
Echtheit in diesem Zusammenhang neu ausgelotet werden müssen. Denn be<strong>im</strong> Digital Imaging<br />
haben wir die Situation, dass die so erzeugten <strong>Bilder</strong> nicht mehr aufgrund kausaler<br />
Zusammenhänge zwischen Urbild und Abbild entstehen, sondern ganz für sich stehen. Ein<br />
weiterer Gesichtspunkt ist der Prozess der <strong>digitale</strong>n Nachbearbeitung. Er ist <strong>im</strong> Vergleich zur<br />
herkömmlichen Retusche technisch wesentlich ausgefeilter. Das heißt die Möglichkeiten der<br />
Manipulation sind erheblich größer und aufgrund der „verlorenen Spuren“ des<br />
Arbeitsprozesses (vgl. Kapitel 5) ist eine nachträgliche Überprüfung des Bildes<br />
ausgeschlossen. Außerdem kann das <strong>digitale</strong> Bild komplett am Computer künstlich erzeugt<br />
werden. Hier bricht der Realitätsglaube an die Fotografie endgültig zusammen. Es gibt keine<br />
Realitätsreferenz mehr, wie in der <strong>analoge</strong>n Fotografie.<br />
Wittwer dazu: „Das <strong>digitale</strong> Bild, seinem Wesen nach nicht mehr direkt mit einem realen<br />
Objekt verknüpft, erhebt keinerlei Anspruch auf Authentizität. Es ist ganz sich selbst und<br />
lässt keinen Rückschluss zu, dass das abgebildete Objekt auch wirklich existent war.“ 47<br />
Dies wirft natürlich die Frage nach der Authentizität der Fotografie <strong>im</strong> Allgemeinen auf. Warum<br />
ist die <strong>analoge</strong> Fotografie überhaupt ein Bild, dem so hohe Glaubwürdigkeit zugeschrieben<br />
wird. Letztendlich hat sich dies ja auch auf Medien, wie das Fernsehen oder das Kino mit<br />
seinen Filmen übertragen. Vielleicht hängt die starke Authentizität des <strong>analoge</strong>n Bildes mit der<br />
Tatsache zusammen, dass nur das abgebildet werden kann, was faktisch vorhanden ist. Das<br />
Bild zeichnet sich selbst, durch die einfallenden Lichtstrahlen, die durch optische Verfahren in<br />
ihre Bahn gezwungen werden, so dass wir ein perspektivisches Bild erhalten, dass unserer<br />
gewohnten, durch doppelkonvexe Linsen geprägten Wahrnehmung sehr nahe kommt. Und<br />
doch müssen wir es gelernt haben, diese „<strong>im</strong>aginativen“ <strong>Bilder</strong>, wie sie Vilém Flusser nennt,<br />
zu lesen. 48 Denn sie sind Ausschnitte aus der vierd<strong>im</strong>ensionalen Raumzeit und reduziert auf<br />
zwei D<strong>im</strong>ensionen. Trotz dieser Umstände erkennen wir eine starke Ähnlichkeit zwischen der<br />
Realität und den abgebildeten Objekten.<br />
47 Christian Wittwer (1996), S. 37<br />
48 Vgl. Vilém Flusser, Für eine Philosophie der Fotografie, 9. Auflage, European Photography, Göttingen 2000, S. 8<br />
37
Wobei uns der Grad der Ähnlichkeit zwischen der Realität und der Abbildung sehr hoch<br />
scheint, was vielleicht mit der Strukturerhaltung und der Farb<strong>im</strong>itation in gemeinsamer<br />
Verbindung zu erklären ist.<br />
Ein interessanter Ansatz, diese Strukturerhaltung zu beschreiben, findet sich bei Gernot<br />
Böhme. Er versucht über eine Verbindung zum mathematischen Begriff der Abbildung der<br />
Frage nach der Authentizität des Fotos näher zu kommen:<br />
„Die Behauptung, dass Fotos realistisch seien, findet ihre Stütze auch von<br />
wissenschaftlicher bzw. technischer Seite her, und zwar mit Hilfe des Begriffs der<br />
Abbildung. Dieser Begriff ist wesentlich best<strong>im</strong>mter bzw. kann best<strong>im</strong>mter sein als der<br />
Begriff der M<strong>im</strong>esis. [...] Der Begriff der Abbildung aber läßt sich so verschärfen, dass damit<br />
eine ganz spezifische Relation zwischen Urbild und Abbild gemeint ist. Solche<br />
Verschärfungen finden sich in der Mathematik. Hier spricht man von der Abbildung einer<br />
Menge in die andere, wenn jedem Element der ersten Menge mindestens ein Element der<br />
zweiten zugeordnet ist. Man nennt sie eindeutig, wenn jedem Element aus der ersten Menge<br />
nur ein einziges Element aus der zweiten zugeordnet ist, sonst mehrdeutig. Man nennt eine<br />
Abbildung umkehrbar, wenn aufgrund der Abbildungsrelation auch jedem Element der<br />
zweiten Menge ein Element der ersten Menge zugeordnet ist; man nennt sie umkehrbar<br />
eindeutig, wenn jedem Element der zweiten Menge nur ein einziges Element der ersten<br />
Menge zugeordnet ist.“ 49<br />
Böhme versucht sich also vom Begriff der „M<strong>im</strong>esis“ zu lösen und diesen zu verschärfen.<br />
Das fotografische Bild hat für ihn also nicht nur nachahmenden Charakter, sondern lässt sich<br />
aufgrund der zugrundeliegenden geometrischen Optik mit naturwissenschaftlicher Präzision<br />
beschreiben. Dies geschieht indem er den mathematischen Begriff der Abbildung verwendet<br />
und damit auch das sehr schwierige Diskussionsfeld um die Ähnlichkeit von Abbildungen<br />
verlassen kann.<br />
Hier muss man allerdings kurz intervenieren. Die Äußerung, dass man von einer Abbildung<br />
einer Menge in eine andere spricht, wenn jedem Element der ersten Menge mindestens ein<br />
Element der zweiten zugeordnet ist, muss auf genau ein Element korrigiert werden. Sonst<br />
handelt es sich auf keinen Fall um eine Abbildung <strong>im</strong> mathematischen Sinn. Um weitere<br />
Unklarheiten vorzubeugen halte ich es für sinnvoll die verwendeten Begriffe in Kapitel 3.4.7<br />
kurz zu erläutern.<br />
Nach Böhme lassen sich die Methoden der Mathematik sehr gut auf die Verhältnisse der<br />
Fotografie anwenden. Die <strong>im</strong> Produktionsprozess eingesetzte geometrische Optik, kann mit<br />
den Gesetzen der Physik beschrieben werden, und lässt sich damit mathematisch<br />
formalisieren. Da es sich dabei zumindest <strong>im</strong> theoretischen Sinne um eine bijektive Abbildung<br />
handelt, sind die Abbildungsverhältnisse be<strong>im</strong> Fotografieren eindeutig und umkehrbar.<br />
Eindeutig deshalb, weil es sich um eine Abbildung handelt und umkehrbar, weil diese bijektiv<br />
ist. Somit existiert, wie gezeigt, die Umkehrabbildung. Aber die technische Realität setzt<br />
49 Gernot Böhme, Theorie des Bildes, Wilhelm Fink Verlag, München 1999, S.115-116<br />
38
Schranken und so sind diese Verhältnisse <strong>im</strong> Konkreten eingeschränkt, einerseits durch die<br />
Schärfe des Bildes und andererseits durch die Körnigkeit des Fotos. Unschärfe bedeutet,<br />
dass einem Punkt des Originals nicht nur ein Punkt auf dem Bild, sondern ein Hof um einen<br />
Punkt zugeordnet ist. Dieses Phänomen ist durch das fotografische Verfahren bedingt. Wie<br />
bereits angesprochen, wird dadurch nicht jedem Lichtstrahl ein materielles Gegenstück zur<br />
Verfügung gestellt, das dessen Bildinformation aufnehmen kann.<br />
Körnigkeit bedeutet, dass ein ganzer Hof des Originals nur einem Rasterpunkt, das heißt also<br />
dem Korn entspricht. Aber diese Beschränkungen des Auflösungsvermögen, die durch die<br />
Körnigkeit gegeben ist und die durch die Linsenoptik bedingte beschränkte Schärfe, setzen<br />
nur der technischen Realisierung des Abbildungsprinzips Schranken. Diese können durch<br />
verbesserte Technik <strong>im</strong>mer wieder verschoben werden.<br />
Das hindert aber nicht, dass das Prinzip eindeutiger Abbildung praktisch gültig ist, das heißt es<br />
lässt sich für den jeweiligen Verwendungszweck mit hinreichender Genauigkeit realisieren.<br />
Das ist allerdings ein sehr starkes Argument für den Realismus von Fotos. Es wird noch<br />
dadurch verstärkt, dass dieses Prinzip als Naturgesetz der geometrischen Optik, realisiert <strong>im</strong><br />
technischen Apparat, unabhängig vom jeweiligen Benutzer wirkt.<br />
Insofern kann das entstandene Bild, wie Eco sagt, als ein natürliches Zeichen angesehen<br />
werden, nämlich als Spur, die aufgrund kausaler Prozesse von dem Gegenstand, den das Bild<br />
bezeichnet, selbst erzeugt wird. 50 Man könnte also einen Apparat aufstellen, der automatisch,<br />
durch einen T<strong>im</strong>er gesteuert, Aufnahmen durchführt. Dies könnte in der Abwesenheit und<br />
damit unabhängig von Personen geschehen. Ich möchte aber kurz anmerken, dass sich ein<br />
generatives Computerbild selbst „schreibt“. Wir erhalten auch hier ein Bild aufgrund kausaler<br />
Prozesse. Es wäre aber fraglich, ob man dabei den Apparat als Produkt eines theoretischen<br />
Konzeptes mit dem ausführenden Computerprogramm vergleichen könnte.<br />
Der Charakter der Fotografie wird nun noch durch den Begriff des Isomorphismus präzisiert<br />
(vgl. Kapitel 3.4.7 ). Eine Abbildung nennt man isomorph, wenn die Beziehungen von Punkten<br />
des Urbildes den Beziehungen der Punkte des Abbildes entsprechen, also die Art der<br />
Beziehung der Punkte untereinander erhalten bleibt.<br />
Dies kann <strong>im</strong> schärfsten Fall bedeuten, dass die Punkte des Abbildes in derselben Relation<br />
wie die Punkte des Urbildes stehen, also das zum Beispiel die Größenverhältnisse erhalten<br />
bleiben oder dass eine gerade Linie <strong>im</strong> Urbild sich als gerade Linie <strong>im</strong> Abbild wiederfindet.<br />
Genau diese Verschärfung kann aber <strong>im</strong> fotografischen Bild gar nicht realisiert sein, weil ja<br />
das abfotografierte Urbild dreid<strong>im</strong>ensional, das Abbild nur zweid<strong>im</strong>ensional ist. Hier sind die<br />
Verhältnisse durch die Zentralperspektive geregelt. Das Foto entspricht danach einer<br />
Schnittfläche des Kegels, der vom Augenpunkt zum <strong>im</strong> Bild sichtbaren Ausschnitt der<br />
Wirklichkeit durch gerade Linien konstruiert werden kann.<br />
50 Vgl.Umberto Eco, Zeichen. Einführung in einen Begriff und seine Geschichte, Suhrkamp Verlag, Frankfurt am Main 1977, S.37<br />
39
Daraus folgt, dass die Beziehungen zwischen zwei Punkten des Urbildes sich zwar nicht als<br />
dieselben Beziehungen zwischen den Punkten des Abbildes wiederfinden, wohl aber dass<br />
diese Beziehungen selbst zueinander in einem rationalen Verhältnis stehen. Sie werden<br />
nämlich in einem von der Richtung abhängigem Maß verkürzt oder verlängert. Auch hieraus<br />
ergibt sich wieder ein starkes Argument für den Realismus von Fotos: Die Verhältnisse, die<br />
zwischen den Teilen des Originals bestehen und also seine Struktur ausmachen, finden sich<br />
in rational nachprüfbarer Weise <strong>im</strong> Bild wieder. 51<br />
Alle diese Eigenschaften besitzt das <strong>digitale</strong> Bild prinzipiell auch, sofern es sich um eine<br />
Abbildung der sinnlich wahrnehmbaren Welt und nicht um ein generatives Bild handelt. Also<br />
zum Beispiel eine mit einer Digitalkamera aufgenommene Stadtsituation.<br />
Aber die bereits gezeigten Unterschiede in der Zeitlichkeit des Abbildungsprozesses, der Art<br />
und Weise, wie die Bildinformationen gesammelt und festgehalten werden, lassen Zweifel<br />
aufkommen, ob es sich hierbei tatsächlich um gleiche <strong>Bilder</strong> handelt, da die Bedingungen<br />
derart voneinander abweichen. Vor allem die potenziell vorhandene Möglichkeit der<br />
Bildbearbeitung, oder schärfer gesagt der bewussten Manipulation, führt zu einem weitaus<br />
stärkeren Vertrauensverlust an den <strong>Bilder</strong>n. Diese könnten ja sogar vollständig am Rechner<br />
erzeugt sein, also evolutionäre oder generative <strong>Bilder</strong> sein, die selbstständig durch<br />
Algorithmen entstehen. „Das Reale weicht dem Kalkulierten, das jetzt das eigentliche Reale<br />
wird. Die Fiktion wird zum Faktum, das Foto gerät zu einer Einbildung. Glaubwürdig ist jetzt<br />
nur noch das Bild als Bild <strong>im</strong> Zusammenhang mit anderen <strong>Bilder</strong>n und Texten.“ 52<br />
Es geht also ein hohes Gut verloren, die Beweiskraft. Der Konsens über die Abbildungstreue<br />
des Apparates verliert durch das Digital Imaging an Bedeutung.<br />
51 Vgl. Gernot Böhme (1999), S.115-117<br />
52 Gottfried Jäger , Abbildungstreue. Fotografie als Visualisierung: Zwischen <strong>Bilder</strong>fahrung und <strong>Bilder</strong>findung, in: Gottfried Jäger,<br />
Andreas Dress (Hrsg.) (1999), S. 148<br />
40
3.4.7 Abbildungen, Mengen und andere mathematischen Begriffe<br />
Hierzu ein kurzer mathematischer Exkurs als Einschub. Die folgenden Begrifflichkeiten sind<br />
sicherlich nicht adhoc für jedermann zu verstehen, es erfordert vielleicht ein wenig Geduld<br />
und Ausdauer sich die Begrifflichkeiten zu erarbeiten. Es ist aber <strong>im</strong> Zusammenhang der<br />
Beschreibung von Authentizität von Böhme, die auf den Abbildungsbegriff baut, unumgänglich<br />
diese Vorarbeit zu leisten.<br />
Unter einer Abbildung versteht man als Künstler zum Beispiel eine „realistische“ Darstellung<br />
einer Landschaft oder vielleicht eines Menschen. Wenn also ein Bild in seiner Ähnlichkeit dem<br />
ursprünglichen Anlass sehr nahe kommt. Was ist nun aber eine Abbildung <strong>im</strong> mathematischen<br />
Sinn? Aus der Schule kennt man den Begriff der Funktion, der dort eine zentrale Rolle spielt.<br />
Im Prinzip bezeichnen beide Begriffe denselben Sachverhalt, wobei der Begriff der Abbildung<br />
den allgemeineren Charakter besitzt.<br />
Der Abbildungsbegriff beruht auf den Mengenbegriff. Als Begründer der Mengenlehre gilt<br />
Georg Cantor (1845-1918). Die Mengenlehre hat nahezu alle Gebiete der Mathematik<br />
entscheidend vorangebracht beziehungsweise erst ermöglicht und hat sich zu einem<br />
zentralen Fundament der Mathematik entwickelt.<br />
3.4.7.1 Der Mengenbegriff<br />
Bevor man den Begriff der Menge verwenden kann, muss zunächst einmal geklärt werden,<br />
was man denn unter diesem verstehen will. Aus dem alltäglichen Sprachgebrauch haben wir<br />
eine intuitive Vorstellung einer Menge. Eine Menge wird in diesem Zusammenhang oft als<br />
Anhäufung, Ansammlung oder auch als Größenangabe verstanden.<br />
In der Mathematik ist es häufig notwendig, gewisse Zahlen oder sonstige mathematische<br />
Objekte mit gemeinsamen Eigenschaften zusammenzufassen. Dazu dient der Begriff der<br />
Menge. Der grundlegende Begriff der Mengenlehre ist die Elementbeziehung. Cantor lieferte<br />
eine Definition, die den Mengenbegriff wie folgt best<strong>im</strong>mt: Eine Menge A ist eine<br />
Zusammenfassung best<strong>im</strong>mter, wohlunterschiedener Objekte a unserer Anschauung oder<br />
unseres Denkens zu einem Ganzen.<br />
Diese Objekte heißen Elemente der Menge. Man kann nun unterscheiden, ob ein Objekt zur<br />
Menge gehört oder nicht. Wenn nun ein Element a zur Menge A gehört, so schreibt man a ∈ A,<br />
sonst a ∉ A. So könnte man zum Beispiel verschiedene Städtenamen zu einer Menge<br />
zusammenfassen. Dies könnte die Menge M:={Berlin, Stuttgart, Ludwigsburg} sein. Man<br />
verwendet dabei die so genannte Aufzählung in geschweiften Mengenklammern. Die<br />
Elemente diese Menge wären „Berlin“, „Stuttgart“ und „We<strong>im</strong>ar. Das heißt das Element „Berlin“<br />
gehört zur Menge und die Stadt „Freiburg“ gehört nicht zur Menge. Man würde deshalb<br />
schreiben Berlin ∈ M und Freiburg ∉ M.<br />
41
Ein wichtiger Begriff ist die Teilmenge. N<strong>im</strong>mt man aus einer Menge einen Teil oder auch die<br />
ganze Menge heraus, nennt man die neu entstehende Menge Teilmenge.<br />
Damit kann man nun den Begriff der „disjunkten Teilmenge“ erläutern. Wenn man es schafft<br />
eine Menge in Teilmengen aufzuteilen, die jeweils keine gemeinsamen Elemente besitzen, so<br />
spricht man von einer Disjunktion oder disjunkten Teilmengen. Dies heißt aber auch das es<br />
möglich ist, das jedes Element der Ausgangsmenge einer der vorhandenen Teilmenge<br />
eindeutig zuzuordnen. Die von Cantor entwickelte Definitionen werden heute gelehrt und<br />
ständig verwendet, es ist aber bekannt, dass der so genannte „naive“ Mengenbegriff bei der<br />
Betrachtung von unendlichen Mengen zu erheblichen Widersprüchen, so genannten<br />
Antinomien führen kann. Denn man hat festgestellt, dass es Sinn macht, auch Mengen mit<br />
unendlich vielen Elementen bezüglich der Anzahl ihrer Elemente zu unterscheiden. Damit<br />
werden wir uns später noch eingehend beschäftigen.<br />
3.4.7.2 Der Abbildungsbegriff<br />
Unter einer Abbildung versteht man nun die eindeutige Zuordnung der Elemente einer Menge A<br />
zu den Elementen einer Menge B. Jedem Element von A muß genau ein Element von B<br />
zugeordnet sein, verschiedenen Elementen von A kann aber dasselbe Element von B<br />
zugeordnet sein. Ist f eine solche Abbildung, so schreibt man<br />
f: A à Z<br />
und sagt: f ist eine Abbildung von A in Z. Man nennt A die Ausgangsmenge oder<br />
Definitionsmenge von f und Z die Zielmenge, Wertemenge oder Bildmenge von f.<br />
3.4.7.3 Abbildungstypen<br />
Auf den Abbildungsbegriff aufbauend, kann man verschiedene Arten von Abbildungen<br />
unterscheiden. Dies ist wichtig, da diese wiederum verschiedene Eigenschaften besitzen. Im<br />
wesentlichen unterscheidet man drei Arten von Abbildungen.<br />
Ordnet die Abbildung f dem Element a ∈ A das Element z ∈ Z zu, so heißt z das Bild von a<br />
unter der Abbildung f, und man schreibt<br />
f: a à z oder f(a)=z.<br />
Bestehen die Mengen A und Z aus Zahlen, so verwendet man auch die Bezeichnung<br />
Funktion.<br />
Eine Abbildung f: A à Z heißt injektiv oder eine Injektion, wenn zwei verschiedene Elemente<br />
von A <strong>im</strong>mer zwei verschiedene <strong>Bilder</strong> haben, wenn also für a1 ≠ a2 auch f(a1) ≠ f(a2) gilt.<br />
Eine Abbildung f: A à Z heißt surjektiv oder eine Surjektion, wenn jedes Element von Z als Bild<br />
vorkommt, wenn für jedes z ∈ Z also ein a ∈ A mit f(a)=z existiert.<br />
42
Eine Abbildung heißt bijektiv oder eine Bijektion, wenn sie injektiv und surjektiv ist. Jedes<br />
Element z ∈ Z ist dann Bildelement von genau einem Element a ∈ A.<br />
Ist f: A à Z eine bijektive Abbildung dann existiert die Umkehrabbildung f -1 : Z à A<br />
Eine bijektive Abbildung ist also umkehrbar. Die bijektive Abbildung spielt auch <strong>im</strong> Vergleich von<br />
Mengen eine Rolle. Wenn man wissen will, ob zwei gegebene Mengen gleich „groß“ sind, also<br />
gleich viele Elemente besitzt, versucht man eine bijektive Abbildung zwischen beiden<br />
anzugeben. Gelingt dies besitzen beide Mengen gleich viel Elemente und man nennt sie<br />
gleichmächtig, wenn man zeigen kann, dass es eine bijektive Abbildung zwischen beiden gibt.<br />
Denn dann wird ja jedem Element der ersten Menge, genau ein Element der zweiten<br />
zugeordnet. Wenn man zum Beispiel wissen will, ob in einer Schulklasse gleichviel Jungen<br />
und Mädchen sind, kann man versuchen Pärchen aus jeweils einem Jungen und einem<br />
Mädchen zu bilden. Gelingt dies, so dass niemand übrig bleibt, hat man die Menge der Jungen<br />
der Menge der Mädchen bijektiv zugeordnet. Es sind also gleichviel Mädchen und Jungen in<br />
der Klasse.<br />
3.4.7.4 Der Isomorphismus<br />
Aufbauend auf den Begriff der bijektiven Abbildung, lassen sich nun Abbildungen<br />
beschreiben, bei denen zusätzlich die Beziehungen der Elemente untereinander erhalten<br />
bleiben. Die Struktur der Elemente wird also mit abgebildet. Es besteht sowohl <strong>im</strong> Urbild, als<br />
auch <strong>im</strong> Bild dieselbe Struktur der Elemente zueinander. Eine Abbildung mit den oben<br />
genannten Eigenschaften nennt man Isomorphismus. Als Beispiel könnte man sich ein<br />
dreid<strong>im</strong>ensionales Modell der Planeten des Sonnensystems vorstellen. Im Modell haben sich<br />
verschiedene Eigenschaften <strong>im</strong> Vergleich zum Original verändert. Das Modell ist zum Beispiel<br />
in der Größe geschrumpft aber die Struktur der Planeten, die Größenbeziehungen und<br />
Stellungen der Planeten zueinander ist erhalten geblieben.<br />
43
3.5 Digitalisierung / Analogisierung<br />
3.5.1 Einführung<br />
Wie die verschiedenen Apparate arbeiten, haben wir am Beispiel der Fotografie<br />
beziehungsweise des Digital Imaging gesehen. Dabei haben wir bis jetzt nur am Rande über<br />
den Übergang vom <strong>analoge</strong>n zum <strong>digitale</strong>n Bild gesprochen, wie er ja auch zum Beispiel be<strong>im</strong><br />
Digital Imaging passiert. Hier haben wir zunächst die <strong>analoge</strong> Erscheinung der Welt und<br />
erhalten als Endergebnis ein digital umgesetztes Bild. Den Vorgang der Umsetzung nennt man<br />
Digitalisierung. Da herkömmliche Computer nur mit <strong>digitale</strong>n Daten umgehen können, müssen<br />
analog vorliegende Daten zunächst digitalisiert werden. Dabei ist gerade der eigentliche<br />
Umwandlungsprozess, also der Übergang vom <strong>analoge</strong>n zum <strong>digitale</strong>n Bild von großem<br />
Interesse. Denn an dieser Stelle erhält das zukünftige <strong>digitale</strong> Bild seine Beschaffenheit.<br />
Die Frage was be<strong>im</strong> Erzeugen eines <strong>digitale</strong>n Bildes eigentlich genau passiert, soll <strong>im</strong><br />
Folgenden geklärt werden. Dabei werden wir auch vom Bild weggehen und etwas abstrakter<br />
über den Transformationsprozess sprechen. Doch zunächst zu den <strong>Bilder</strong>n.<br />
Abbildung 7: Illustration des Digitalisierungspozesses 53<br />
Um <strong>Bilder</strong> mit Rechnern verarbeiten zu können, müssen sie in Datenformate umgesetzt<br />
werden, die rechnerkompatibel sind. Das heißt die <strong>Bilder</strong> müssen derart aufbereitet werden,<br />
dass sie der Computer „versteht“. Für fotografische Vorlagen oder Strichzeichnungen<br />
werden hierzu so genannte Scanner oder auch Zeilenabtaster eingesetzt. Das eigentliche<br />
Gerät, das die Umwandlung vorn<strong>im</strong>mt, ist ein Analog-Digital-Wandler. In Digitalkameras findet<br />
dieser Vorgang ebenfalls mithilfe eines A/D-Wandlers statt.<br />
53 Bildquelle: http://www.agfanet.com/de (07.01.2002)<br />
44
3.5.2 Umwandlung von <strong>Bilder</strong>n<br />
Zwei Vorgänge sind bei der Umwandlung von <strong>Bilder</strong>n von besonderer Bedeutung, zum einen<br />
die Rasterung, zum anderen die Quantisierung.<br />
Bei der Rasterung wird das vorliegende Bild durch die Überlagerung eines zumeist<br />
rechteckigen oder quadratischen Gitters in einzelne Rasterflächenstücke unterteilt. Die<br />
Rasterung des Bildes überführt dieses in ein zweid<strong>im</strong>ensionales rechteckiges Zahlenschema,<br />
eine so genannte Bildmatrix. (Abbildung 8) Eine Zeile der Bildmatrix wird als Bildzeile, eine<br />
Spalte wird als Bildspalte und eine Rasterfläche, also ein Bildelement, als Bildpunkt, oft auch<br />
als Pixel bezeichnet. Pixel ist ein Kunstwort, gebildet aus der englischen Bezeichnung „picture<br />
elements“. Die Bildmatrix selbst kann unterschiedliche Geometrien aufweisen. Für die<br />
zweid<strong>im</strong>ensionale Bildmatrix wird fast ausschließlich eine rechteckige Basiszelle benutzt und<br />
keine quadratische, da die gängigen Bildformate rechteckig sind (Kleinbildfilme: 24 x 36 mm,<br />
Videobilder haben ein Seitenverhältnis von 3 zu 4), aber <strong>im</strong> <strong>digitale</strong>n Bild eine gleiche Anzahl<br />
von Bildpunkten in beiden Koordinaten erwünscht ist. Ein Bildpunkt auf dem Gitter nennt man,<br />
wie bereits gesagt, Pixel. Die Pixelposition wird mit einem Zahlenpaar (m,n) ∈ (0,..,M-1,0,..,N-<br />
1) angegeben. Mit n bezeichnet man auch den Zeilenindex und entsprechend bezeichnet m<br />
den Spaltenindex, dabei ist N die Zeilenanzahl und M die Spaltenanzahl der Matrix. Durch die<br />
Beschaffenheit der Bildmatrix, es handelt sich hierbei um eine so genannte diskrete<br />
Geometrie, ergeben sich verschiedene Konsequenzen. So können die Bildinhalte nur um<br />
best<strong>im</strong>mte Winkelgrade gedreht werden, bei quadratischen Rastern um ein Vielfaches von<br />
90°. Auch bei der Vergrößerung oder Verkleinerung von Bildinhalten ergeben sich<br />
ungewünschte Veränderungen.<br />
Abbildung 8: Rasterung des Bildes<br />
Die Rasterung führt zu einer Begrenzung der Auflösung des Bildes. Je feiner das Raster ist,<br />
das über die Vorlage gelegt wird, desto höher ist die resultierende Auflösung des Bildes. Es<br />
gibt also mehr Bildelemente, Pixel pro Längeneinheit (Zent<strong>im</strong>eter, Inch oder ähnliches).<br />
Die Rasterung erfolgt teilweise schon bei der Aufnahme eines Bildes mit einer <strong>digitale</strong>n Fotooder<br />
Videokamera, welche die ortsabhängige Lichtintensität des projizierten Bildes in<br />
45
elektrische Signale überträgt. Eine konventionelle Röhrenkamera zerlegt ein Bild durch<br />
zeilenweises Abtasten mit einem Elektronenstrahl in einzelne Zeilen. Damit ist die vertikale<br />
Rasterung schon gegeben. Eine CCD-Kamera hat als Sensor ein zweid<strong>im</strong>ensionales Feld von<br />
Photodioden. Jede dieser Dioden kann als Rasterpunkt einer diskreten zweid<strong>im</strong>ensionalen<br />
Bildmatrix betrachtet werden. Be<strong>im</strong> „einlesen“ einer Vorlage geschieht die Rasterung be<strong>im</strong><br />
Scannen. Dabei können sich in Abhängigkeit von der Lage des Originals auf dem<br />
quadratischen Raster Unterschiede in der Form ergeben.<br />
Zur Quantisierung wird jeder dieser Rasterflächen mit einer der vorgegebenen Farb- oder<br />
Grauwerte, <strong>im</strong> einfachsten Fall nur schwarz oder weiß, gefüllt. Das heißt jeder Rasterfläche<br />
muss einer der zur Verfügung stehenden Farbwerte zugeordnet werden. Dabei muß<br />
entschieden werden, welcher der Farbwerte in Frage kommt. Das Problem an dieser Stelle ist,<br />
daß den „kontinuierlich“ vorliegenden Farbwerten des Urbildes nur endlich viele Werte des<br />
zukünftigen Bildes gegenüberstehen.<br />
Zur Erläuterung nehmen wir einmal an, dass wir ein <strong>analoge</strong>s Schwarz-Weiß-Bild<br />
digitalisieren wollen, wobei wir <strong>im</strong> <strong>digitale</strong>n Bild nur zwei Grauwerte verwenden wollen. Im<br />
vorliegenden Beispiel (Abbildung 9) haben wir also zunächst ein <strong>analoge</strong>s „Schwarz-Weiß-<br />
Bild“. Bei diesem Grautonbild erfolgt die Abbildung des Motivs durch unterschiedliche<br />
Schwärzung der Photoschicht. Im Quantisierungsprozeß wird nun jedem Farbwert, hier<br />
Grauwert, des Originals ein möglicher Farbwert zugeordnet. Das heißt konkret es können nur<br />
die zwei Farbwerte „weiß“ und „schwarz“ zugeordnet werden. Dazu muss überprüft<br />
werden, wie stark ein Bildpunkt vom Objekt überdeckt ist. Wenn die Fläche eines Bildpunktes<br />
zu 50% oder mehr vom Objekt überdeckt wird, wird dieser Schwarz gefärbt, sonst ist er<br />
weiß.<br />
Abbildung 9: Quantisierung des Bildes mit zwei Grauwerten<br />
So erhalten wir das Computerbild. Dieses Schwarz-Weiß-Bild ist nur aus zwei Grautönen<br />
(Schwarz und Weiß) zusammengesetzt. Hier werden also nur zwei Farbwerte zur<br />
Verfügung gestellt. Es ist klar, dass die Farbqualität des Bildes umso besser wird, je mehr<br />
Grauwerte zur Verfügung stehen. Dabei ist eine Grauwertmenge von 256 Grauwerten in den<br />
meisten Fällen für das menschliche Auge ausreichend.<br />
Bei Farbbildern läuft dieser Vorgang gleich ab, nur daß anstatt der Grauwerte nun echte<br />
Farbwerte zur Auswahl stehen. Meist werden in mehreren Schritten die drei Grundfarben<br />
46
zugeordnet, also drei <strong>Bilder</strong> erzeugt, die dann miteinander verrechnet werden. Es werden so<br />
genannte Rot-, Grün- und Blauauszüge angefertigt. Jeder der drei Abtastvorgänge ergibt ein<br />
Grundfarben-Teilbild des entstehenden Bildes. Schließlich können die jetzt „digital“, als<br />
Zahlenwerte vorliegenden <strong>Bilder</strong> gespeichert werden und stehen für die Weiterverarbeitung<br />
zur Verfügung.<br />
3.5.3 Umwandlung abstrakt betrachtet - Theorie<br />
Wir wollen uns pr<strong>im</strong>är um <strong>Bilder</strong> kümmern, aber man kann den Digitalisierungsvorgang auch<br />
abstrakt betrachten, also losgelöst von der konkreten Anwendung. Dies ist nützlich, um den<br />
Ablauf prinzipiell zu verstehen.<br />
Ausgehend von <strong>analoge</strong>n Daten, die vielseitig vorliegen können, als Bild, als Schallwelle (Ton,<br />
Geräusch) oder auch als abstrakte Messdaten, geht es <strong>im</strong> Digitalisierungsprozess darum, die<br />
Informationen derart zu codieren, dass sie unter Verwendung eines begrenzten Repertoires<br />
an Zeichen dargestellt werden können.<br />
Abbildung 10: <strong>analoge</strong>s Bild mit<br />
überabzählbar vielen Bildpunkten<br />
Mathematisch schreiben wir die Digitalisierung des Bildes als Abbildung f einer<br />
zweid<strong>im</strong>ensionalen Bildfunktion mit einem unendlichen Definitionsbereich auf eine<br />
zweid<strong>im</strong>ensonale Matrix mit diskretem Definitionsbereich:<br />
f: g( x1, x2) à g(m,n) ; x1, x2 ∈ R m, n ∈ N<br />
dabei können die Funktionswerte g(m,n) der Matrix noch Werte aus einem unendlichen<br />
Wertebereich annehmen. Dies stellt den Zustand des Bildes nach der Rasterung dar. Dazu<br />
müssen die kontinuierlich vorliegenden Informationen abgetastet werden. Das heißt es<br />
müssen <strong>im</strong> weitesten Sinn Messungen vorgenommen werden. Diese Messungen finden in<br />
gleichmäßigen Abständen statt, das heißt die Rasterpunkte sind äquidistant zueinander.<br />
Handelt es sich zum Beispiel um musikalische Daten wird dieser Vorgang auch Sampling<br />
genannt. Hier findet eine Abtastung in gleichen Zeitabständen statt Die Samplingrate oder<br />
Samplingfrequenz, gibt also darüber Auskunft, wie oft pro Sekunde (Hz = 1/s) Informationen<br />
47
abgetastet werden. Es ist klar, dass die Qualität der digitalisierten Daten umso höher ausfällt,<br />
je öfter die <strong>analoge</strong>n Werte abgefragt werden.<br />
4,34532...<br />
Abbildung 11: gerastertes Bild mit endlich vielen Bildpunkten<br />
Dabei ist auch klar, dass alle Werte des Originals, die zwischen zwei Messpunkten liegen<br />
verloren gehen. Dies gilt selbstverständlich sowohl für <strong>Bilder</strong>, wie auch Sound und andere<br />
Daten. Wenn man nur einen Teil der vorliegenden Daten auswählt, geht der andere Teil<br />
selbstverständlich verloren, man verliert also zwangsläufig ein gewisses Maß an Information.<br />
In diesem Zusammenhang spricht Goodman von Tilgung 54 , was den Sachverhalt sehr<br />
anschaulich nahelegt. Auf die <strong>Bilder</strong> übertragen, wäre dies der Fall, wenn das Gitter bei der<br />
Rasterung zu grob gewählt wurde. Dann wäre die sich ergebende Auflösung des Bildes<br />
derart unscharf, dass ein „Wiedererkennen“ des ursprünglichen Bildes unmöglich wäre. 55<br />
Dies also ist der Zustand nach der Rasterung des Bildes. Der Verlust ist aber auch<br />
vorhanden, wenn wir dies nicht mehr mit unserem kognitiven System überprüfen können, die<br />
Ausmaße der Verluste also außerhalb des für uns sinnlich Wahrnehmbaren liegen.<br />
Abbildung 12: Prinzip der Digitalisierung<br />
54 Nelson Goodman (1998), S. 158<br />
55 Vergleiche hierzu auch die Arbeit von Holger Friese (Berlin). Friese verwendete in seiner Installation eine digitalisierte Version des<br />
Filmes „Zabriskie Point“ aus den 60-er Jahren, den er auf 3x3 Pixel reduziert. Die verbleibenden 9 Pixel zeigt er mit großen von Innen<br />
beleuchtbaren Kisten, die auf- und nebeneinander gestapelt als Quadrat angeordnet sind. Es geht ihm dabei genau um die Frage der<br />
Wiedererkennung, also um die Grenze der Auflösung. Dabei hat er die visuelle Grenze verschoben, indem er einen zusätzlichen Kanal,<br />
nämlich den der Musik ins Spiel bringt. Friese spielt zum 3x3 Pixel Bild den Original Soundtrack des Filmes synchron ab, also unter<br />
anderem die psychedelische Musik von Pink Floyd. Er versetzt den Betrachter in dieser Weise in einen merkwürdigen Zustand der<br />
Wiedererkennung und der Irritation.<br />
48
Im zweiten Schritt der Quantifizierung werden die noch kontinuerlich vorliegenden Werte den<br />
zur Verfügung stehenden diskreten endlichen Farbwerten zugeordnet. Es muß also wie<br />
bereits erläutert werden, welcher Farbwert für welchen Datenwert in Frage kommt. Wenn<br />
man eine Größe, die beliebig viele Zwischenstufen annehmen kann, in eine andere mit nur<br />
best<strong>im</strong>mten Werten umwandelt, verliert man zwangsläufig ein gewisses Maß an Information.<br />
4<br />
Abbildung 13: gerastertes und quantifiziertes Bild<br />
Beide Aspekte best<strong>im</strong>men wesentlich die Qualität und davon abhängig die Datenmenge.<br />
In der Praxis stellt man die Samplingrate beziehungsweise die Empfindlichkeit des<br />
Messvorgangs bei der Digitalisierung deshalb oft so ein, dass der Informationsverlust<br />
möglichst vernachlässigbar gering ist und die Datenmenge nicht zu groß wird. Man kann<br />
diesen Informationsverlust sehr gut anhand von digitalisierten Fotos sehen. Je weniger<br />
verschiedene Farben und je weniger Bildpunkte <strong>im</strong> digitalisierten Bild verwendet werden,<br />
desto größer der Informationsverlust. Letztendlich ist die Digitalisierung ein Vorgang, bei dem<br />
Erscheinungen der wirklichen Welt (<strong>Bilder</strong>, Töne, Messwerte etc.) in Folgen von Bits<br />
umgewandelt werden. Je genauer die Digitalisierung erfolgt, desto umfangreicher sind diese<br />
Bitfolgen. Allein mit solchen Bitfolgen kann ein Computer umgehen. Weil ein Computer nur<br />
begrenzte Kapazitäten besitzt, um solche Bitfolgen zu speichern, kann die Digitalisierung nur<br />
mit begrenzter Genauigkeit erfolgen. Ein Problem der Digitalisierung, ist die mögliche<br />
Verfälschung als Folge des Informationsverlustes. Das Phänomen tritt dann auf, wenn die<br />
Abtastrate ungünstig gewählt wurde, und die erhaltenen Messdaten ein „falsches“ Bild des<br />
ursprünglichen Sachverhaltes wiedergeben.<br />
Abbildung 14: Prinzip des Sampling<br />
49
Dieser Vorgang ist in Abbildung 14 dargestellt. Während <strong>im</strong> linken Bild die Abtastrate<br />
angemessen gewählt wurde, ist dies <strong>im</strong> rechten Bild nicht der Fall. Betrachtet man die<br />
resultierenden schwarzen Punkte der Messung, also die <strong>digitale</strong>n Daten, erhält man <strong>im</strong> linken<br />
Bild einen sinnvollen Eindruck des Verlaufs der Kurve. Dies ist <strong>im</strong> rechten Bild nicht der Fall,<br />
hier kann man keine Aussagen mehr über den ursprünglichen Verlauf der Kurve machen. Als<br />
anschauliches Beispiel kann man sich ein gewöhnliches Flüssigkeitsthermometer vorstellen,<br />
an dem man alle 10 Minuten die Temperatur abliest.<br />
Wenn man die abgelesenen Temperaturwerte vor sich liegen hat, ist es <strong>im</strong> nachhinein<br />
unmöglich Aussagen darüber zu machen, welche Temperaturen zwischen zwei Messungen<br />
geherrscht haben. Intuitiv würde man davon ausgehen, dass bei einer Erhöhung der<br />
Temperatur von 2° auf 5° diese langsam angestiegen ist. Es wäre aber auch durchaus<br />
denkbar, dass die Temperatur zwischenzeitlich auf 8° gestiegen ist und dann wieder auf 5°<br />
gefallen ist. Dies kann aufgrund der vorliegenden Daten nicht mehr mit Sicherheit rekonstruiert<br />
werden. In umgekehrter Weise funktioniert die Analogisierung von Daten. Dabei übern<strong>im</strong>mt ein<br />
so genannter Digital/Analog-Wandler die Aufgabe der Umwandlung. Es ist klar, dass bei<br />
diesem Vorgang, die Werte wieder ergänzt werden müssen. Goodman spricht in diesem<br />
Zusammenhang anschaulich von „Ergänzung“.<br />
3.7 Spezifische Eigenschaften<br />
Nachdem wir jetzt am Beispiel der Fotografie beziehungsweise des Digital Imaging die<br />
Unterschiede der beiden Medienarten, also der „<strong>analoge</strong>n“ und „<strong>digitale</strong>n“ Bildmedien heraus<br />
gearbeitet haben, können wir versuchen die spezifischen Eigenschaften noch einmal kurz<br />
anzugeben. Zumindest die, die wir bis jetzt herausgefunden haben. Wir müssen uns aber<br />
auch um die Übertragung auf die anderen künstlerischen Medien kümmern. Die Frage die sich<br />
stellt, ist, ob sich bei den herausgefundenen Eigenschaften, vielleicht nur um spezielle<br />
Eigenschaften der Fotografie handelt. Welche der gefundenen Eigenschaften darf man auf<br />
andere Bildmedien übertragen? Im Folgenden werde ich versuchen eine kurze<br />
Zusammenfassung dessen zu geben.<br />
3.7.1 Analoge Bildmedien<br />
Eine der wichtigen Eigenschaften der <strong>analoge</strong>n Bildmedien, haben wir festgestellt, ist die der<br />
unmittelbaren Wahrnehmung. Sie sind für den menschlichen Wahrnehmungsapparat<br />
unmittelbar erfassbar. Dieses Phänomen zeigt sich in der Malerei, der Zeichnung, aber auch in<br />
den reproduzierbaren Medien wie der Fotografie oder der Druckgrafik.<br />
In den ersten beiden Fällen haben wir eine materielle Beschaffenheit, die <strong>im</strong> Arbeitsprozess<br />
festgelegt wird, und die jederzeit unmittelbar sinnlich erfasst werden kann. So funktioniert ja<br />
50
überhaupt der Arbeitsprozess, durch ständig wiederholtes Bearbeiten, Wahrnehmen und<br />
Reflektieren und erneutes Verändern des als unfertig eingeschätzten.<br />
Bei den reproduzierbaren Medien haben wir zunächst eine „Form“, aber auch diese kann<br />
eigentlich <strong>im</strong>mer visuell erfasst werden und Künstler die mit diesen Medien, zum Beispiel der<br />
Radierung arbeiten, lernen mit der Zeit diese schon <strong>im</strong> Zustand der Form zu „lesen“ und zu<br />
„schreiben“. Eine Ausnahme wäre dagegen die <strong>analoge</strong> Fotografie, bei der zunächst ein<br />
„latentes“ Bild entsteht, auch eine Art „Form“, die aber nicht durch unser kognitives System<br />
wahrgenommen werden kann. Nicht weil wir es nicht gelernt haben, sondern weil es uns<br />
generell nicht möglich ist, die Informationen in diesem Zustand sinnlich zu erfassen.<br />
Eine andere Eigenschaft der Malerei und auch der Zeichnung, den die <strong>digitale</strong> Umwandlung<br />
und Aufbewahrung der <strong>Bilder</strong> zunichte macht, ist die Oberflächenbeschaffenheit. Wenn die<br />
Malerei und die Zeichnung auch für gewöhnlich als zweid<strong>im</strong>ensional angesehen wird, so<br />
spielt diese Beschaffenheit doch eine nicht unerhebliche Rolle. Durch die oft reliefartige<br />
Beschaffenheit der Oberfläche entstehen spezielle Wirkungen. Durch die Bearbeitung des<br />
Materials können Erhöhungen oder auch Vertiefungen entstehen. Durch das Überlagern<br />
verschiedener Bildschichten können Erhöhungen oder Verdickungen und durch das Einritzen<br />
oder Kratzen können Vertiefungen an best<strong>im</strong>mten Stellen entstehen. Damit entsteht min<strong>im</strong>ale<br />
Plastizität, die aber am fertigen Artefakt eine nicht unerhebliche Rolle spielt. Den <strong>digitale</strong>n<br />
<strong>Bilder</strong>n fehlt diese Eigenschaft gänzlich, sie werden deshalb oft auch als „tot“ bezeichnet.<br />
Man kann das an „eingescannten“ Zeichnungen oder auch Malereien sehr schön sehen.<br />
Die <strong>im</strong> Bereich der Fotografie und des Digital Imaging festgestellte Differenz der Authentizität<br />
ist nur schwer und wenn sehr differenziert auf die anderen Medien zu übertragen. Bei<br />
<strong>Bilder</strong>n, die von Apparaten erzeugt wurden (wie es bei der Fotografie der Fall ist) gehen wir<br />
von einer relativ hohen Authentizität aus, weil sich die <strong>Bilder</strong> sozusagen selbst „schreiben“,<br />
ohne das Zutun eines Menschen. Das entstandene Bild ist in seiner Beschaffenheit von Form<br />
und Farbe sehr nah an dem dran, was uns die Realität zeigt. Dabei bleibt in der Fotografie<br />
sogar die Struktur der Bildelemente zueinander, wie gezeigt wurde, in der Art eines<br />
Isomorphismus erhalten. Dieser Vertrauensvorsprung wurde durch das Digital Imaging<br />
erschüttert. Es besteht nun <strong>im</strong> extremsten Fall die Möglichkeit autonome <strong>Bilder</strong> losgelöst von<br />
der Welt zu produzieren.<br />
Bei den traditionellen Medien der Kunst, wie der Zeichnung oder Malerei haben wir es<br />
eigentlich <strong>im</strong>mer mit direkt vom Menschen angefertigten Werken zu tun. Damit haben wir eine<br />
„subjektivere“ Sichtweise der Dinge. Je nachdem welche Eigenschaften der Dinge der<br />
Künstler herausarbeiten möchte, fällt auch die Erscheinung <strong>im</strong> Bild anders aus. Der Künstler<br />
entwickelt eine eigene Sprache, mit der er versucht, die Welt, die er wahrn<strong>im</strong>mt, zu<br />
beschreiben. Es ergeben sich erhebliche Unterschiede aus der Art der Focusierung, also der<br />
Auswahl des Wahrgenommenen. Daraus entsteht in den Arbeiten ein ganz anderer<br />
Bedeutungsschwerpunkt.<br />
Ein anderer Bereich sind die fiktiven <strong>Bilder</strong>, die ja als <strong>Bilder</strong>findungen des Künstlers gesehen<br />
werden können, in denen es „unwirkliche“ Konstellationen von Wirklichkeit geben kann, oder<br />
51
die losgelöst von jeder Realität eigene Welten darstellen. Dies geht bis zu den „konkreten“<br />
Werken, in denen fast gar kein oder überhaupt kein Bezug mehr zu Realität besteht. Hier ist es<br />
schwierig zu argumentieren, denn man könnte auf der einen Seite sagen, dass diese absolut<br />
authentisch sind, da sie ja ganz das darstellen, was sie sind, oder aber man spricht ihnen<br />
jegliche Authentizität ab.<br />
3.7.1 Digitale Bildmedien<br />
Die <strong>digitale</strong>n <strong>Bilder</strong> sind auf jeden Fall <strong>Bilder</strong>, die für den Computer und nicht für den Menschen<br />
verständlich vorliegen. Die digitalisierten <strong>Bilder</strong> liegen also materialisiert auf einem von einer<br />
elektronischen Datenverarbeitungsanlage lesbaren Speicher. Eine EDV-Anlage kann in diesem<br />
Zusammenhang ein Personalcomputer oder ein MAC sein, aber auch das Innenleben einer<br />
Digitalkamera. Das Bild, das nun auf einem Datenträger abgespeichert ist (es könnte auch<br />
unter ständiger Stromzufuhr <strong>im</strong> Arbeitspeicher verbleiben, dies ist aber nicht der Punkt) kann<br />
von Menschen nicht visuell erfasst werden. Dies hat zwei Gründe, zum einen ist das<br />
Auflösungsvermögen des menschlichen Auges überschritten und zum anderen sind wir es<br />
nicht gewohnt solche <strong>Bilder</strong> zu „lesen“, wir haben dies nicht gelernt. Wir können diese also<br />
nicht decodieren. Die <strong>digitale</strong>n <strong>Bilder</strong> sind also codiert und um diese darzustellen, müssen sie<br />
erst aufbereitet, der Code zurück verwandelt werden. So kann ein und dasselbe Bild in<br />
verschiedenen Versionen erscheinen, je nachdem, wie es reproduziert wird. Es könnte zum<br />
Beispiel am Bildschirm angezeigt oder auf einem Drucker ausgedruckt werden.<br />
Das ist ein wichtiger Punkt: Denn das <strong>digitale</strong> Bild muss sich <strong>im</strong>mer erst materiell manifestieren,<br />
wobei die verschiedenen Manifestationen sehr unterschiedlich ausfallen können. Es scheint<br />
als hätte man eine ähnliche Situation wie bei den reproduzierbaren Medien. Auch hier existiert<br />
eine Art „Code“, nämlich die Form, von der Abzüge gemacht werden. Es wäre dabei auch ein<br />
Unterschied, ob man mit einer Linolplatte als Form auf ein Kupferdruckpapier, eine Tapete oder<br />
einen Teppich druckt. Die Resultate wären sicherlich sehr unterschiedlich, dennoch wären die<br />
Ergebnisse sehr nah beieinander und sie sind direkt abhängig von der Form die eingesetzt<br />
wird. Dies ist be<strong>im</strong> <strong>digitale</strong>n Bild nicht alleinig ausschlaggebend. Worin genau die Unterschiede<br />
zwischen Form und Code bestehen werden wir noch genau in Kapitel 4.3 untersuchen.<br />
Was man auf jeden Fall festhalten kann, ist der Informationsverlust der bei der Digitalisierung<br />
einer Vorlage eintritt. Dabei ist es egal, ob es sich bei der Vorlage um die Welt, die uns umgibt<br />
oder eine Zeichnung handelt. Wir können davon ausgehen, dass be<strong>im</strong> Umwandlungsprozess<br />
ein Informationsverlust stattfindet. Wir haben also unterschiedliche Informationen bezüglich<br />
der Urbilder vorliegen. Dieses Phänomen haben wir am Beispiel der Fotografie und den<br />
entstehenden <strong>Bilder</strong>n explizit gezeigt. Ein anderes Beispiel wäre eine eingescannte<br />
Zeichnung, bei der die Rasterung eine Verringerung der Auflösung zur Folge hat.<br />
Anders sieht es dagegen bei direkt am Computer hergestellten <strong>Bilder</strong>n aus, diese werden ja<br />
nicht umgewandelt. Hier haben wir einen ganz eigenen neuen Bereich, den wir als spezifisch<br />
für die <strong>digitale</strong>n Medien markieren können. Es können <strong>Bilder</strong> mit Algorithmen erzeugt werden,<br />
52
wie es zum Beispiel in der Informationsästhetik oder auch bei den Fraktalen geschieht. Die<br />
<strong>digitale</strong>n <strong>Bilder</strong> sind „mathematisiert“ und damit rechenbar. Jeder Bildpunkt ist zu jeder Zeit<br />
direkt ansprechbar, abfragbar und modifizierbar. Damit sind auch Transformationen <strong>im</strong> Bild<br />
möglich, wobei an Morphing als ein Beispiel <strong>im</strong> visuellen Bereich gedacht werden kann. Oder<br />
es können mit einer Grafik-Software <strong>Bilder</strong> aus anderen <strong>Bilder</strong>n zusammengestellt und<br />
weiterverarbeitet werden. So werden neue „unwirkliche“ <strong>Bilder</strong> erzeugt, die eigenständig für<br />
sich stehen und die als Visualisierung von bereits vorhandenen Informationen verstanden<br />
werden können.<br />
3.8 Zusammenfassung<br />
Wir haben jetzt die andere, die technischere Bedeutung der beiden Begriffe „analog“ und<br />
„digital“ kennengelernt. Wir verstehen nun die Bedeutung des Wortes „digital“ <strong>im</strong> Sinne von „in<br />
Schritten, in Stufen“ beziehungsweise „diskret“ und die zugehörige Bedeutung von „analog“<br />
<strong>im</strong> Sinne von „kontinuierlich“ oder auch „stetig“. „Analog“ hat hier nicht mehr die Bedeutung<br />
von „entsprechend“ oder „ähnlich“, wie wir es zuvor festgestellt haben. 56<br />
Gottfried Jäger hatte vorgeschlagen, dass man <strong>Bilder</strong>, bei denen man davon ausgehen kann,<br />
dass sie eine Art „Entsprechung“ der Welt zeigen analog nennen soll. Nach unserem neuen<br />
Verständnis muss bei <strong>analoge</strong>n <strong>Bilder</strong>n dagegen keine Entsprechung mehr zum abgebildeten<br />
Gegenstand bestehen. Es besteht also keine funktionale Analogie mehr zwischen Bild und<br />
Abgebildetem. Vielmehr geht es hier um die Struktur der <strong>Bilder</strong>, also die Beschaffenheit der<br />
<strong>Bilder</strong>. Vielleicht kann man den Bogen zur anderen Bedeutung derart spannen, wenn man<br />
sagt, dass eigentlich alle sinnlich wahrnehmbaren Phänomene in der Welt <strong>analoge</strong>n Charakter<br />
besitzen und die strukturell <strong>analoge</strong>n <strong>Bilder</strong>, die aber nichts aus der Welt repräsentieren<br />
müssen, in diesem Sinne ähnlich zur Welt sind. Die wäre also „Ähnlichkeit“ <strong>im</strong> Hinblick auf die<br />
Struktur von Welt und Bild. Es handelt sich, wenn man es so sehen will, um eine strukturelle<br />
Analogie.<br />
Wir müssen also zum einen die Bedeutung des Bildes von der Beschaffenheit des Bildes<br />
unterscheiden. Wenn wir nach der Bedeutung fragen, betrachten wir das Bild als Abbildung<br />
von etwas und schauen danach, was es darstellt. Wenn wir dagegen nach der<br />
Beschaffenheit fragen, schauen wir, wie es gemacht ist. Man spricht in diesem<br />
Zusammenhang auch vom Syntax und der Semantik des Bildes.<br />
Zur Veranschaulichung hilft vielleicht die Vorstellung des Fensterblickes. Wie be<strong>im</strong> Fenster hat<br />
man be<strong>im</strong> Bild zwei Möglichkeiten. Entweder man schaut hindurch und betrachtet das<br />
dargestellte oder man betrachtet die Oberfläche, den Bildträger und schaut nach der<br />
Beschaffenheit, dann geht der Fensterblick durch das Fenster hindurch verloren. Der<br />
56<br />
Die Begriffe „kontinuierlich“, „diskret“ und „stetig“ werden in Kapitel 4.2.5 noch eingehend erläutert.<br />
53
Augenmerk kann nur zwischen den beiden Zuständen hin und her pendeln, es ist eigentlich<br />
unmöglich beides gleichzeitig wahrzunehmen.<br />
Da wir gesehen haben, dass die Begriffe „analog“ und „digital“ in diesem neuen Verständnis,<br />
die Beschaffenheit der Bildträger beschreiben, werden wir uns <strong>im</strong> Folgenden Kapitel intensiv<br />
mit der „Oberfläche“, also mit der Beschaffenheit der Bildträger beschäftigen. Die Theorie von<br />
Nelson Goodman versucht die Bildhaftigkeit pr<strong>im</strong>är über die Beschaffenheit der <strong>Bilder</strong>, den so<br />
genannten syntaktischen Strukturen zu beschreiben, was den Vorteil hat, dass man sich<br />
vorerst nicht um die semantische Bedeutung des Bildes kümmern muss.<br />
54
4. Bildtheorie<br />
4.1 Einführung<br />
Nachdem wir am Ende des letzten Kapitels das <strong>digitale</strong> Bild gründlich seziert und damit<br />
analysiert haben, wollen wir nun zu einer der Kernfragen, nämlich die der eigentlichen<br />
Substanz des <strong>digitale</strong>n Bildes vordringen. Dafür muss ein bißchen Vorarbeit geleistet werden.<br />
Wenn wir die Differenz von <strong>analoge</strong>n und <strong>digitale</strong>n <strong>Bilder</strong>n bezüglich ihrer Beschaffenheit<br />
untersuchen wollen, müssen wir diese erst einmal kennen. Die Beschaffenheit des <strong>digitale</strong>n<br />
Bildes haben wir bereits aus einer best<strong>im</strong>mten Perspektive kennengelernt. Was wir zuvor in<br />
einem sehr technischen Verständnis gesehen haben, wollen wir nun mit den Mitteln der<br />
Bildtheorie beschreiben und dabei versuchen beides in Einklang zu bringen.<br />
Die Bildtheorie beschäftigt sich mit der Erklärung des Begriffes des Bildes, mit dessen<br />
vollständiger Klärung eine sichere Klassifikation gegebener Gegenstände als <strong>Bilder</strong> möglich<br />
wäre. Die Bildtheorie versucht Antworten auf die Fragen zu geben, was ein Bild ist, wie es<br />
abbildet oder darstellt, und wie sich <strong>Bilder</strong> von anderen Arten von Symbolen und<br />
insbesondere von sprachlichen Symbolen unterscheiden. Desweiteren versucht die<br />
Bildtheorie die Bedingungen der <strong>Bilder</strong> zu klären. Was ein Bild zum Bild macht, was insofern<br />
Kriterien für <strong>Bilder</strong> sind. Unter welchen Umständen ein Bild ein Bild ist, also welches die<br />
Bedingungen sind, damit ein Bild ein Bild ist. Was sie nicht leisten kann und will, ist es<br />
Aussagen über die Qualität der <strong>Bilder</strong> zu treffen.<br />
Klaus Sachs-Hombach, als Herausgeber mehrerer Sammelbände zur Bildtheorie, schätzt die<br />
momentane Situation der Bildtheorie wie folgt ein: „Es haben sich in der philosophischen<br />
Bilddiskussion insbesondere zwei Stränge herausgebildet: <strong>Bilder</strong> werden entweder mit Blick<br />
auf die Semiotik pr<strong>im</strong>är als spezielle Zeichen verstanden oder aber mit Blick auf<br />
psychologische Theorien sehr eng an spezielle Wahrnehmungsphänomene gebunden. Bei<br />
den zeichentheoretischen Ansätzen dominiert teilweise das Bemühen um eine Übertragung<br />
der sprachwissenschaftlichen Termini, teilweise stehen Fragen einer kognitivistischen<br />
Ästhetik <strong>im</strong> Vordergrund.“ 57<br />
<strong>Bilder</strong> werden heute also entweder als Zeichen gesehen oder als<br />
Wahrnehmungsphänomene, als „reine Sichtbarkeit“. Aus dieser Sicht könnte man sagen:<br />
„<strong>Bilder</strong> sind Dinge, bei denen sich die Sichtbarkeit verselbständigt. <strong>Bilder</strong> zeigen etwas,<br />
was sie selbst nicht sind, <strong>im</strong> Gegensatz zu einer Imitation, die etwas nachahmt und dieses<br />
Nachgeahmte auch sein will.“ 58<br />
Der andere Ansatz ist, wie gesagt, das Bild als Zeichen aufzufassen. Ein Zeichen ist<br />
zunächst einmal ein Gegenstand der für etwas anderes steht. Es verweist auf etwas, das<br />
existent oder fiktiv sein mag, und diese Verweisfunktion kann jeder beliebige Gegenstand<br />
57 Klaus Sachs-Hombach und Klaus Rehkämper (Hrsg.), Bildgrammatik, Scriptum Verlag, Magdeburg, 1999, S.13<br />
58 Lambert Wiesing: Sind <strong>Bilder</strong> Zeichen, in: Klaus Sachs-Hombach, Klaus Rehkämper (Hrsg.), Bild - Bildwahrnehmung -<br />
Bildverarbeitung, Deutscher Universitätsverlag, Wiesbaden 1998, S.98<br />
55
übernehmen, wenn sich die Zeichenbenutzer konventionell darauf verständigen. Damit kann<br />
auch ein Bild konventionell als Zeichen für jeden beliebigen Gegenstand oder Sachverhalt<br />
erklärt werden. Die philosophische Semiotik geht davon aus, dass es Ähnlichkeiten zwischen<br />
<strong>Bilder</strong>n und sprachlichen Symbolen gibt. Dabei verwendet man die Annahme, dass <strong>Bilder</strong> auch<br />
Zeichen sind, denn <strong>Bilder</strong> weisen die Intentionalität von Zeichen auf, sind auf einen<br />
Gegenstand oder einen Inhalt gerichtet. Sie beziehen sich auf etwas, handeln von etwas oder<br />
gehen über etwas. Sie sind mit einer best<strong>im</strong>mten Absicht gemacht worden und nicht zufällig<br />
entstanden, wie zum Beispiel der Schatten einer vorübergehenden Person an der Wand 59 .<br />
Wenn man von <strong>Bilder</strong>n spricht, hat man es mit einer großen Vielfalt von Symbolen zu tun:<br />
Künstlerische <strong>Bilder</strong>, Diagramme, Landkarten, Partituren, technische Zeichnungen und viele<br />
mehr. Es ist fragwürdig, ob man diese für eine Untersuchung überhaupt alle gleichzeitig<br />
berücksichtigen kann, oder ob man nicht eine Einteilung vorn<strong>im</strong>mt, um präzisere Aussagen für<br />
die einzelnen Kategorien machen zu können. Ich werde mich deshalb <strong>im</strong> Folgenden<br />
hauptsächlich auf künstlerische <strong>Bilder</strong> beziehen.<br />
Die Versuche, eine allgemeine Zeichen- oder Symboltheorie zu entwickeln, besitzen eine<br />
lange Tradition, aber erst Charles W. Morris verwendete den Begriff der „Semiotik“ für jede<br />
wissenschaftliche Untersuchung von Zeichensystemen. 60 Die Semiotik lässt sich dabei in die<br />
Bereiche Syntax oder auch Syntaktik, Semantik und Pragmatik untergliedern. Wobei es sich bei<br />
dieser Unterteilung nicht um drei separate, voneinander isolierte semiotische Disziplinen<br />
handelt. Die Syntax beschäftigt sich mit der formalen Struktur von Symbolen und ihren<br />
strukturellen Beziehungen untereinander. In der Semantik werden nicht nur die Symbole und<br />
ihre Beziehungen untereinander, sondern auch die Entitäten berücksichtigt, die durch die<br />
Symbole bezeichnet oder denotiert werden. Die Pragmatik schließlich ist das umfassendste<br />
Gebiet. In ihr werden nicht nur Symbole und das, was sie denotieren, sondern auch die<br />
Benutzer oder Interpreten der Symbolsysteme in die Untersuchung einbezogen. Wie bereits<br />
dargelegt, erscheint es durchaus sinnvoll die Prämisse zu akzeptieren, dass auch <strong>Bilder</strong><br />
Zeichen sind. und damit ergibt sich die Möglichkeit der Übertragung der gewonnenen<br />
Verfahren und Erkenntnisse aus der Semiotik auf den Bereich der <strong>Bilder</strong>.<br />
Nelson Goodman versuchte in seinem Buch „Languages of Art. An Approach to a Theory of<br />
Symbols“ (1968) eine universelle Symboltheorie zu entwickeln. Dabei wird das Wort<br />
„Symbol“, wie er selbst sagt, „als ein sehr allgemeiner und farbloser Ausdruck gebraucht. Er<br />
umfaßt Buchstaben, Wörter, Texte, <strong>Bilder</strong>, Diagramme, Karten, Modelle und mehr, aber er<br />
hat nichts Gewundenes oder Gehe<strong>im</strong>nisvolles an sich.“ 61<br />
Er versucht also für alle Zeichen eine allgemeingültige Theorie zu entwickeln, um die Fragen<br />
nach der Wirkung, der Klassifikation und der Beschaffenheit der Zeichen zu klären.<br />
59 Wobei Phänomene wie ein „nasser Fleck auf dem Boden“ oder ein „Schatten an der Wand“ <strong>im</strong> weitesten Sinne als Zeichen<br />
verstanden werden können. Sie werden genauer als Index bezeichnet, wobei ein Index etwas ist, was die Aufmerksamkeit auf den<br />
angezeigten Gegenstand mittels eines blinden Impulses richtet. So schließt man aus dem Anblick des „nassen Fleckes“ auf das<br />
Wasser, das gefallen ist, ebenso wie man be<strong>im</strong> Anblick des „Schattens an der Wand“ auf eine vorübergehende Person schließt. Jeder<br />
Index teilt also aufgrund von Konventionen oder erlernten Erfahrungen etwas mit.<br />
Vgl. Umberto Eco (1972), S. 198<br />
60 Vgl. Richard Schantz, Die Ordnung der <strong>Bilder</strong>, in: Klaus Sachs-Hombach und Klaus Rehkämper (1999), S. 94<br />
61 Nelson Goodman (1998), S. 9<br />
56
Dabei scheint es mir in mehrfacher Hinsicht interessant und lohnenswert, die wesentlichen<br />
Inhalte der Theorie von Goodman kurz zu rekapitulieren. Zum einen werden diese in der<br />
Bildtheorie sehr oft zitiert und zum anderen versuchte Goodman bereits 1968 sich den<br />
Begriffen „analog“ und „digital“ zu nähern, was die Theorie für uns sehr interessant macht. Er<br />
schreibt: „Natürlich hat ein <strong>digitale</strong>s System eigentlich nichts mit Digits und ein<br />
Analogsystem nichts mit Analogie zu tun. [...] Wenn eine Eins-zu-eins-Korrelation zwischen<br />
Charakteren und Erfüllungsklassen ein System analog macht, dann erweisen sich <strong>digitale</strong><br />
Systeme auch als <strong>analoge</strong>. Da man sich wahrscheinlich nicht von den traditionellen<br />
Ausdrücken „analog“ und „digital“ trennen wird, besteht die beste Verfahrensweise vielleicht<br />
in dem Versuch, sie von Analogie und Digits und einer Fülle ungenauer Redeweisen zu<br />
trennen und mit Hilfe von Dichte und Differenziertheit zu unterscheiden, obwohl diese keine<br />
Gegensätze darstellen.“ 62<br />
Er schlägt also vor, sich von den traditionellen Ausdrücken „analog“ und „digital“ zu trennen<br />
und statt dessen mit Hilfe der Begriffe „Dichte“ und „Differenziertheit“ eine Unterscheidung<br />
vorzunehmen. Wir werden uns damit noch genauer beschäftigen, doch zunächst interessiert<br />
uns, wie Goodman bildhafte Symbole beschreibt. Er sieht die bildhaften Systeme ja ebenfalls<br />
als Zeichen.<br />
Wenn man den Weg dieses Ansatzes wählt, kommt man nicht darum, an manchen Stellen<br />
Begriffe der Semiotik zu erklären. Wir werden dies sozusagen „en passant“ an den<br />
entsprechenden Stellen tun. Es schien mir daher sinnvoll, dazu auf einen der bedeutendsten<br />
Sprachwissenschaftler, jüngerer Zeit, einer der Pioniere der Semiotik, nämlich Umberto Eco<br />
zurückzugreifen. Zudem ist es reizvoll das ganze parallel aus dem Blick des Semiotikers zu<br />
betrachten. Besonders interessant ist die Tatsache, dass Eco sich 1972 in seinem Buch<br />
„Einführung in die Semiotik“ ebenfalls mit dem Problem des „analogischen und <strong>digitale</strong>n“<br />
auseinandergesetzt und sich dabei sogar ganz speziell auf bildhaften Zeichen oder wie Eco<br />
es nennt die „visuellen Codes“ bezieht.<br />
Ich werde versuchen in einer wechselseitigen Verflechtung der Diskurse von Goodman und<br />
Eco die Sachverhalte zu ergänzen und zu vervollständigen.<br />
62 Nelson Goodman (1998), S. 154<br />
57
4.2 Was ist ein Bild? „Bildhaftigkeit“ in der Symboltheorie von Goodman<br />
4.2.1 Einführung<br />
Die schwierige und <strong>im</strong>mer wieder gestellte Frage „Was ist ein Bild?“, kann in dieser Arbeit<br />
selbstverständlich nicht abschließend geklärt werden. Es würde den Rahmen der Arbeit<br />
sprengen, ja, es wäre eine eigene Arbeit wert, eine umfassende Darstellung des aktuellen<br />
Standes und der gängigen Positionen der Bildtheorie zur Bildproblematik vorzustellen. Es<br />
scheint mir aber angesichts der Frage nach der Substanz des <strong>digitale</strong>n Bildes notwendig, eine<br />
ausreichende zweckmäßige Vorstellung von „Bildhaftigkeit“ zu entwickeln, also eine Art<br />
heuristische „Arbeitsdefinition“ für die weiteren Argumentationen. Denn wenn wir die<br />
Unterschiede zwischen den <strong>analoge</strong>n und <strong>digitale</strong>n <strong>Bilder</strong>n erkennen wollen, müssen wir<br />
zunächst einmal wissen, wie bildhafte Symbole zu verstehen sind. Wir wollen uns dabei auf<br />
die Theorie von Goodman beziehen. Eine Darstellung der relevanten Teile seiner Theorie ist<br />
notwendig. In einer angemessenen Rekapitulation werden <strong>im</strong> Folgenden deshalb die<br />
wichtigsten Sachverhalte erläutert. Ein Ausflug in diese Bildtheorie lohnt sich in jedem Fall, ist<br />
aber mit erheblichem Aufwand verbunden. Denn auch hier müssen wir uns wieder<br />
mathematisches Rüstzeug aneignen, um die vorgestellten Sachverhalte adäquat zu<br />
verstehen. Denn letztendlich greift Goodman oft auf Begriffe der Mathematik zurück oder<br />
illustriert seine Thesen anhand von Beispielen aus der Mathematik. Deshalb werde ich<br />
Erklärungen an den notwendigen Stellen einschieben, damit auch der mathematisch<br />
unversierte Leser den Gang der Theorie nachvollziehen kann. 63<br />
Zunächst kann man sagen, dass die Bildtheorie von Goodman das Ziel verfolgt, Bildhaftigkeit<br />
pr<strong>im</strong>är über syntaktische Merkmale zu beschreiben. Die <strong>Bilder</strong> werden also auf ihre formalen<br />
Strukturen hin untersucht. Diese Bildtheorie, die man der analytischen Philosophie zurechnet,<br />
hat den Vorteil, dass sie auch <strong>Bilder</strong> einbezieht, die „leer“ oder „ungegenständlich“ sind.<br />
Goodman versucht über eine Analyse der syntaktischen Strukturen von Objekten, diese als<br />
<strong>Bilder</strong> einzuordnen oder sie als <strong>Bilder</strong> auszuschließen, indem er in seiner Symboltheorie pr<strong>im</strong>är<br />
die syntaktischen, darüber hinaus aber auch die semantischen Bedingungen der <strong>Bilder</strong><br />
untersucht. Zunächst möchte ich aber zwei wichtige Begriffe, die „Denotation“ und die<br />
„Exemplifikation“ vorstellen. Diese stehen eigentlich der Semantik näher, werden aber oft in<br />
der Symboltheorie von Goodman verwendet.<br />
63 Hier will ich mich dem Vorschlag von Goodman nicht anschließen, der in einer eigenen Fußnote anmerkt: „Der Leser ohne<br />
Grundkenntnisse in Logik, Mathematik oder technischer Philosophie mag den Rest dieses Kapitels überfliegen oder überspringen und<br />
darauf vertrauen, daß er die hier dargelegten Prinzipien aus den Anwendungen und Illustrationen in späteren Kapiteln erschließen kann.“<br />
Vgl. Nelson Goodman (1998), S. 128<br />
58
4.2.2 Denotation oder das Problem der Ähnlichkeit<br />
Wenn man bei einem Bild danach fragt, was es darstellt, muss man zunächst einmal<br />
unterscheiden, um was für eine Art von Bild es sich handeln könnte. Wir wollen uns hier auf<br />
zwei große Gruppen konzentrieren. Die erste Gruppe sei die der „gegenständlichen“ <strong>Bilder</strong>,<br />
die andere die der „ungegenständlichen“. Diese Differenzierung scheint verständlich, ist <strong>im</strong><br />
Einzelfall aber gar nicht so einfach. So könnte ein Punkt als „Bildelement“ in einem Bild ein<br />
„Auge“ darstellen in einem anderen Bild nur als abstrakte Form stehen, die sich nicht auf ein<br />
„Auge“ bezieht. Die Grenze zwischen „gegenständlichen“ und „ungegenständlichen“ <strong>Bilder</strong>n<br />
lässt sich nicht klar ziehen, ist verwaschen. Je weiter man die Dinge abstrahiert, also von<br />
ihrer eigentlichen Erscheinung „abzieht“ oder entfernt, desto näher gelangt man in das Umfeld<br />
der konkreten <strong>Bilder</strong>. Dabei handelt es sich bei allen gegenständlichen <strong>Bilder</strong>n, um<br />
Abstraktionen in diesem Sinne.<br />
Nun könnte man meinen, dass gegenständliche <strong>Bilder</strong> das darstellen, was sie repräsentieren.<br />
Wobei sie dann repräsentieren, wenn sie Ähnlichkeit zum Original zeigen.<br />
Die Ähnlichkeitstheorie der Abbildung, also die weitverbreitete Auffassung, dass ein Bild<br />
einen Gegenstand nur dann abbildet, wenn es ihm ähnlich ist, weist Goodman mit Nachdruck<br />
zurück. Denn es ist klar, das kein Grad der Ähnlichkeit eine hinreichende Bedingung für<br />
Repräsentation ist.<br />
„Ein Gegenstand ist sich selbst in höchstem Maße ähnlich, repräsentiert sich jedoch selten<br />
selbst. Ferner repräsentiert in vielen Fällen keine von zwei einander sehr ähnlichen<br />
Gegenständen den anderen: Keines der Autos, die vom Montageband kommen, ist ein Bild<br />
eines der übrigen; und ein Mann ist normalerweise keine Repräsentation eines anderen<br />
Mannes, nicht einmal seines Zwillingbruders.“ 64<br />
Eine ähnliche Feststellung findet sich bei Eco: „Ein ikonisches Zeichen [...] ist das Zeichen,<br />
das in einigen Aspekten dem, was es denotiert, ähnlich ist. Folglich ist die Ikonizität eine<br />
Frage des Grades.“ 65<br />
Auch Eco konstatierte die Unschärfe der Formulierung „Grad der Ähnlichkeit“, die für das<br />
abbildhafte, also die eigentliche Bezugnahme verantwortlich ist. Das ganze Problem liegt darin,<br />
welchen Sinn man dem Ausdruck „in einigen Aspekten“ geben soll und dies kann nicht trivial<br />
geklärt werden. Anders herum ist es auch möglich, dass ein Bild konventionell auf etwas<br />
Bezug n<strong>im</strong>mt, ohne das die geringste Ähnlichkeit vorhanden ist. So können <strong>Bilder</strong><br />
metaphorisch verwendet werden und es kann zum Beispiel eine weiße fliegende Taube für<br />
die Freiheit stehen. Es kann also eigentlich jedem Zeichen jede Bedeutung konventionell<br />
zugeordnet werden. Über das Problem der Ähnlichkeit und die daraus resultierende<br />
Unschärfe des Begriffes der Repräsentation gelangt man schließlich zum Begriff der<br />
Denotation.<br />
64 Nelson Goodman (1998), S. 16<br />
65 Umberto Eco (1972), S. 201<br />
59
Für Goodman ist Denotation der Kern der Repräsentation. Für ihn heißt „denotieren“ Bezug<br />
nehmen. Mit Denotation meint man nun das, was das Bild darstellen soll. Dabei lassen sich<br />
unter den <strong>Bilder</strong>n, die einen Bezug haben, singulär denotierende von generell multipel<br />
denotierenden unterscheiden. Das heißt, es gibt zum einen <strong>Bilder</strong>, die eine best<strong>im</strong>mte Person,<br />
einen best<strong>im</strong>mten Gegenstand denotieren, wie es ein Porträt von einem best<strong>im</strong>mten Menschen<br />
leistet. Zum anderen gibt es <strong>Bilder</strong>, die sich nicht auf einen best<strong>im</strong>mten Gegenstand beziehen,<br />
sondern auf jedes beliebige Ding einer gewissen Art. So ist das Bild einer Pflanze in einem<br />
botanischen Lehrbuch nicht auf eine spezielles Individum bezogen, sondern auf jedes<br />
beliebige Exemplar dieser Spezies.<br />
Nun können sich aber sowohl die Sprache, als auch bildhafte Symbole auf Dinge der Realität<br />
beziehen. Die Denotation existiert also auch <strong>im</strong> Symbolsystem Sprache. Überhaupt ist die<br />
Denotation ein Begriff der auch in der Semiotik Verwendung findet.<br />
Eco versteht unter Denotation die unmittelbare Bezugnahme eines Ausdruckes, die <strong>im</strong><br />
Empfänger einer Botschaft ausgelöst wird, wobei dies in Abhängigkeit der Kultur, die einen<br />
Code verwendet zu sehen ist. 66 Das Denotat kann also als der bezeichnete Gegenstand oder<br />
Sachverhalt in der „außersprachlichen“ oder „außerbildlichen“ Wirklichkeit bezeichnet<br />
werden, auf die sich die Sprache oder das Bild bezieht. Es handelt sich um den „Inhalt“ eines<br />
Zeichens, dessen Hauptbedeutung. Dagegen bezeichnet das Konnotat, die zusätzlichen<br />
Vorstellungen, Assoziationen, welche die Grundbedeutung eines Wortes begleiten, die so<br />
genannten Nebenbedeutungen.<br />
Ein Beispiel aus dem Bereich der Sprache wäre wie folgt: die denotative Bedeutung „der<br />
Mond“ als „Erdtrabant, der durch das von ihm reflektierte Sonnenlicht oft die Nächte erhellt.“<br />
steht dabei <strong>im</strong> Gegensatz zur konnotativen Bedeutung von „Mond“, mit der sich<br />
Gedankenverbindungen wie „Nacht, romantisch, kühl, Liebe“ einstellen. 67<br />
Desweiteren gibt es <strong>Bilder</strong> die nicht denotieren. Dies können zum Beispiel fiktionale <strong>Bilder</strong> sein,<br />
wie zum Beispiel „Einhorn“-<strong>Bilder</strong>, die sich auf keinen exisitierenden Gegenstand beziehen.<br />
Man spricht in diesem Zusammenhang auch von „Nulldenotation“.<br />
Auch in der Sprache können aus dem Repertoire der zur Verfügung stehenden Symbole,<br />
einige derart ausgewählt und kombiniert werden, so dass diese keine Bedeutung tragen. So<br />
hat die Aneinanderreihung der Buchstaben „klodf“ als Wort keine Bedeutung <strong>im</strong> herkömmlichen<br />
Sinn. Hierbei würde es sich um eine Nulldenotation handeln. Durch Konvention könnten auch<br />
neue Wörter definiert werden, wie etwa „gloko“, die konventionelle Sachverhalte denotieren<br />
würden. Im Anschluss an Goodman hat sich durchgesetzt, die Möglichkeit der bildlichen<br />
Bezugnahme auf Gegenstände oder Sachverhalte, losgelöst von der Ähnlichkeit, als<br />
„Denotation“ zu bezeichnen.<br />
66 Umberto Eco (1972), S.102<br />
67 Duden - Das Fremdwörterbuch (1990)<br />
60
4.2.3 Exemplifikation<br />
Eine andere Art der Bezugnahme bezeichnet Goodman als Exemplifikation. Wenn wir bei<br />
fiktionalen <strong>Bilder</strong>n mit einer so genannten „Nulldenotation“, wie wir sie als „Einhorn <strong>Bilder</strong>“<br />
kennengelernt haben, noch einen Bezug zu „fiktionalen“ Sachverhalten feststellen konnten,<br />
wird dies bei „ungegenständlichen“ <strong>Bilder</strong>n schwierig. Bei „ungegenständlichen“ oder auch<br />
konkreten <strong>Bilder</strong>n sieht es nun ganz anders aus. Hier können wir nicht mehr davon sprechen,<br />
dass diese auf etwas außerhalb des Bildes bezug nehmen. Es sei denn, man würde den<br />
Bezug eines konkreten Bildes auf ein anderes konkretes Bild, als Bezugnahme verstehen.<br />
Dennoch sieht Goodman speziell bei diesen <strong>Bilder</strong>n, aber auch generell bei allen anderen, die<br />
Exemplifikation als Bezugnahme. Die Exemplifikation stellt also auch eine Art der Bezugnahme<br />
dar. Ein Symbol exemplifiziert, wenn es auf Eigenschaften verweist, die es selbst besitzt.<br />
Exemplifikation könnte man also als selbstreferentielle Denotation verstehen. Während be<strong>im</strong><br />
denotierenden Bezug, die Bezugnahme vom Zeichen zum Gegenstand oder Sachverhalt<br />
verläuft, bezieht sich das Bild nun auf sich selbst.<br />
Die Eigenschaften, die ein Symbol exemplifiziert, können sehr verschieden sein. Solche<br />
Eigenschaften können die Farbe eines Schriftzuges oder eines Bildes, seine Größe oder die<br />
Struktur des Papiers sein, aber auch sein Gewicht oder die Temperatur einer Probe in einem<br />
wissenschaftlichen Versuch. Goodman illustriert den Begriff am Beispiel von Stoffmustern<br />
eines Schneiders. Die aus ihren zahllosen Eigenschaften einige wenige exemplifizieren:<br />
Textur, Farbe, Musterung. 68 Dies lässt sich direkt auf <strong>Bilder</strong> übertragen. Diese exemplifizieren<br />
zum einen die Prädikate der Bildqualitäten wie Textur, Farbe, etc. Zum anderen die Art und<br />
Weise, wie das Bild zeigt, was es zeigt. Also zum Beispiel auch den „Stil“ oder die „Sprache“,<br />
die der Künstler verwendet. Welche Prädikate ein Ding exemplifiziert, hängt auch von seiner<br />
Funktion ab, welche zum Beispiel mit der Umgebung abhängt, in der es verwendet wird. So<br />
kann man sich überlegen, dass ein und dasselbe Objekt, zum Beispiel ein Stück Rinde<br />
unterschiedlich exemplifizieren kann. Wenn es <strong>im</strong> Garten liegt exemplifiziert es vielleicht gar<br />
nicht. Im Schaukasten eines biologischen Museums kann es sein Alter, seine Farbe oder seine<br />
Oberflächenbeschaffenheit exemplifizieren. Als „objet trouvé“ in einer Ausstellung moderner<br />
Kunst mag es best<strong>im</strong>mte taktile und visuelle, also gestalthafte Qualitäten exemplifizieren.<br />
Es kommt also darauf an, in welchem Kontext, ein Objekt gesehen wird.<br />
4.2.4 Differenz zwischen <strong>Bilder</strong>n und anderen Symbolen<br />
Auf die Frage, worin sich <strong>Bilder</strong> von anderen Arten von Symbolen und insbesondere<br />
sprachlichen Zeichen unterscheiden, entwickelte Goodman die Auffassung, dass dieser<br />
Unterschied hauptsächlich auf der Ebene der Syntax zu suchen ist. Die Differenz entsteht<br />
also durch die verschiedenen syntaktischen Strukturen der jeweiligen Symbolschemata.<br />
68 Nelson Goodman (1998), S. 59<br />
61
Dies ist ein großer Vorteil, denn ein semantischer Ansatz würde sich hauptsächlich auf die<br />
Frage nach der Denotation von Symbolen konzentrieren. Also auf die Frage, was die Symbole<br />
bezeichnen beziehungsweise auf was sie sich beziehen, Aspekte der Denotation und<br />
Repräsentation würden <strong>im</strong> Vordergrund stehen. Da es aber viele fiktionale, zum Beispiel<br />
„Einhorn-<strong>Bilder</strong>“, oder leere <strong>Bilder</strong> oder andere nicht-denotierende <strong>Bilder</strong> gibt, würden diese<br />
durch eine Untersuchung nicht berührt. Es scheint aber sinnvoll, dass eine Untersuchung von<br />
Bildhaftigkeit sowohl denotierende als auch nicht-denotierende <strong>Bilder</strong> erfasst. Ein<br />
semantischer Ansatz würde also nicht zu umfassenden Beschreibungen führen.<br />
Dagegen versucht die Syntax als Disziplin, die Symbolsysteme hauptsächlich über die<br />
formalen Aspekte von Zeichen und ihren strukturellen Beziehungen zueinander zu<br />
beschreiben. Diese syntaktischen Differenzen werden wir uns <strong>im</strong> Folgenden genauer<br />
anschauen. Wobei man ergänzen muss, dass natürlich starke wechselseitige Beziehungen<br />
zwischen Syntax und Semantik bestehen.<br />
Nun gibt es nach Goodman zum einen Symbolsysteme, die auf eine Art „Alphabet“ aufgebaut<br />
sind. 69 Dabei braucht ein „Alphabet“ nicht aus Buchstaben zu bestehen. Es heißt vielmehr,<br />
dass es eine endliche Liste von „Marken“ gibt, aus denen alle Charaktere in einem System<br />
nach best<strong>im</strong>mten Regeln aufgebaut werden können. Es steht also ein Repertoire an kleinsten<br />
Einheiten, den Charakteren zur Verfügung, das nur endlich viele Elemente enthält. Dabei<br />
können die verschiedenen Charaktere, in unserem römisch-lateinischen Alphabet die<br />
Buchstabenmenge {a, ... , z}, zum Teil sehr unterschiedlich ausgeprägt in Erscheinung treten.<br />
Diese Erscheinungen nennt Goodman Marken. In vielen Symbolschemata können zusätzlich<br />
Marken zu neuen Marken kombiniert werden. Es gibt also atomare oder auch<br />
zusammengesetzte Marken, aber auch dieses sind nur endlich viele. Das System ist endlich<br />
differenziert. Man kann sich anschaulich vorstellen, das man den Buchstaben „a“ sehr<br />
unterschiedlich schreiben kann. Er könnte zum Beispiel in den folgenden Varianten<br />
auftauchen: „a“ und „a“ oder auch „a“. Dieses Phänomen kennen wir alle aus dem Feld der<br />
Handschriften. Es sorgt zum Beispiel dafür, dass das Lesen einer unbekannten Schrift zum<br />
leidigen Ereignis werden kann und eine ganze Forscherzunft sich mit dem Problem der<br />
automatischen Schrifterkennung beschäftigt. Nun ist es aber notwendig, laut Goodman, dass<br />
für Systeme, die auf Alphabete basieren, alle Marken eines Charakters syntaktisch äquivalent,<br />
also gleichwertig sind. Das heißt, dass sie ohne irgendwelche syntaktischen Auswirkung<br />
ausgetauscht werden können. Marken, die zu demselben Charakter gehören, sind echte<br />
Kopien oder Replicas voneinander, denn sie werden in gleicher Weise buchstabiert. 70 Das<br />
heißt anschaulich, das es keine Rolle spielen darf, ob ich den Charakter „a“ in der Ausprägung<br />
„a“ oder „a“ notiere. Marken, die also gleich buchstabiert werden und die zum gleichen<br />
Charakter gehören, sind „charakterindifferent“.<br />
69 Nelson Goodman (1998), S. 128<br />
70 dito, S.128-129<br />
62
Charakterindifferenz ist übrigens eine typische Äquivalenzrelation 71 , sie ist reflexiv,<br />
symmetrisch und transitiv. Das heißt wir können Äquivalenzklassen der Charaktere bilden.<br />
Was nichts anderes bedeutet, als das wir zum Beispiel alle Marken, die zum Charakter „a“<br />
gehören in einer Klasse zusammenfassen können oder etwas salopper gesagt, in eine<br />
Schublade stecken können. Dabei geschieht bei der Strukturierung in der Art einer<br />
Äqivalenzrelation folgendes: Die einzelnen Marken werden in Relation gesetzt, also<br />
zueinander in Beziehung gebracht. Dies geschieht aufgrund Übereinst<strong>im</strong>mung in einer<br />
best<strong>im</strong>mten Hinsicht, hier der syntaktischen Gleichwertigkeit. Man kann also alle<br />
Erscheinungen des Charakters „a“, wie zum Beispiel „a“ oder „a“ in die Schublade „a“<br />
stecken, ebenso alle Ausprägungen des Charakters „b“, also zum Beispiel „b“ oder „b“ in eine<br />
andere Schublade „b“. Damit es sich nun um eine Äqivalenzrelation handelt, müssen die drei<br />
oben erwähnten Kriterien erfüllt sein. Dafür wählt man zwei beliebige Marken M1 und M2 aus<br />
einer Äquivalenzklasse, also aus einer Schublade und setzt diese miteinander in Relation. Das<br />
heißt man schaut, ob diese die Eigenschaft der syntaktischen Gleichwertigkeit erfüllen. Nun<br />
müssen diese als erstes reflexiv, also selbstbezüglich syntaktisch gleichwertig sein. Das<br />
heißt die Marke M1 muss syntaktisch gleichwertig zu sich selbst sein, ebenso die Marke M2<br />
zu sich selbst. Dies ist sicherlich der Fall. Als zweites muss Symmetrie vorhanden sein. Das<br />
heißt wenn M1 syntaktisch gleichwertig zu M2 ist, dann muss auch M2 syntaktisch<br />
gleichwertig zu M1 sein. Auch dies ist offensichtlich der Fall. Und drittens muß Transitivität<br />
vorhanden sein. Das heißt, wenn man drei beliebige Marken aus einer Schublade wählt und<br />
die Marken M1 und M2 syntaktisch gleichwertig sind und ebenso die Marken M2 und M3<br />
syntaktisch gleichwertig sind, dann müssen auch die Marken M1 und M3 syntaktisch<br />
gleichwertig sein. Alle diese Kriterien sind nachprüfbar erfüllt und es handelt sich somit in<br />
diesem Sinne um eine Äquivalenzrelation.<br />
Ein solches Symbolsystem, das in Klassen einteilbar ist, ist syntaktisch disjunkt. Man sagt<br />
auch, es zerfällt in disjunkte Klassen. Denn in einem syntaktisch disjunkten Symbolschema<br />
gehört keine Marke zu mehr als einem Charakter und genau dies haben wir mit der<br />
vorliegenden Äquivalenzrelation gewährleistet. Durch diese Bedingung ist klar gestellt, dass<br />
es auf jeden Fall theoretisch möglich ist, so schwierig es auch praktisch sein mag, den<br />
Charakter zu identifizeren, dem eine best<strong>im</strong>mte Marke zugehört. Jede Marke kann also genau<br />
einer Klasse zugeordnet werden. Die syntaktische Bedingungen der Disjunktheit und der<br />
endlichen Differenzierung werden von den uns vertrauten sprachlichen, numerischen,<br />
binären und musikalischen Notationen erfüllt. 72 Goodman bezeichnet solche Systeme auch<br />
als Notationssysteme.<br />
Aber genau das leisten bildhafte Symbolsysteme nach der Auffassung von Goodman nicht.<br />
Bildsysteme sind nun weder syntaktisch disjunkt noch differenziert. Sie gehören zu den<br />
syntaktisch dichten Systemen. Es gibt also keine deutliche Grenze zwischen den Marken. Sie<br />
71 Vergleiche hierzu auch Kapitel 2.1.1 „Äquivalenz“<br />
72 Nelson Goodman (1998), S. 137<br />
63
gehen vielmehr ineinander über und es kann nicht eindeutig geklärt werden, zu welchem<br />
Charakter eine Marke gehört.<br />
Der Begriff der Dichte stammt wieder einmal aus der Mathematik. Goodman versteht und<br />
veranschaulicht ihn am Beispiel der rationalen Zahlen. 73 An dieser Stelle ist es notwendig<br />
erneut einen kleines Exkurs in die Mathematik einzuschieben, um zu verstehen, was er damit<br />
meint. Dabei werden auch andere Begriffe, wie „diskret“, „abzählbar unendlich“ oder auch<br />
„stetig“ erläutert, da wir diese <strong>im</strong> Folgenden noch benötigen werden.<br />
4.2.5 Diskret, dicht, stetig und andere Begriffe<br />
Die Begriffe „diskret“, „dicht“ , „stetig“ oder auch „abzählbar unendlich“ stammen aus der<br />
Mathematik und werden unter anderem <strong>im</strong> Zusammenhang mit <strong>digitale</strong>n <strong>Bilder</strong>n häufig<br />
verwendet, aber auch analytische Philosophen wie Goodman illustrieren ihre Theorien oft mit<br />
entsprechenden Beispielen, die mit diesen Begriffen arbeiten. Es ist sicherlich ein wenig<br />
mühsam, diese Begriffe zu verstehen, aber es scheint angesichts der Verwendung in den<br />
Theorien notwendig diese zur Verfügung zu stellen. Ich werde die Begriffe nicht in einem<br />
mathematisch exakten Sinn herleiten, aber in der Art, dass sie hoffentlich verstanden und<br />
verwendet werden können. Da die Begriffe in Verbindung mit den verschiedenen Zahlenarten<br />
stehen, werden wir sie zusammen mit ihren Eigenschaften vorstellen.<br />
Die natürlichen Zahlen, sind die elementarsten Zahlen. Man kennt sie vom Abzählen oder auch<br />
vom Durchzählen. Be<strong>im</strong> Abzählen will man wissen wie viele Elemente eine Menge hat, also<br />
zum Beispiel aus wie vielen Menschen eine Touristengruppe besteht. Man nennt die Zahlen in<br />
diesem Zusammenhang auch Kardinalzahlen. Wenn man dagegen durchzählt, also eine<br />
Reihenfolge aufstellt, nennt man sie Ordinalzahlen. Dies wäre der Fall, wenn man festhält,<br />
wer von der Touristengruppe als erster, als zweiter und so fort in den Reisebus eingestiegen<br />
ist. Die natürlichen Zahlen bezeichnet man in der Mathematik mit „N“. Das ist der Name der<br />
Menge. Ich werde jetzt zur Auflistung eine so genannte Mengenklammer verwenden, mit der<br />
man gewöhnlich die Elemente einer Menge darstellt. 74 Es sind dies die Zahlen N:= {1, 2, 3, ...}.<br />
Wobei man sich darauf einigen muss, ob nun die Null dazugehört oder auch nicht. Die<br />
natürlichen Zahlen werden ausgehend vom ersten Element der „1“ mit Hilfe der so genannten<br />
Peano-Axiome konstruiert. Das heißt es gibt eine Vorschrift, von Peano erdacht, wie man die<br />
nächste natürliche Zahl erhält. Immer wenn man eine „1“ addiert, erhält man die nächste<br />
natürliche Zahl. Das heißt man kennt bei den natürlichen Zahlen den Nachfolger, oder etwas<br />
lockerer formuliert den Nachbarn. Wie man schnell merkt, kann man mit den natürlichen Zahlen<br />
so etwas wie einen 1/2 Kuchen nicht beschreiben, denn zwischen der „1“ und der „2“ gibt es<br />
keine weitere Zahl. Nun ist es grundsätzlich möglich, dass es zwischen zwei natürlichen<br />
Zahlen, zum Beispiel der „1“ und der „3“ eine andere natürliche Zahl gibt, hier die „2“, aber<br />
73 Nelson Goodman (1998), S. 133<br />
74 Vergleiche auch Kapitel 3.4.7.1 Der Mengenbegriff<br />
64
dies muss nicht <strong>im</strong>mer so sein. Zu zwei beliebigen ungleichen natürlichen Zahlen a und b gibt<br />
es nicht <strong>im</strong>mer eine dritte c, so dass c zwischen a und b liegt. Zum Beispiel wäre dies bei „1“<br />
und „2“ oder auch bei „2014“ und „2015“ nicht der Fall. Das heißt, sie sind nicht „dicht“,<br />
sondern diskret.<br />
Wie wir gesehen haben, kann man ausgehend vom<br />
kleinsten Element der Menge, der „1“, jede andere<br />
natürliche Zahl herstellen. Aber man kann auch aus<br />
jeder anderen natürlichen Zahl durch Addition von<br />
„1“ die nächste, ihren Nachbarn, erzeugen. Dies<br />
kann man nun mit der neu erzeugten Zahl,<br />
wiederholen und <strong>im</strong>mer so fort. Es gibt also keine<br />
größte natürliche Zahl. Die natürlichen Zahlen hören<br />
also nie auf, sind unendlich viele. Genauer gesagt<br />
„abzählbar unendlich“, aber das werden wir noch<br />
klären.<br />
Als nächste Gruppe lernen wir die ganzen Zahlen<br />
kennen. Sie werden in der Mathematik mit „Z“<br />
bezeichnet. Es sind dies <strong>im</strong> Prinzip die positiven und<br />
negativen natürlichen Zahlen, deren Menge wie<br />
folgt aussieht: Z:= { ... -3, -2, -1, 0, 1, 2, 3, ...}. Man<br />
hat also die natürlichen Zahlen um ihr jeweils<br />
negatives Pendant erweitert. Wie man leicht sieht,<br />
sind auch die ganzen Zahlen unendlich viele,<br />
präziser wiederum „abzählbar unendlich“ viele.<br />
Um nun auch Verhältnisse wie den 1/2 Kuchen zu<br />
beschreiben hat man die so genannten rationalen<br />
Zahlen eingeführt, die auch unter dem Namen der<br />
Bruchzahlen bekannt sind. Diese bezeichnet man<br />
mit „Q“. Was für den modernen Menschen der<br />
Kuchen ist, war für unsere Vorväter die Beute und<br />
auch die musste geteilt werden. Es wurde in zwei<br />
Hälften oder drei Drittel und so weiter zerlegt. Wobei<br />
die „Hälften“ sicherlich nicht <strong>im</strong>mer genau gleich<br />
groß waren, dies aber nur am Rande. 75 Die<br />
rationalen Zahlen sind eingeführt als Verhältnis-<br />
„Weißt Du was hinter der Mathematik steckt?„ frage<br />
ich. „Hinter der Mathematik stecken die Zahlen.<br />
Wenn mich jemand fragen würde, was mich richtig<br />
glücklich macht, dann würde ich antworten: die<br />
Zahlen. Schnee und Eis und Zahlen. Und weißt du,<br />
warum? [...]<br />
Weil das Zahlensystem wie das Menschenleben ist.<br />
Zu Anfang hat man die natürlichen Zahlen. Das sind<br />
die ganzen und positiven. Die Zahlen des Kindes.<br />
Doch das menschliche Bewußtsein expandiert. Das<br />
Kind entdeckt die Sehnsucht, und weißt du was der<br />
mathematische Ausdruck für die Sehnsucht ist? [...]<br />
Es sind die negativen Zahlen. Die Formulierung des<br />
Gefühls, daß einem etwas abgeht. Und das<br />
Bewußtsein erweitert sich <strong>im</strong>mer noch und wächst,<br />
das Kind entdeckt die Zwischenräume. Zwischen<br />
den Steinen, den Moosen auf den Steinen, zwischen<br />
den Menschen. Und zwischen den Zahlen. Und<br />
weißt du, wohin das führt? Zu den Brüchen. Die<br />
ganzen Zahlen plus die Brüche ergeben die<br />
rationalen Zahlen. Aber das Bewußtsein macht dort<br />
nicht halt. Es will die Vernunft überschreiten. Es fügt<br />
eine so absurde Operation wie das Wurzelziehen<br />
hinzu. Und erhält die irrationalen Zahlen. [...] Es ist<br />
eine Art Wahnsinn. Denn die irrationalen Zahlen sind<br />
endlos. Man kann sie nicht schreiben. Sie zwingen<br />
das Bewußtsein ins Grenzenlose hinaus. Und wenn<br />
man die irrationalen Zahlen mit den rationalen<br />
zusammenlegt, hat man die reellen Zahlen. [...] Es<br />
hört nicht auf. Es hört nie auf. Denn jetzt gleich, auf<br />
der Stelle, erweitern wir die reellen Zahlen um die<br />
<strong>im</strong>aginären, um die Quadratwurzeln der negativen<br />
Zahlen. Das sind Zahlen, die wir uns nicht vorstellen<br />
können, Zahlen, die das Normalbewußtsein nicht<br />
fassen kann. Und wenn wir die <strong>im</strong>aginären Zahlen<br />
zu den reellen dazurechnen, haben wir das<br />
komplexe Zahlensystem. Das erste Zahlensystem,<br />
das eine schöpferische Darstellung der<br />
Eiskristallbildung ermöglicht. Es ist wie eine große,<br />
offene Landschaft. Die Horizonte.“ 76<br />
zahlen zweier natürlicher beziehungsweise ganzer Zahlen. Man kann sie entweder als Bruch<br />
zweier endlicher ganzer Zahlen darstellen, oder in der Dez<strong>im</strong>alschreibweise. Also entweder<br />
in der Art 1/2 oder 0,5. Es sind die Zahlen folgender Bauweise: Q:= { m / n ; m ∈ Z, n ∈ N; n ≠<br />
75 Vgl. hierzu auch den legendären Sketch „Der Kosakenzipfel“ von Loriot<br />
65
0}. Man kann also <strong>im</strong> Zähler eine beliebige ganze Zahl und <strong>im</strong> Nenner eine beliebige natürliche<br />
Zahl einsetzen. Rationale Zahlen sind zum Beispiel 1/2 oder –3/4, eben die Bruchzahlen.<br />
Nun ist es bei den rationalen Zahlen so, dass <strong>im</strong>mer zwischen zwei beliebigen eine dritte<br />
rationale Zahl liegt. Also zum Beispiel zwischen 1/3 (=4/12) und 1/2 (=6/12) liegt unter<br />
anderem 5/12. Daraus ergeben sich zwei Konsequenzen. Zum einen sind die rationalen<br />
Zahlen <strong>im</strong> Unterschied zu den ganzen und natürlichen Zahlen „dicht“. Das heißt, es findet sich<br />
zwischen zwei rationalen Zahlen <strong>im</strong>mer noch eine dritte, egal wie nah diese schon<br />
beieinander liegen. Zum anderen gibt es nun keine eindeutige Nachfolgerelation mehr. Es kann<br />
also nicht gesagt werden, welche rationale Zahl auf eine andere rationale Zahl folgt. 77<br />
Überraschenderweise gibt es doch noch Zahlen die zwischen den ganz dicht liegenden<br />
rationalen Zahlen liegen. Die griechischen Mathematiker entdeckten <strong>im</strong> Zusammenhang mit der<br />
Berechnung von Strecken in Flächen und Körpern, dass sie diese nicht mit den ihnen<br />
bekannten Zahlen lösen konnten. Sie standen bei der Berechnung der Diagonalen in einem<br />
Quadrat vor einer unlösbaren Aufgabe. Mit Hilfe des Satzes von Pythagoras, der besagt,<br />
dass <strong>im</strong> rechtwinkligen Dreieck das Quadrat der Länge der Hypotenuse gleich der Summe der<br />
Quadrate der Katheten ist (a 2 + b 2 = c 2 ), war es ihnen nicht möglich eine geeignete Zahl zu<br />
finden.<br />
c?<br />
b?<br />
?<br />
1<br />
°<br />
a? 1<br />
°<br />
Abbildung 15: Berechnung der Diagonalen <strong>im</strong> Quadrat<br />
Dazu mussten sie erst eine Zahl c finden, die mit sich selbst quadriert eine andere rationale<br />
Zahl (a 2 + b 2 ) ergibt, da ja durch Umformung gilt c=√ (a 2 + b 2 ). Im konkreten Beispiel, wenn<br />
man ein Quadrat mit Seiten der Länge 1 betrachtet, würden wir heute die Lösung mit √2<br />
angeben, da ja gilt c=√ (1+1)= √2. Man kann aber leicht mit elementarer Zahlentheorie zeigen,<br />
dass es keine Lösung aus dem Bereich der rationalen Zahlen geben kann.<br />
Die Konsequenz ist, dass es noch andere, die so genannten irrationalen, die „unvernünftigen“<br />
Zahlen gibt. Weil sie noch zwischen den dicht liegenden rationalen Zahlen liegen, spricht man<br />
76 Peter Hoeg, Fräulein Smillas Gespür für Schnee, Rowohlt Taschenbuch Verlag, Reinbek bei Hamburg 1997, S. 129-130<br />
77 Beweis zum Beispiel in: Konrad Königsberger, Analysis I, Springer Verlag, Berlin 2001, S. 15<br />
66
auch von den „Zahlen zwischen den Zahlen“. Auch von ihnen gibt es unendlich viele, was<br />
man leicht verstehen kann, weil es ja schon genügt eine von ihnen der Reihe nach mit den<br />
natürlichen Zahlen zu multiplizieren. Diese sind nun aber „überabzählbar“, also nicht<br />
„abzählbar unendlich“. Das heißt, es gibt mehr irrationale Zahlen, als rationale Zahlen. Dies ist<br />
insofern verblüffend, weil es ja von beiden Sorten unendlich viele gibt. Die irrationalen Zahlen<br />
werden mit „I“ bezeichnet und sind zum Beispiel Zahlen wie √2 oder π. Jede irrationale Zahl<br />
besitzt nach dem Komma unendlich viele Stellen, kann also <strong>im</strong>mer nur mit einer Näherung<br />
angegeben werden.<br />
Die reellen Zahlen sind gerade die Vereinigung der rationalen Zahlen mit den irrationalen<br />
Zahlen. Auch von diesen gibt es „überabzählbar“ viele. Mit diesen „wirklichen“ Zahlen ist es<br />
nun möglich zum Beispiel den Raum den wir kennen und Bewegungen darin zu beschreiben.<br />
Sie sind das Fundament für den Grenzwertbegriff, den so genannten L<strong>im</strong>es. Erst mit diesem<br />
ist der Zusammenhang zwischen dem zurückgelegten Weg eines bewegten Körpers, seiner<br />
Geschwindigkeit und seiner Beschleunigung ohne Widersprüche zu beschreiben. Damit sind<br />
die bekannten Paradoxien des Zenon überwunden. Die widersprüchliche „stehende“<br />
Bewegung des fliegenden Pfeils oder auch der Wettlauf des Achilles mit der Schildkröte sind<br />
bekannte Beispiele dafür.<br />
Wir haben gesehen, dass es sowohl von den natürlichen Zahlen, wie auch von den<br />
rationalen und reellen Zahlen unendlich viele gibt. Georg Cantor (1845-1918) warf die Frage<br />
auf, ob es sich dabei um dieselbe Art von Unendlichkeit handelt, oder etwas unpräziser<br />
ausgedrückt: ob es „genauso viele“ natürliche wie rationale oder reelle Zahlen gibt. Intuitiv<br />
scheint es mehr rationale als natürliche Zahlen zu geben, und wiederum mehr reelle als<br />
rationale. Doch scheint „unendlich“ zu bedeuten, dass die Frage nach einem mehr oder<br />
weniger gar keinen Sinn hat. Die Lösung dieser scheinbaren Paradoxie besteht nun darin, ein<br />
eindeutiges Zuordnungsschema zwischen den Elementen zweier unendlich großen Mengen<br />
anzugeben. Gelingt dies, so gelten die beiden Mengen als von gleichem „Unendlichkeitstypus“.<br />
Es gibt zwei verschiedene Typen von Unendlichkeit. Den ersten Typ nennt man „abzählbar“<br />
oder auch „abzählbar unendlich“, den zweiten „überabzählbar“, also nicht „abzählbar.“ Dabei<br />
hat man folgendes Verfahren entwickelt: Wenn man eine unendliche Menge durchnumerieren,<br />
also jedem Element der unendlichen Menge genau eine natürliche Zahl zuordnen kann, dann<br />
spricht man von einer „abzählbaren“ oder auch „abzählbar unendlichen“ Menge.<br />
N:=<br />
Z:=<br />
...<br />
1 2 3 4 5 6<br />
0 1 -1 2 -2 3 ...<br />
Abbildung 16: Abbildung der natürlichen auf die ganzen Zahlen<br />
67
Genauer gesagt, wenn es gelingt eine bijektive Abbildung zwischen zwei Mengen M1 und M2<br />
anzugeben, so spricht man von Gleichmächtigkeit der beiden Mengen. Noch einmal anders<br />
gesagt, wenn es möglich ist, jedem Element der ersten Menge M1 genau ein Element der<br />
zweiten Menge M2 zuzuordnen, dann haben beide Mengen gleichviel Elemente.<br />
Auf diese Weise kann man zum Beispiel zeigen, dass es „genauso viele“ ganze wie natürliche<br />
Zahlen gibt, und nicht etwa doppelt so viele, wie man naiv annehmen könnte. In diesem Sinne<br />
sind die ganzen Zahlen eine abzählbare Menge. Dies ist etwas verwunderlich, weil die<br />
natürlichen Zahlen ja eine Teilmenge der ganzen Zahlen sind. Die Abzählung könnte wie folgt<br />
aussehen:<br />
...<br />
-2 -1 0 1 2 3 ...<br />
Abbildung 17: Abzählverfahren der ganzen Zahlen<br />
Man kann auch zeigen, dass die rationalen Zahlen abzählbar unendlich sind. Dazu muss man<br />
zeigen, dass man sie „durchnumerieren“ kann. Die Menge der rationalen Zahlen also<br />
gleichmächtig, gleich groß, wie die der natürlichen Zahlen ist.<br />
1/5<br />
1/4<br />
2/4<br />
3/4<br />
4/4<br />
1/3<br />
2/3<br />
3/3<br />
4/3<br />
1/2<br />
2/2<br />
3/2<br />
4/2<br />
1/1<br />
2/1<br />
3/1<br />
4/1<br />
5/1<br />
Abbildung 18: Schema Cantorsches Abzählverfahren<br />
Dazu verwendet man das so genannte Cantorsche Abzählverfahren. Man ordnet zunächst<br />
alle rationalen Zahlen rasterartig an, wie in Abbildung 18 gezeigt. Man kann damit alle<br />
rationalen Zahlen erfassen, irgendwann ist jede einmal aufgeführt. Wie graphisch angedeutet,<br />
68
zählt man die ganzen Zahlen diagonal, oder auch spiralförmig ab. Es wird also jeder möglichen<br />
rationalen Zahl eine natürliche Zahl zugeordnet.<br />
Bei den irrationalen und reellen Zahlen ist dies nicht möglich. Man kann durch mathematische<br />
Beweise zeigen, dass es nicht möglich ist, eine Abbildung anzugeben, die eine Abzählung<br />
durch die natürlichen Zahlen leistet. Man nennt sie deshalb „überabzählbar“ oder auch<br />
„überabzählbar unendlich“. Noch einmal kurz zusammengefasst ist es also so, dass man die<br />
natürlichen N, die ganzen Z und die rationalen Zahlen Q als abzählbar unendlich bezeichnet<br />
und die irrationalen und reellen Zahlen als „überabzählbar“.Es gibt also „mehr“ irrationale und<br />
reelle Zahlen wie natürliche, ganze und rationale Zahlen, obwohl es von beiden Sorten<br />
unendlich viele gibt. Ein kluger Kopf soll einmal gesagt haben, dass man mit dem Begriff<br />
„unendlich“ vorsichtig sein soll, da er unendlich viele Schwierigkeiten bereitet.<br />
Nun kommen wir noch zum Begriff der „Stetigkeit“, der etwas schwieriger ist und den wir<br />
daher nur soweit erklären werden, wie es für das weitere Verständnis notwendig ist. Wir<br />
haben gesehen, dass es diskrete Mengen, wie die natürlichen Zahlen gibt und andere<br />
Mengen, wie die rationalen Zahlen, die dicht sind. Weiter ist es so, dass es noch irrationale<br />
Zahlen gibt, die zwischen den schon dicht liegenden rationalen Zahlen liegen. Durch das<br />
Zusammenfassen der rationalen und irrationalen Zahlen haben wir die reellen Zahlen erhalten.<br />
Diese sind nun vollständig und füllen den ganzen Raum aus. Man spricht in diesem<br />
Zusammenhang auch von „kontinuierlich“ oder „stetig“. Wenn man die reellen Zahlen für<br />
Abbildungen verwendet, dann erhält man oft stetige Abbildungen. Etwas salopp gesagt sind<br />
dies Abbildungen, die keine Sprünge aufweisen, die man „durchzeichnen“ oder mit einem<br />
Linienzug darstellen kann. Würde man eine gezeichnete Linie auf einem Papier mit den<br />
rationalen Zahlen beschreiben wollen, so würden sich Lücken auftun, an denen die Linie<br />
springt, es wäre keine „glatte“ zusammenhängende Linie. Dies ist nun aber mit den<br />
gefundenen reellen Zahlen gewährleistet und die Linie ist stetig.<br />
Nach diesem etwas schwierigen Ausflug in die Mathematik kehren wir schnell wieder zurück<br />
in die Bildtheorie. Gewappnet mit den neuen Begriffen, können wir uns jetzt um die Frage der<br />
Bildhaftigkeit von Symbolsystemen kümmern.<br />
4.2.5 Bildhaftigkeit nach Goodman<br />
Ein System ist laut Goodman nur dann ein Bildsystem, wenn es ein syntaktisch dichtes<br />
Schema besitzt, und ein Symbol ist nur dann ein Bild, wenn es zu einem durchgängig dichten<br />
Schema oder zumindest zu einem dichten Teil eines teilweise dichten Schemas gehört. Was<br />
man unter einem syntaktischen dichten Schema versteht beschreibt Goodman so: „Ein<br />
69
Schema ist syntaktisch dicht, wenn es unendlich viele Charaktere bereitstellt, die so<br />
geordnet sind, daß es zwischen jeweils zweien <strong>im</strong>mer ein drittes gibt.“ 78<br />
Diese Formulierung erklärt er dann am Beispiel der rationalen Zahlen, die wir bereits<br />
kennengelernt haben. Denn die Dichte ist ja gerade eine Eigenschaft, die den rationalen Zahlen<br />
eigen ist. Mit Hilfe des Begriffs der syntaktischen Dichte wird der Sachverhalt beschrieben,<br />
dass in einem Bildsystem jeder noch so feine Unterschied in gewissen Zügen einen<br />
Unterschied der Symbole ausmacht. Das heißt konkret, zwischen zwei Bildpunkten, könnte<br />
<strong>im</strong>mer noch ein dritter liegen. Es muss zumindest die Möglichkeit bestehen. Es darf also nicht<br />
<strong>im</strong> voraus ausgeschlossen sein, dass ein Dritter existieren könnte. Das hat zur Folge, dass es<br />
unmöglich ist zu entscheiden welche Marke zu demselben Charakter oder Symbol gehört. Dies<br />
war ja gerade bei den Symbolsystemen der Fall, die auf Alphabete aufgebaut sind.<br />
Es ist zu überlegen, ob die Definition sogar noch auf syntaktische Kontinuität verschärft<br />
werden müsste. Denn Bildsysteme sind hinsichtlich vieler Merkmale syntaktisch dicht. Als<br />
relevante Merkmale würden hierzu die Farbe, bezüglich des Farbtones, der Intensität und der<br />
Sättigung, aber auch die Auflösung des Bildes, also die Lokalisierung der Farbe zählen. Auf<br />
einer Leinwand können zum Beispiel an jeder beliebigen Stelle Farbpigmente aufgetragen<br />
werden. Das heißt aber, die Position der Farbpunkte ist statt dicht eher als kontinuierlich<br />
anzusehen.<br />
Die Farbigkeit ist ebenfalls nicht diskret gestaltet. Es stehen alle Farben kontinuierlich zur<br />
Verfügung. Es gibt nicht nur eine best<strong>im</strong>mte Auswahl an Farben, zum Beispiel die drei<br />
Grundfarben aus der Tube, sondern es können beliebige Zwischentöne daraus gemischt<br />
werden. Auch hier sollte man eigentlich von kontinuierlich und nicht von dicht sprechen.<br />
Der Grund für die syntaktische Dichte von Bildsystemen liegt darin, dass es für <strong>Bilder</strong> keine<br />
Alphabete gibt, keine endliche Menge von wohlunterschiedenen Zeichen, aus denen alle<br />
Charaktere des Systems nach best<strong>im</strong>mten Kompositionsprinzipen aufgebaut werden können.<br />
Für <strong>Bilder</strong> gibt es kein endliches Repertoire von Zeichen, aus denen alle Charaktere des<br />
Systems aufgebaut werden können. Wenn es dieses gäbe, wären wir in der Lage zu sagen,<br />
welche Marken das Bild an welcher Stelle hat, also welche Farben es an welchen Stellen<br />
trägt und zu welchen Charakteren diese gehören. Eine Marke kann aber zu einem Charakter<br />
der durch die Farbe definiert ist gehören oder zu einem anderen Charakter, der durch die<br />
Gestalt definiert ist und zu weiteren Charakteren, die durch Größe und Position definiert sind.<br />
<strong>Bilder</strong> unterscheiden sich also von sprachlichen Zeichen hauptsächlich in ihren syntaktischen<br />
Eigenschaften: <strong>Bilder</strong> sind Elemente von syntaktisch dichten Systemen, sprachliche Zeichen<br />
dagegen sind Elemente von syntaktisch disjunkten und differenzierten Systemen.<br />
Der Vorteil des syntaktischen Ansatzes ist, dass er sich pr<strong>im</strong>är um die formalen Beziehungen<br />
der Zeichen untereinander kümmert. Das heißt die Semantik bleibt zunächst außen vor und<br />
somit werden auch die zuvor schon erwähnten leeren, nicht-denotierenden <strong>Bilder</strong> erfasst.<br />
78 Nelson Goodman (1998), S. 133<br />
70
4.2.6 „Analoge“ und „<strong>digitale</strong>“ Symbolsysteme nach Goodman<br />
Nun kommen wir zu dem für uns zentralen Punkt der Symboltheorie von Goodman. Mit den<br />
erarbeiteten Kriterien versucht Goodman ganz allgemein <strong>analoge</strong> und <strong>digitale</strong> Systemen und<br />
Symbolschemata zu definieren. Mit Hilfe der neuen Begriffe werden die Differenzen geklärt<br />
und präzisiert. Er liefert die folgende Definition: „Ein Symbolschema ist analog, wenn es<br />
syntaktisch dicht ist; ein System ist analog, wenn es syntaktisch und semantisch dicht ist.<br />
Analoge Systeme sind demnach sowohl syntaktisch als auch semantisch in extremer Weise<br />
undifferenziert: Für jeden Charakter gibt es unendlich viele andere derart, daß wir für<br />
manche Marken unmöglich festhalten können, daß die Marke nicht zu allen gehört, und<br />
derart, daß wir für manches Objekt unmöglich festlegen können, dass das Objekt nicht alle<br />
erfüllt. Ein System dieser Art ist offensichtlich das genaue Gegenteil eines<br />
Notationssystems. Dichte <strong>im</strong>pliziert zwar das völlige Fehlen von Differenziertheit, wird aber<br />
von ihm nicht <strong>im</strong>pliziert; und ein System ist nur dann analog, wenn es dicht ist.<br />
Ein <strong>digitale</strong>s Schema dagegen ist durchgängig diskontinuierlich; und in einem <strong>digitale</strong>n<br />
System stehen die Charaktere eines solchen Schemas in einer Eins-zu-eins-Korrelation mit<br />
den Erfüllungsklassen einer ähnlich diskontinuierlichen Menge. Diskontinuität wird zwar von<br />
Differenziertheit <strong>im</strong>pliziert, <strong>im</strong>pliziert sie jedoch selbst nicht; [...] kann es sein, dass ein<br />
System mit nur zwei Charakteren syntaktisch und semantisch durchgängig und<br />
undifferenziert ist. Um digital zu sein, muß ein System nicht nur diskontinuierlich, sondern<br />
auch syntaktisch und semantisch durchgängig differenziert sein.“ 79<br />
Da wir uns nur um die syntaktischen Merkmale kümmern und nicht um die semantischen<br />
können wir folgendes festhalten: Ein Symbolschema ist also analog, wenn es syntaktisch<br />
dicht ist, und ein Symbolschema ist digital, wenn es syntaktisch durchgängig differenziert ist;<br />
man könnte auch sagen, dass es syntaktisch diskret ist. Goodman illustriert seine Definition<br />
am Beispiel eines Druckmessers. Dazu stellt man sich einen Druckmesser mit einem runden<br />
Ziffernblatt und einem einzigen Zeiger vor, der sich mit zunehmenden Druck gleichmäßig <strong>im</strong><br />
Uhrzeigersinn bewegt. Wenn sich nun auf dem Ziffernblatt keine Ziffern oder Marken<br />
befinden und jeder Unterschied in der Zeigerposition einen Unterschied <strong>im</strong> Charakter bewirkt,<br />
dann ist das Instrument be<strong>im</strong> Anzeigen des Drucks nicht notational. Das heißt die Erfordernis<br />
der syntaktischen Differenzierung ist nicht erfüllt, denn man kann die Position des Zeigers nie<br />
mit absoluter Präzision feststellen.<br />
Wenn man dagegen das Ziffernblatt durch Punkte etwa in fünfzig Abschnitte einteilen würde,<br />
kommt es für eine Beurteilung darauf an, wie man das Messgerät abliest. Wenn es auf die<br />
absolute Position des Zeigers auf dem Ziffernblatt ankommt und die Punkte dabei nur als<br />
Hilfsmittel für eine annähernde Best<strong>im</strong>mung dieser Position dienen, dann bleibt das Schema<br />
syntaktisch undifferenziert, wäre also ein <strong>analoge</strong>s Symbolschema. Denn die Punkte wären<br />
nur ein Hilfsschema, das für die annähernde Lokalisierung, wo der Zeiger sich befindet, ganz<br />
79 Nelson Goodman (1998), S. 154-155<br />
71
nützlich ist. N<strong>im</strong>mt man dagegen an, man würde dasselbe Ziffernblatt in der Art lesen, dass<br />
jeder Punkt so verstanden werden soll, dass er das Zentrum oder den Rand eines Gebiets<br />
markiert, dann wird jedes Erscheinen des Zeigers innerhalb dieses Gebiets als eine Inskription<br />
desselben Charakters verstanden. Dieses Schema nun wäre notational, vorausgesetzt, die<br />
fünfzig gewählten Gebiete sind disjunkt und durch Lücken voneinander getrennt, wie klein<br />
diese auch sein mögen. Ebenso wie es bei einer Uhr mit Ziffernblatt bezüglich der<br />
Stundeneinteilung in zwölf Abschnitte geschieht. Man hätte als Beispiel ebenso eine Uhr mit<br />
Ziffernanzeige wählen können.<br />
Daraus ergeben sich Vorteile und Nachteile der beiden Schemata. Digitale Systeme, wie<br />
Digitalcomputer sind zu höchster Präzision fähig, wenn es um das Zählen geht, während der<br />
Analogcomputer die bessere Möglichkeit hat, die absolute Position in einem Kontinuum zu<br />
registrieren. Eco stellt in diesem Zusammenhang fest, dass diese statt mit „<strong>digitale</strong>m Code“ mit<br />
einem „analogischen Modell“ arbeiten. Da man be<strong>im</strong> Digitalrechner bereits diskrete Werte<br />
verwendet, die eine codifizierende Konvention voraussetzen ist die Bezeichnung „<strong>digitale</strong>r<br />
Code“ angebracht; <strong>im</strong> Unterschied zum <strong>analoge</strong>n Rechner, bei der man die Entsprechung<br />
aufgrund einer vorhergehenden Ähnlichkeit festlegt. Der Mangel des analogischen Modells ist<br />
es deshalb aber auch, dass wir nicht <strong>im</strong>stande sind es zu erklären, weil wir es nicht erzeugt<br />
haben. 80<br />
Die wirklichen Vorzüge von <strong>digitale</strong>n Instrumenten sind die von Notationssystemen. Sie bieten<br />
eine Best<strong>im</strong>mtheit und Wiederholbarkeit be<strong>im</strong> Ablesen der angezeigten Werte. Interessant ist<br />
die Feststellung von Goodman, dass es Systeme gibt, die sowohl analog wie auch digital sind.<br />
So genannte gemischte Systeme, die man auch als Hybride bezeichnet. Dies hat aber zur<br />
Konsequenz, dass die beiden Begriffe „analog“ und „digital“ sich nicht gegenseitig<br />
ausschließen. Das wiederum würde heißen, dass es durchaus Medien geben könnte, die<br />
sowohl analog, als auch digital sind. Wir müssen das mal <strong>im</strong> Hinterkopf behalten, wenn wir<br />
nun die Unterscheidungsmöglichkeit von Goodman auf <strong>Bilder</strong> übertragen. 81<br />
4.3 Was ist ein <strong>digitale</strong>s Bild?<br />
4.3.1 Bild als Struktur<br />
Wir haben bereits in Kapitel 3 die technischen Vorgänge bei der Entstehung von <strong>digitale</strong>n<br />
<strong>Bilder</strong>n beschrieben. Dabei haben wir gesehen, das <strong>digitale</strong> <strong>Bilder</strong> durch Umwandlung von<br />
<strong>analoge</strong>n in <strong>digitale</strong> Daten, in einem Prozess den man „Digitalisierung“ nennt, entstehen<br />
können. Sie können aber auch direkt erzeugt werden. Dabei werden keine <strong>analoge</strong>n Vorlagen<br />
80 Umberto Eco (1972), S. 221<br />
81 Vgl. Nelson Goodman (1998), S. 152-155<br />
72
umgewandelt, sondern es werden aus den Bildinformationen, die uns die Welt liefert,<br />
unmittelbar <strong>digitale</strong> <strong>Bilder</strong> hergestellt. Wie dies genau geschieht, haben wir am Beispiel des<br />
Digital Imaging gesehen. Die <strong>digitale</strong>n <strong>Bilder</strong>, die dabei entstehen unterscheiden sich aber,<br />
wenn sie erst einmal digital vorliegen, nicht mehr in ihrer Struktur. Wir können festhalten, dass<br />
ein <strong>digitale</strong>s Bild aus gerasterten Bildelementen besteht. Wobei die Bildpunkte oder Pixel die<br />
eigentlichen Bildelemente darstellen, welche die Farbwerte an den entsprechenden<br />
Bildpositionen zeigen.<br />
CHRISTIAN Wittwer beschreibt das <strong>digitale</strong> Bild wie folgt: „Das <strong>digitale</strong> Bild ist also eine<br />
codierte, mathematische Struktur in Form einer zweid<strong>im</strong>ensionalen Matrix. Dem trägt die<br />
französische Sprache mit dem Ausdruck „photographie numérique“ Rechnung. Die Matrix,<br />
unterteilt in Linien und Kolonnen, besteht aus symmetrisch angeordneten Bildelementen,<br />
„picture elements“ oder einfach Pixel genannt. Ein Pixel ist die kleinste Informationseinheit<br />
des <strong>digitale</strong>n Bildes und beschreibt einen spezifischen Ton- oder Farbwert.“ 82<br />
Das <strong>digitale</strong> Bild ist also eine Matrix und somit als eine mathematische Struktur zu verstehen, in<br />
der festgesetzt wurde, wo welcher Bildpunkt sitzt und welchen Farbwert er trägt. Dabei kann<br />
die Struktur der <strong>digitale</strong>n <strong>Bilder</strong> auch von der einer Matrix entfernt werden. Mittlerweile gibt es<br />
Kompr<strong>im</strong>ierungsverfahren, welche das Bild nicht mehr in der Art einer zweid<strong>im</strong>ensionalen<br />
Matrix darstellen. Dabei werden zum Beispiel gleiche Elemente zu Gruppen zusammengefasst,<br />
um redundante Daten zu ersetzen und damit zu verringern. Letztendlich beziehen sich jedoch<br />
alle Zustände <strong>im</strong>mer auf die eigentliche Matrix.<br />
Nelson Goodman lieferte uns eine neue Beschreibung von <strong>analoge</strong>n und <strong>digitale</strong>n<br />
Symbolsystemen bezüglich ihrer Syntaktik, also ihrer Struktur. Was dies bei einer Übertragung<br />
auf die <strong>Bilder</strong> bedeutet, wollen wir uns nun anschauen.<br />
4.3.2 Das <strong>digitale</strong> Bild<br />
Bei den <strong>analoge</strong>n <strong>Bilder</strong>n sind die Bildträger, als materielle Gegenstände, mit Oberflächen<br />
ausgestattet, die man üblicherweise als reellwertig ansehen wird. Wie man in der Physik den<br />
Raum als reellwertig ansieht, kann man den Bildträger, die Oberfläche als reellwertig ansehen.<br />
Genau genommen müsste man dabei drei D<strong>im</strong>ensionen ansetzen, weil die <strong>Bilder</strong> auch<br />
Vertiefungen und Erhöhungen aufweisen können. Man hat also drei Richtungen, die für das<br />
Bild von Bedeutung sind, die Höhe, die Breite und die Tiefe. Be<strong>im</strong> Vorgang des Malens oder<br />
Zeichnens können nun Markierungen aufgebracht werden. Dabei können die Markierungen<br />
darauf (Farbflecke etwa) das Resultat von Bewegungen (eines Pinsels, eines Stiftes oder<br />
eines Tintentröpfchens) sein. Um diese adäquat zu beschreiben, müssen wir von einem<br />
Kontinuum möglicher Bewegungspositionen ausgehen. Das heißt, dass der dreid<strong>im</strong>ensionale<br />
82 Christian Wittwer (1996), S.37<br />
73
Raum, als den wir uns die <strong>Bilder</strong> vorstellen, kontinuierlich sein muss. Er muss mit den reellen<br />
Zahlen beschrieben werden, die ja kontinuierlich sind.<br />
Für Goodman zeichnen sich <strong>analoge</strong> Symbolschemata durch ein System von durchgängiger<br />
syntaktischer Dichte aus. Bei den <strong>analoge</strong>n <strong>Bilder</strong>n könnte man sagen, dass zum Beispiel die<br />
möglichen Positionen der Bildelemente, zum Beispiel Farbflecke dicht sind. Es ist nicht <strong>im</strong><br />
Voraus festgelegt, an welchen Stellen ein Bildelement gesetzt werden kann. Auf einem Blatt<br />
Papier kann theoretisch an jeder Stelle Farbpigment eines Stiftes aufgetragen werden. Wir<br />
sollten die geforderte syntaktische Dichte <strong>im</strong> Zusammenhang mit den Eigenschaften der<br />
Malerei oder auch der Zeichnung auf syntaktische Kontinuierlichkeit ausweiten, denn wenn<br />
wir davon ausgehen, dass eine Marke wirklich überall gesetzt werden kann, müssen wir<br />
diese Situation mit den reellen Zahlen beschreiben.<br />
Die <strong>digitale</strong>n Symbolschemata sind nach Goodman syntaktisch differenziert. Dies trifft insofern<br />
zu, als dass bei den <strong>digitale</strong>n <strong>Bilder</strong>n die möglichen Bildpositionen, die markiert werden<br />
können, eingeschränkt sind. Man bewegt sich auf einem festgelegten Raster. Es können nur<br />
an vorher festgelegten Positionen Bildpunkte gesetzt werden. Damit sind auch die<br />
entstehenden Marken endlich differenziert. Denn zwischen zwei Bildpunkten gibt es keine<br />
weiteren. Egal wie fein das Raster gewählt wird, es gibt doch <strong>im</strong>mer Bildpositionen, die nicht<br />
markiert werden können.<br />
Auch in einem anderen Sinn sind die <strong>digitale</strong>n <strong>Bilder</strong> endlich differenziert. Wie wir schon<br />
gesehen haben, werden <strong>im</strong> Digitalisierungsprozess, genau be<strong>im</strong> Vorgang der Quantisierung<br />
die kontinuierlich vorliegenden Farbwerte auf endlich viele reduziert. Das heißt die <strong>digitale</strong>n<br />
<strong>Bilder</strong> sind auch bezüglich der Farbwerte endlich differenziert, es spielt also keine Rolle, ob<br />
ein Bild nun 256 oder 2 Millionen Farben besitzt, es sind <strong>im</strong>mer endlich viele diskrete Werte.<br />
Deshalb können die Farbwerte ja gerade mit den natürlichen Zahlen beschrieben werden.<br />
Dabei spielt es auch keine Rolle, dass die Farbwerte eigentlich aus einer Kombination von<br />
Werten der drei Grundfarben angegeben werden.<br />
Wir können also die Begriffe von Goodman sehr gut auf die künstlerischen <strong>Bilder</strong>, als eine<br />
spezielle Menge, der <strong>analoge</strong>n und <strong>digitale</strong>n Symbolschemata übertragen.<br />
4.3.3 Ein struktureller Widerspruch und ein Lösungsvorschlag<br />
Alles wäre zu schön, wenn es da nicht eine kleine Ungere<strong>im</strong>theit gäbe. Denn wenn man sich<br />
die Beschreibung der <strong>digitale</strong>n <strong>Bilder</strong> noch einmal genau überlegt, entdeckt man folgende<br />
Unst<strong>im</strong>migkeit. Diese hatten wir ja als syntaktisch endlich differenziert angesehen und konnten<br />
dies auch gut mit dem Zustand der <strong>Bilder</strong> nach dem Digitalisierungsvorgang in Einklang<br />
bringen. Nach der Definition von Goodman wären diese aber widersprüchlich definiert. Denn<br />
Goodman sieht es ja als eine wesentliche Eigenschaft aller bildhafter Symbolsysteme, also<br />
nennen wir sie ruhig einmal <strong>Bilder</strong>, dass diese syntaktisch dicht sind. Dies war gerade der<br />
74
wesentliche Unterschied zu den notationalen Symbolschemata, wie zum Beispiel der Schrift.<br />
Und wir kommen nicht darum, die <strong>digitale</strong>n <strong>Bilder</strong>, zum einen zu den bildhaften<br />
Symbolsystemen, zum anderen zu den <strong>digitale</strong>n Symbolschemata zuzuordnen. Richard<br />
Schantz zeigt, dass Goodman selbst diesen Einwand erkannt hat und eine notwendige<br />
Präzisierung vorgenommen hat. 83<br />
Es steht der Einwand <strong>im</strong> Raum, dass Analogizität gar keine notwendige Bedingung für<br />
bildhafte Darstellungen ist. Dies zeigt sich an <strong>Bilder</strong>n, wie Computergrafiken oder<br />
Fernsehbildern, die aus digital kodierten Punkten erzeugt sind oder auch an Mosaiken, die aus<br />
einer begrenzten Anzahl aus Steinen zusammengesetzt sind. In allen diesen Fällen, so<br />
Schantz, scheint doch ein Alphabet zur Verfügung stehen, aus denen <strong>Bilder</strong> aufgebaut<br />
werden können. Wie es dennoch zu einer konsistenten Aussage kommt, erklärt Goodman,<br />
indem er klar stellt, dass „analog“ und „digital“ nicht auf isolierte Symbole, sondern auf<br />
Symbolschemata angewendet werden. Kein Symbol ist an und für sich analog und keines<br />
digital. Daraus würde man schließen, dass ein Bild ein Symbol in einem <strong>analoge</strong>n Schema sein<br />
muss. Dies verwirft er und formuliert eine Art Einbettung der <strong>digitale</strong>n in die <strong>analoge</strong>n<br />
Symbolschemata.<br />
Das heißt, ein aus Punkten zusammengesetztes Bild gehört zu einem <strong>digitale</strong>n Schema, aber<br />
es gehört auch zu vielen <strong>analoge</strong>n Schemata. Die Behauptung, dass jedes Symbol zu<br />
Schemata beider Typen gehört, illustriert er am Beispiel eines aus einer Art Karten<br />
zusammengesetzten Porträts von Abraham Lincoln.<br />
Das Porträt könnte man sich zunächst als ein Bild, dass auf ein Gitternetz aufgebaut ist<br />
vorstellen. Die Felder des Gitternetzes werden dabei entweder weiß oder schwarz gefüllt.<br />
Weiter stellt man sich vor, dass es für jedes denkbare Muster, also alle möglichen<br />
Kombinationen eine Karte mit gefüllten Quadraten gibt. Dann wären diese Karten endlich<br />
differenziert und das Schema digital. Nun kann man den Kartensatz erweitern, so dass alle<br />
Quadrate mit Schwarz, Grautönen und Weiß, ohne Beschränkung auf irgendein Gitternetz<br />
ausgefüllt werden. In diesem neuen Kartensatz ist jede Karte von den anderen undifferenziert<br />
und das Schema wäre analog. Der ursprüngliche Kartensatz, von dem wir ausgegangen sind,<br />
ist aber in dem erweiterten Kartensatz voll enthalten. Den ursprünglichen Kartensatz<br />
bezeichnet Goodman als <strong>digitale</strong>s Subschema, da es durch El<strong>im</strong>ination aus dem <strong>analoge</strong>n<br />
Schema entstanden ist.<br />
Mein Vorschlag wäre, die Menge aller <strong>digitale</strong>n <strong>Bilder</strong> einfach als Teilmenge der <strong>analoge</strong>n<br />
<strong>Bilder</strong> zu sehen. Dies ist tatsächlich so, wenn man sich auch überlegt, dass die <strong>digitale</strong>n <strong>Bilder</strong><br />
einfach durch eine Nullmultiplikation außerhalb der Rasterpunkte entstehen. Das heißt, diese<br />
wären also eine Art <strong>analoge</strong> <strong>Bilder</strong>, bei denen manche Bildpositionen gelöscht wurden. Bei<br />
<strong>analoge</strong>n Symbolschemata, die syntaktisch dicht sind, besteht ja die potenzielle Möglichkeit,<br />
wirklich an jeder Bildposition eine Marke zu setzen. Wenn man sich nun dafür entscheidet, nur<br />
an endlich vielen Stellen, den Rasterpunkten, eine Marke zu setzen und die anderen frei zu<br />
83 Richard Schantz, Die Ordnung der <strong>Bilder</strong> - Nelson Goodmans syntaktische Explikation der Bildhaftigkeit, in: Klaus Sachs-Hombach,<br />
Klaus Rehkämper (1998), S.100-102<br />
75
lassen, erhält man ein <strong>digitale</strong>s Bild. Man kann sie somit als spezielle <strong>analoge</strong> <strong>Bilder</strong> ansehen.<br />
Wir können die <strong>digitale</strong>n <strong>Bilder</strong> also als eine Teilmenge verstehen, die man in die Menge der<br />
<strong>analoge</strong>n <strong>Bilder</strong> einbetten kann.<br />
4.3.4 Syntaktische Veränderung und eine seltsame Verwandtschaft<br />
Durch die Rasterung, also die Reduktion auf ein endliches diskretes Punktfeld, haben wir die<br />
Möglichkeit die vorliegenden Werte linear „wegzuschreiben“. Das heißt, es kann eine<br />
Umwandlung des zweid<strong>im</strong>ensionales Feldes in eine eind<strong>im</strong>ensionale „Linie“ stattfinden.<br />
Dies ist deshalb möglich geworden, weil wir aus den ursprünglich überabzählbar unendlich<br />
vielen Bildpunkten nur endlich viele ausgewählt haben und diese können wir auslesen. Wir<br />
können sie auslesen, weil wir sie nun durchnumerieren können. Außerdem sind die Werte<br />
diskret, vergleichbar den natürlichen Zahlen, womit wir über die Nachbarschaftsverhältnisse<br />
Bescheid wissen. Wir können genau sagen welche Bildpunkte „direkt“ nebeneinander liegen.<br />
Direkt heißt in diesem Zusammenhang nicht, dass sie ganz eng beieinander liegen müssen,<br />
sondern dass es eben der nächstmöglich erreichbare Punkt ist.<br />
Damit ergeben sich auch neue Möglichkeiten der Kompr<strong>im</strong>ierung der Zeichen. Da jetzt lineare<br />
Nachbarschaftsverhältnisse vorherrschen, können benachbarte Zeichen miteinander<br />
verglichen werden und gleiche zusammengefasst werden. Dabei gibt es verschiedene<br />
Verfahren, wie man gleiche Zeichen zusammenfasst.<br />
...<br />
Abbildung 19: Lesevorgang des digitalisierten Bildes und Überführung in eine eind<strong>im</strong>ensionale Darstellung<br />
Erstaunlich ist auch, dass wir nun dadurch, dass wir dieses diskrete Punktfeld linear<br />
wegschreiben können, eine Art Text erhalten. Denn normaler Text, <strong>im</strong> Unterschied zum<br />
Hypertext, zeichnet sich gerade dadurch aus, das er linear geschrieben und gelesen wird.<br />
Die Anordnung auf einer Buchseite ist nur aus praktischen und ökonomischen Gründen<br />
zweid<strong>im</strong>ensional. Man könnte sich jeden Text auch auf einem sehr langen „Streifen“<br />
hintereinander als sehr lange Kette von Zeichen vorstellen, ohne dass sich dabei inhaltlich<br />
76
irgendetwas ändern würde. In der Geschichte der Schrift war dies einmal ein beliebtes<br />
Verschlüsselungsverfahren. Der Text wurde auf einem ausreichend langen Papierstreifen<br />
geschrieben, der um ein Hölzchen mit einem best<strong>im</strong>mten Durchmesser schraubenartig<br />
gewickelt wurde. Nur wenn Sender und Empfänger ein Hölzchen mit demselben Durchmesser<br />
besaßen, konnte der Empfänger den Text entschlüsseln, wobei der Durchmesser den<br />
Schlüssel darstellte (dies aber nur als Beispiel für einen „wirklich“ linear geschriebenen Text).<br />
Damit haben die <strong>digitale</strong>n <strong>Bilder</strong> dieselben Eigenschaften wie ein Text. Das <strong>digitale</strong> Bild ist<br />
endlich differenziert und seine Elemente sind diskret. Die Leseweise ist linear. Das <strong>digitale</strong> Bild<br />
entspricht also in dieser Art einem Text. Die Lesart ist bekannt und es gibt auch eine<br />
Grammatik dieser <strong>Bilder</strong>. Man besitzt in Abhängigkeit des Grafikprogramms, oder allgemeiner<br />
des Interpreters, wie auch die Semiotiker sagen würden, eine feste Vorgabe, wie die Zeichen<br />
zueinander zu strukturieren sind.<br />
Damit wäre aber auch gleichzeitig eine Verankerung des Textes <strong>im</strong> Bildbegriff verbunden,<br />
was ich für einen interessanten Gedanken halte. Denn wenn man sich überlegt, wie der<br />
konkrete Wahrnehmungsvorgang be<strong>im</strong> betrachten von Text abläuft ist dies nicht so abwegig.<br />
Wir wollen das am Beispiel eines einfachen Bogen Papiers nachvollziehen. In der konkreten<br />
Wahrnehmungssituation versucht das kognitive System zunächst aufgrund von Merkmalen,<br />
wie dem Kontrast oder bekannten Strukturen, wie Linien, bekannte oder neue Objekte, besser<br />
Gestalten auszumachen. Wobei die neuen vielleicht zu den bereits bekannten Objekten oder<br />
Gestalten zugeordnet werden. 84<br />
Was ich damit sagen will ist, dass ich den Wahrnehmungsvorgang prinzipiell zunächst als<br />
visuelles Ereignis sehe, in dem das ganze als „Bild“ gesehen wird. Erst mit der Identifikation<br />
von Zeichen eines Alphabetes wird das Bild zum Text.<br />
Wenn uns jemand eine Schrift zeigt, die wir zuvor nie gesehen haben, können wir nicht<br />
beurteilen, ob es sich um Schrift handelt, obwohl diese vielleicht endlich differenziert und<br />
syntaktisch disjunkt ist. Wir können zum Beispiel in der deutschen Sprache ein „o“ auch nur<br />
als Textelement erkennen und von einem Kreis als Bildelement unterscheiden, wenn wir<br />
gelernt haben, dass es dieses als Teilmenge des Systems Schrift gibt. Man muß aber auch<br />
erwähnen, dass die Umgebung der Bildelemente ebenfalls eine wesentliche Rolle für den<br />
Vorgang der Identifizierung und Einordnung spielt. Die Auswertung ist also stark durch den<br />
Kontext der Objekte abhängig.<br />
Verlassen wir dieses Feld und kehren wieder zurück zur gemeinsamen Eigenschaft von<br />
<strong>digitale</strong>m Bild und Text: der linearen Struktur. Wir hatten festgestellt, dass das „lineare<br />
wegschreiben“ der Bildmatrix spätestens be<strong>im</strong> abspeichern der Bilddaten stattfindet.<br />
Interessant wäre auch eine Untersuchung der Verteilung der Bilddaten <strong>im</strong> Hauptspeicher des<br />
Computers. Eigentlich liegen die Bilddaten auch hier bereits linear vor. Denn der Speicher ist<br />
ebenfalls linear adressierbar, das heißt jede Speicherzelle besitzt eine Art einstellige<br />
Hausnummer, mit der sie angesprochen werden kann.<br />
84 Martin Scholz, Gestaltungsregeln in der pictorialen Kommunikation, in: Klaus Sachs-Hombach, Klaus Rehkämper (1999), S.280<br />
77
Be<strong>im</strong> abspeichern der Bilddaten werden diese linear weggeschrieben, aber bei vielen<br />
Speichermedien eigentlich auch nicht sequenziell geschrieben. Am Beispiel der Musikcassette<br />
kann man leicht das sequenzielle Speichern von Daten erklären. Dieses Medium ist nicht direkt<br />
adressierbar, Daten müssen hintereinander aufgezeichnet werden. Auf einer Festplatte eines<br />
Computers zum Beispiel werden die Bilddaten noch ökonomischen Gesichtspunkten verteilt<br />
und liegen dann fragmentarisch, nicht notwendigerweise in der ursprünglichen Reihenfolge<br />
vor.<br />
In diesem Moment können wir damit aber auch eine syntaktische Veränderung feststellen.<br />
Denn die Struktur der Zeichen untereinander hat sich entscheidend verändert, die<br />
ursprüngliche flächige Beziehung wurde in eine lineare überführt.<br />
4.4 Digitale <strong>Bilder</strong> ohne Apparate?<br />
Im Folgenden wollen wir uns kurz mit der Frage beschäftigen, ob <strong>digitale</strong> <strong>Bilder</strong> grundsätzlich<br />
und ausschließlich durch Apparate erzeugt werden können. Denn bis jetzt haben wir <strong>digitale</strong><br />
<strong>Bilder</strong> <strong>im</strong>mer <strong>im</strong> Zusammenhang mit Apparaten gesehen, die sie erzeugen. Die Apparate haben<br />
entweder unmittelbar ein <strong>digitale</strong>s Bild erzeugt oder dieses durch die Digitalisierung aus einem<br />
vorhandenen <strong>analoge</strong>n Bild generiert. Den ersten Fall hatten wir be<strong>im</strong> Digital Imaging, das ja<br />
direkt eine <strong>digitale</strong> Fotografie liefert, also ein <strong>digitale</strong>s Bild. Den zweiten Fall haben wir, wenn<br />
wir zum Beispiel eine Handzeichnung einscannen, auch hier erhalten wir als Resultat ein<br />
<strong>digitale</strong>s Bild.<br />
Wenn man nun aber davon ausgeht, dass diese Apparate von Menschen erdacht und<br />
konstruiert wurden, könnte man annehmen, dass die grundlegenden Mechanismen auch<br />
manuell ausgeführt werden können. Es ist klar, dass zum Beispiel der menschlichen<br />
Feinmotorik, dem Auflösungsvermögen der Augen oder auch der Reaktionsfähigkeit Grenzen<br />
gesetzt sind. Es geht also nicht darum, den Ablauf eines Apparates zu <strong>im</strong>itieren, sondern um<br />
die Frage, ob <strong>digitale</strong> <strong>Bilder</strong>, wie wir sie jetzt als digital verstehen, auch ohne den Einsatz von<br />
Apparaten hergestellt werden können. Im auditiven Bereich haben wir die Sprache als ein<br />
derartiges <strong>digitale</strong>s Symbolsystem, das ohne den Einsatz von Apparaten anwendbar ist.<br />
Diese wirkt aber wie gesagt auditiv und nicht visuell.<br />
Geht man davon aus, dass ein <strong>digitale</strong>s Bild syntaktisch differenziert sein muss, ist es<br />
notwendig, zunächst ein endlich differenziertes Symbolsystem zu entwerfen, dass als<br />
Repertoire der Gestaltung dienen soll. So könnte man sich neun quadratische Plättchen bauen,<br />
die man mit zum Beispiel fünf verschiedenen Farben einfärbt. Mit diesem Vorrat an Plättchen,<br />
wäre es nun möglich quadratische <strong>Bilder</strong> zu legen, die aus einem endlich differenzierten<br />
Symbolsystem zusammengesetzt sind. Denn es gibt nur neun Plättchen zur Auswahl und<br />
diese sind in ihrer Farbigkeit ebenfalls endlich differenziert. Dies soll nur zeigen, dass es<br />
prinzipiell möglich ist, ohne den Einsatz von Apparaten <strong>digitale</strong> <strong>Bilder</strong> zu erstellen.<br />
78
4.5 Substanz des <strong>digitale</strong>n Bildes<br />
4.5.1 Einführung<br />
Wir haben bis jetzt viel über die <strong>digitale</strong>n Bildmedien erfahren. Wir kennen den Prozess der<br />
Herstellung <strong>digitale</strong>r <strong>Bilder</strong> beziehungsweise der Umwandlung, also der Digitalisierung. Wir<br />
haben die syntaktische Struktur der <strong>digitale</strong>n <strong>Bilder</strong> kennengelernt und gesehen, dass <strong>digitale</strong><br />
<strong>Bilder</strong> als syntaktisch endlich differenzierte Symbolsysteme zu sehen sind, diese aber durch<br />
Vorgänge wie die Kompr<strong>im</strong>ierung durchaus veränderte Syntakta erhalten können. Dabei liegen<br />
die <strong>digitale</strong>n <strong>Bilder</strong> codiert vor. Denn aus den kontinuierlich vorliegenden Daten wurden nur<br />
endlich viele ausgewählt und diese in eine endlich lange Zeichenkette umgewandelt. Durch die<br />
Überführung in eine lineare Form handelt es sich dabei um eine Art von Text. Die Bilddaten, die<br />
ja das Bild beschreiben, liegen als lineare Aneinanderreihung von <strong>digitale</strong>n Daten vor, dem<br />
Code.<br />
Wie bereits in Kapitel 3 angesprochen können wir den Code als <strong>im</strong>materiell ansehen und in<br />
diesem Sinne wird auch von der Immaterialität der Neuen Medien gesprochen. Denn diese<br />
beruhen nicht auf der Elektronik, sondern dem Binärcode, auf codierter Information. Daraus<br />
resultiert ein wesentlicher Unterschied der <strong>digitale</strong>n zu den <strong>analoge</strong>n Medien. Es bedarf<br />
sowohl auf der Produktions- als auch auf der Rezeptionsseite des Technikeinsatzes. Das<br />
digital vorliegende Bild muss also zunächst wieder erzeugt oder rekonstruiert werden und<br />
wird erst dann - zum Beispiel in Form einer „Hardcopy“ - für den menschlichen<br />
Wahrnehmungsapparat zugänglich.<br />
Das <strong>digitale</strong> Bild muss sich also <strong>im</strong>mer erst in irgendeiner Art materiell manifestieren, wobei die<br />
verschiedenen Manifestationen durchaus sehr voneinander abweichen können. So ist es ein<br />
erheblicher Unterschied in der Erscheinung des Bildes, ob es auf einem Monitor oder auf<br />
einem Farbdrucker ausgegeben wird. Jedesmal wird eigentlich „dasselbe“ Bild dargestellt und<br />
dennoch sind diese verschieden. Konkret können zum Beispiel Differenzen in der Farbigkeit,<br />
aber auch in der Erscheinungsgröße auftreten.<br />
Nun könnte man sagen, dass dies grundsätzlich bei reproduzierbaren Medien, wie zum<br />
Beispiel bei einer Radierung der Fall ist. Hier haben wir auch eine Situation, in der das Bild<br />
zunächst in einer Art Vorstufe des eigentlichen Bildes vorliegt und erst durch den<br />
Reproduktionsvorgang endgültig und in seiner gewünschten Erscheinung sichtbar wird.<br />
Diese Vorstufe möchte ich Form nennen. Wie bei einem Abguss in einer Gießerei, gibt es eine<br />
materielle Vorlage, die dazu benützt wird, andere Materie zu formen, in Form zu bringen. Bei<br />
einer Radierung wäre die Form also die Radierplatte, die Farbe und Papier in Form bringt.<br />
Auch hier können die entstehenden Reproduktionen sehr unterschiedlich ausfallen. So ist das<br />
Resultat bei einer Radierung zum Beispiel von der Farbmenge abhängig, die auf die Platte<br />
aufgetragen und stehen gelassen wird. Die Beschaffenheit, die Konsistenz von Farbe und<br />
Druckpapier spielen ebenfalls eine Rolle. Man könnte nun versucht sein die Form der<br />
79
eproduzierbaren Medien mit dem Code des <strong>digitale</strong>n Bildes gleichsetzen. Zwischen Form und<br />
Code besteht aber ein wesentlicher Unterschied. Die Form, als Vorlage für die Reproduktion<br />
ist bereits materiell festgelegt, sie bleibt <strong>im</strong>mer gleich und weist bereits wesentliche<br />
Eigenschaften des zukünftigen Bildes auf. Auch wenn wir diese nicht unmittelbar mit unseren<br />
Sinnen wahrnehmen können, so können wir bei einer unentwickelten Druckplatte in der<br />
Offsetlithographie oder bei einem latent vorliegenden Foto eigentlich nichts von dem<br />
zukünftigen Bild erkennen: Dennoch sind die Bilddaten bereits materiell verankert und es<br />
besteht eine Analogie zwischen der Form und dem zukünftigen Bild. Der Code dagegen liegt<br />
nicht materiell vor, hier liegen die Verhältnisse anders.<br />
Im Zusammenhang mit den verschiedenen Erscheinungen ergibt sich eine der zentralen<br />
Fragen dieser Arbeit, nämlich nach der eigentlichen Substanz des <strong>digitale</strong>n Bildes. Wobei wir<br />
in diesem Zusammenhang das Wort „Substanz“ in der Bedeutung von „das Beharrende, das<br />
unveränderliche, bleibende Wesen einer Sache“ 85 sehen wollen. Die Form bei<br />
reproduzierbaren Medien könnten wir als Substanz <strong>im</strong> Sinne von „Stoff, Materie, Material“<br />
verstehen. Dies gelingt uns be<strong>im</strong> Code nicht, der als <strong>im</strong>materiell zu sehen ist. Wir können von<br />
Substanz <strong>im</strong> Sinne von „dem bleibenden Wesen einer Sache“ sprechen. In dieser Hinsicht sind<br />
sich Form und Code ähnlich. Man könnte den Code als Substanz des <strong>digitale</strong>n Bildes ansehen,<br />
der hinter jeder dieser Manifestationen steht, <strong>im</strong> Sinne vom „eigentlichem Inhalt, dem<br />
Wesentlichen“. Ob dies zutrifft müssen wir <strong>im</strong> Folgenden klären. Dazu ist es sinnvoll<br />
herauszufinden, was das andere, das spezifische am Code <strong>im</strong> Vergleich zur Form ist. Dafür<br />
müssen wir die Bedingungen des Codes klären und vorab den Begriff des Codes erklären.<br />
4.5.2 Begriff des Codes<br />
Wir haben gesehen, dass man <strong>Bilder</strong> als Zeichen auffassen kann. Wir werden also schauen,<br />
was die Semiotik uns für den Begriff des Codes zur Verfügung stellt. Um eine erste<br />
Vorstellung des Codes zu bekommen, können wir uns an einer ad hoc Definition von Eco<br />
orientieren. Für ihn ist der Code ein System von Symbolen, die nach vorheriger Absprache die<br />
Möglichkeit besitzen Informationen zu repräsentieren und diese zwischen Sender und<br />
Empfänger zu übermitteln. 86<br />
Das heißt, der Code ist ein konventionelles Symbolsystem, mit dem Informationen zwischen<br />
Sender und Empfänger kommuniziert werden können. Das ist eine Definition, die auf den<br />
Informationsbegriff aufbaut. Für diese Definition müssen wir deshalb eine kurze Vorstellung<br />
des Begriffes der Information geben, wie ihn die Semiotik und die Informationstheorie versteht.<br />
Der Begriff der „Information“ wird in der Theorie nicht <strong>im</strong> weitläufigen Sinne von „Botschaft“<br />
oder „Nachricht“ verstanden.<br />
85 Zu den Bedeutungen des Wortes „Substanz“ vgl. Duden - Das Fremdwörterbuch (1990)<br />
86 Vgl. Umberto Eco (1972), S.19<br />
80
Um die Bedeutung zu erklären, ist es notwendig ein wenig auszuholen. Zunächst einmal kann<br />
man vereinfacht sagen, dass man eine Information besitzt, wenn man weiß, welches von<br />
zwei Ereignissen eintritt. Denn man n<strong>im</strong>mt an, dass die beiden Ereignisse die gleiche<br />
Wahrscheinlichkeit haben und man besitzt keine Kenntnis darüber, welches der möglichen<br />
Ereignisse eintreten wird. Bei einer Münze zum Beispiel, die man in die Luft wirft, hat man eine<br />
Wahrscheinlichkeit von 1:2 für Wappen oder Zahl.<br />
Die Informationstheorie nennt die Informationseinheit „bit“. 87 Das bit ist die Einheit der binären<br />
Disjunktion, die man zur Identifikation einer Alternative braucht. Mit der Methode der binären<br />
Entscheidung ist es möglich, ein Ereignis aus einer endlichen Anzahl möglicher Ereignisse zu<br />
identifizieren. Das ist auch das Verfahren, dem die so genannten <strong>digitale</strong>n Computer folgen. Im<br />
Falle der Identifikation eines Elements aus acht möglichen Fällen hat man 3 bit Informationen<br />
erhalten. Der Sachverhalt kann durch folgendes Beispiel illustriert werden: Wenn man bei<br />
einer Wanderung an drei Stellen vorbeigekommen ist, an denen sich der Weg in zwei neue<br />
aufgeteilt hat, hatte man acht Möglichkeiten für den ganzen Weg der Wanderung. Man hätte<br />
sich ja an jeder Gabelung anders entscheiden können. Das heißt, die Information ist ein Grad<br />
für die Möglichkeiten.<br />
Wichtig ist dabei die Unterscheidung zwischen Information und Inhalt. Das heißt, der Wert der<br />
Information darf nicht mit dem Inhalt, der mitgeteilt wird, gleichgesetzt werden. In der<br />
Informationstheorie zählt die mitgeteilte Bedeutung nicht. Für die Informationstheorie zählt die<br />
Zahl der Alternativen, die für eine eindeutige Definition des Ereignisses erforderlich ist. Die<br />
Information ist nicht so sehr das, was gesagt wird, sondern das, was gesagt werden kann.<br />
Zurück zur Sprache. Eine mit einem bit berechenbare Botschaft (die Wahl zwischen zwei<br />
gleichwahrscheinlichen Möglichkeiten) und eine mit drei bit berechenbare Botschaft (die Wahl<br />
zwischen acht gleichwahrscheinlichen Möglichkeiten) unterscheiden sich durch die größere<br />
Zahl möglicher Wahlen, welche die zweite Situation gegenüber der ersten an der Quelle<br />
aufwies.<br />
Im zweiten Fall informiert die Botschaft mehr, weil an der Quelle größere Ungewissheit über<br />
die Wahl, die getroffen werden würde, bestand. Die Information ist das Maß einer<br />
Wahlmöglichkeit der Selektion der Botschaft. Die Information stellt die Auswahlfreiheit dar, die<br />
bei der Bildung einer Botschaft vorliegt, und muss folglich als statistische Eigenschaft der<br />
Quelle der Botschaften betrachtet werden.<br />
Der Zusammenhang zwischen Information und Code besteht nun darin, dass der Code den<br />
Grad der Information einschränkt. Best<strong>im</strong>mte Ereignisse sind möglich und andere weniger. Die<br />
Information der Quelle n<strong>im</strong>mt ab, die Möglichkeit Botschaften zu übertragen, n<strong>im</strong>mt zu. Der<br />
Code stellt in diesem Sinne ein Wahrscheinlichkeitssystem dar, das über die<br />
Gleichwahrscheinlichkeit des Ausgangssystems gelegt wird, um dieses kommunikativ zu<br />
beherrschen. Im Bezug auf Symbolsysteme bedeutet die Einführung des Codes eine<br />
87 Von „binary digit“, also „binäres Signal“<br />
81
Einschränkung der Kombinationsmöglichkeiten zwischen den beteiligten Elementen und der<br />
Anzahl der Elemente, die das Repertoire bilden.<br />
Code, der die anfängliche Gleichwahrscheinlichkeit einschränkt und so ein System von<br />
Wiederholungen herstellt und gewisse Symbolkombinationen ausschließt, ist ein System von<br />
rein syntaktischen Regeln. Er legt also Vereinbarkeiten und Unvereinbarkeiten fest, wählt<br />
best<strong>im</strong>mte Symbole als zugehörig aus und schließt andere aus. Code kann nun aber in<br />
zweifacher Bedeutung auftreten. Zunächst ein System von syntaktischen Regeln. In diesem<br />
rein syntaktischen Sinn kann ein Code einfach ein codifizierendes System genannt werden.<br />
Gleichzeitig wirkt der Code auch als ein System von semantischen Regeln. Der Code stellt<br />
also semantische Regeln auf. Durch den Code werden nämlich auf rein syntaktische Art und<br />
Weise best<strong>im</strong>mte kombinierbare Einheiten unter Ausschluss anderer ausgewählt und dies<br />
geschieht deshalb, weil diese Operation dazu diente, eine semantische Funktion zu<br />
ermöglichen. Nun gibt es die „eigentliche“ Bedeutung des Codes, indem man ihn als Liste von<br />
Äquivalenzen versteht. Das heißt, jedes Symbol entspricht einer gedachten Bedeutung. Auf<br />
diesen „denotativen Code“, bauen aber weitere optionale, so genannte konnotative Codes auf.<br />
Diese konnotative Codes bezeichnet man auch als „Subcodes“.<br />
4.5.3 Interpretation und Prozess<br />
In dieser semantischen Funktion des Codes tauchen Schwierigkeiten auf. Denn um den Code<br />
zu verstehen, muss dieser vom Empfänger interpretiert werden und genau in der<br />
Interpretation liegt der wesentliche Unterschied des Codes zur Form. Denn der <strong>digitale</strong><br />
Bildcode verweist in seiner Erscheinung nicht auf das zukünftige Bild, für das er steht. Er ist<br />
ein konventioneller Code, der letztendlich aus Zahlen, besser Ziffern besteht. Zahlen aber<br />
haben zunächst nichts mit der Realität zu tun. Sie stehen in keiner Beziehung zur Welt, die uns<br />
umgibt. Zahlen besitzen sozusagen eine Nulldenotation. Erst der abstrakte Vorgang der<br />
Übertragung der Zahlenverhältnisse auf Objekte der Welt, gibt den Zahlen einen Bezug. Der<br />
Binärcode enthält keine Analogie. Und genau darin könnte man einen wesentlichen<br />
Unterschied der <strong>digitale</strong>n <strong>Bilder</strong> sehen.<br />
Überträgt man den Gedanken auf das Beispiel der Radierung als reproduzierbares Medium<br />
ergibt sich das Folgende: Im Gegensatz zur Radierung, die zu den reproduzierbaren Medien<br />
gehört, muss das digitalisierte Bild als Code erst interpretiert werden. Die unterschiedlichen<br />
Erscheinungsformen der Radierung hängen von den Trägermaterialien ab. Also von der<br />
Farbe, dem Gegenstand auf den gedruckt wird. Letztendlich gibt die vorhandene Radierplatte<br />
als Form aber <strong>im</strong>mer das Bild vor. Vielleicht könnte man das mit einem vorliegenden <strong>digitale</strong>n<br />
Bild vergleichen, welches <strong>im</strong>mer nur mit einem Programm interpretiert würde. Dann wäre die<br />
Erscheinungsform, ähnlich wie bei der Radierung, von den Trägermaterialien abhängig. Die<br />
Erscheinungsform würde sich verändern, je nachdem ob das <strong>digitale</strong> Bild auf einem<br />
Bildschirm, einem Drucker oder anderweitig ausgegeben wird.<br />
82
Bei einem <strong>digitale</strong>n Bild kann der vorhandene Code aber nicht nur von einem Programm,<br />
sondern von vielen interpretiert werden. Um in der Praxis eine einheitliche Interpretation zu<br />
gewährleisten, hat man sich auf so genannte „Datenformate“ geeinigt. Das heißt, es wurde<br />
festgelegt, wie ein best<strong>im</strong>mter Datensatz, also eine best<strong>im</strong>mte Menge von Binärcode zu<br />
verstehen ist. Dazu musste aber der eigentliche Code um einen so genannten „Metacode“<br />
erweitert werden. Es gibt nun zusätzlich zum Bildcode einen weiteren Code, der vorschreibt,<br />
wie der Bildcode zu deuten ist. 88 Was bedeutet dies <strong>im</strong> künstlerischem Kontext?<br />
Bernd Busch stellt dazu fest: „Erstens ist der binäre Computercode ein gleichsam<br />
universelles System, das sein Arbeitsmaterial in unterschiedliche Aggregatzustände<br />
überführen kann, das die vielfältigsten Informationen nicht lediglich verknüpfen, sondern<br />
auch ineinander umformen kann. Eine Folge hiervon ist, dass die unterschiedlichsten<br />
Darstellungsformen und Medien technologisch integrierbar sind, ja, dass sie zum beliebig<br />
wählbaren Effekt werden. Mediale Besonderheiten wandeln sich zu Darstellungsvarianten.“<br />
und weiter „[...] wesentliche Veränderung betrifft den neuen Typus des Computer-Bildes.<br />
Sein Ursprung ist das Programm, welches die verfügbaren Daten verarbeitet und die<br />
Bildvarianten generiert.“ 89<br />
Aus der Eigenschaft des Binärcodes als Universalcode ergeben sich weitreichende<br />
Konsequenzen. Der Binärcode führt zu einer Verschmelzung bisher getrennter Medien zu<br />
einem multifunktionalen Medienverbund. Da die Bits nicht nur Träger visueller, sondern jeder<br />
anderen Information sein können, werden die Abbildungssysteme vollständiger. Sie bilden<br />
nicht nur das ab, was wir sehen, sondern beziehen auch andere Sinne in die Abbildung mit<br />
ein. Das heißt, der Binärcode ermöglicht uns gleichzeitig die Repräsentation von zum Beispiel<br />
Bild, Text, Sound oder auch Video. Dies könnten auch Daten für eine Adressdatenbank oder<br />
die Steuerungsdaten für eine CNC-Fräßmaschine sein. Der Binärcode macht alle Zeichen und<br />
Bedeutungen austauschbar. Er ist ein Universalcode und fungiert als Umschlagplatz der<br />
Zeichen. Aus diesem Grund können die Bits nicht auf sich selbst verweisen. Sie müssen<br />
gegen andere Zeichen und deren Bedeutungen austauschbar sein. In diesem Sinne könnte<br />
man das Fernsehbild, das auch gerastert ist und somit syntaktisch diskret, als nicht <strong>digitale</strong>s<br />
elektronisches Bild verstehen. Wobei das Fernsehgerät mit einem festgelegten Programm die<br />
eintreffenden Daten interpretiert. Für jede Übersetzung bedarf es eines eigenen Codes. Der<br />
elektronische Fernsehbildpunkt ist also gar nicht beliebig umwandelbar. Er bleibt <strong>im</strong>mer das,<br />
was er ist: visuelle Information. Dagegen können mit dem Computer vorliegende Daten beliebig<br />
interpretiert werden. Zusammenfassend würde dies also bedeuten, dass man den Code nicht<br />
unbedingt als Substanz des <strong>digitale</strong>n Bildes betrachten kann. Vielmehr müsste man das<br />
<strong>digitale</strong> Bild <strong>im</strong> Prozess verstehen. Erst <strong>im</strong> Vorgang der Interpretation entsteht das eigentlich<br />
Bild. Dabei kommt es darauf an, welches Programm den Code interpretiert. Weiter ist es<br />
fraglich, ob ein Programm den Code überhaupt richtig interpretieren kann. Denn das Programm<br />
88 Obwohl es diesen Metacode gibt, treten oft Interpretationsprobleme auf, wie bei der Darstellung von Html-Seiten mit verschiedenen<br />
Browsern (Netscape / Internet Explorer). Auch hier liegt jeweils ein und derselbe Code und Metacode vor, aber die daraus<br />
resultierenden Darstellungen sind unterschiedlich.<br />
89 Bernd Busch (1995), S. 392<br />
83
deutet den Code ja nur deshalb so, weil wir es ihm gesagt haben, dass es dies so tun soll.<br />
Man könnte also ein eigenes Programm schreiben, dass den Code auf eine andere Art<br />
übersetzt und diese Übersetzung wäre nicht als falsch zu betrachten.<br />
Digitale <strong>Bilder</strong> sind also in einer Art Abhängigkeit des Programmes, mit dem sie interpretiert und<br />
bearbeitet werden zu sehen. Durch den Einsatz von so genannten Grafikprogrammen,<br />
ergeben sich veränderte Bedingungen für die Gestaltung der <strong>Bilder</strong>. Neue Gestaltungsmöglichkeiten<br />
sind dazu gekommen und mit diesem Themenfeld wollen wir uns <strong>im</strong> folgenden<br />
Kapitel beschäftigen.<br />
84
5. Veränderte Produktionsbedingungen<br />
Nachdem wir ausgiebig die theoretischen Grundlagen der <strong>digitale</strong>n Bildmedien bearbeitet<br />
haben, wollen wir schauen, welches die daraus resultierenden praktischen Veränderungen<br />
sind. Denn der Einsatz des Computers verändert offensichtlich die Bedingungen, unter denen<br />
Kunst produziert wird. Wir haben gesehen, dass man mit Hilfe eines Computers vorhandene<br />
<strong>Bilder</strong> digitalisieren kann. Be<strong>im</strong> Digital Imaging wurden sofort <strong>digitale</strong> <strong>Bilder</strong> erzeugt und der<br />
Umweg über die <strong>analoge</strong>n <strong>Bilder</strong> konnte vermieden werden. Eine weitere Möglichkeit stellt die<br />
direkte Erzeugung der <strong>digitale</strong>n <strong>Bilder</strong> am Computer dar. Dies geschieht durch Algorithmen,<br />
dass heißt durch Programme die Anweisungen an den Computer erteilen, wie die <strong>Bilder</strong><br />
erzeugt werden sollen. Außerdem können die digital vorliegenden <strong>Bilder</strong>, egal welcher<br />
Herkunft sie sind, mit dem Computer effizient und komfortabel weiterbearbeitet werden. Man<br />
kann also festhalten, dass es verschiedene Arten des Computereinsatzes bei der<br />
<strong>Bilder</strong>zeugung gibt. Wir wollen diese zunächst unterteilen, um zu sehen, welche<br />
Möglichkeiten es für die künstlerische Praxis gibt.<br />
5.1 Gestaltungsmöglichkeiten<br />
Wenn man den Computer für die Herstellung von Kunstwerken einsetzt, geht man damit neue<br />
Arbeitsbedingungen ein. Es sind grundsätzlich sehr unterschiedliche Arbeitsweisen möglich,<br />
aber unabhängig von der Weise, wie man den Computer für die Gestaltung benutzt, übergibt<br />
man Teile des Gestaltungsprozesses an die Maschine. Aus dem beweglichen Verhältnis<br />
zwischen Mensch und Maschine ergibt sich eine unterschiedliche künstlerische<br />
Selbstständigkeit. Je nach der Art der Anwendung gewinnt die Maschine eine gewisse<br />
Selbstständigkeit gegenüber dem Künstler. Frieder Nake, n<strong>im</strong>mt diesbezüglich eine<br />
Dreigliederung vor. 90 Für ihn gibt es drei Stufen der maschinellen Autonomie:<br />
Die erste zeigt sich in der Veränderung der handwerklichen Operationen. Dies ist der Fall,<br />
wenn der Künstler so genannte Zeichen- oder Malprogramme einsetzt, die es in einer breiten<br />
qualitativen Spanne, vom Kindermalprogramm bis zum professionellen Grafikprogramm, zu<br />
kaufen gibt. Die Programme stellen dabei ein gewisses Repertoire an Funktionen zur<br />
Verfügung. Diese s<strong>im</strong>ulieren oft die traditionell hergebrachten manuellen Techniken. Der<br />
Künstler bleibt bei dieser Arbeitsweise in seinen Entscheidungen relativ unabhängig und die<br />
handwerkliche Tätigkeit wird dadurch verändert, dass er interaktiv am Rechner die<br />
Entstehung des Bildes steuert. Der Künstler gibt dabei über Eingabegeräte, zum Beispiel einer<br />
Maus, Anweisungen an das Grafikprogramm. So können über die Bewegung der Maus<br />
90 Vgl. Frieder Nake, Bildgeschichten aus Zahlen und Zufall. Betrachtungen zur Computerkunst, in: Gottfried Jäger, Andreas Dress<br />
(1999), S. 125-126<br />
85
Freihandlinien gezeichnet oder geometrische Formen gesetzt werden. Der Künstler kann in<br />
dieser Arbeitsweise als User bezeichnet werden, der ein vorhandenes Grafikprogramm<br />
verwendet. Das erspart dem Künstler die Schwierigkeit des Programmierens, schränkt ihn<br />
aber gleichzeitig in seinen Möglichkeiten ein, da er ja an die vorgegebenen Funktionen<br />
gebunden ist. Herbert Franke beschreibt diese Situation wie folgt: „Heute gibt es aber auch<br />
so genannte Paint-Systeme, mit denen der herkömmliche Weg der Kunstproduktion s<strong>im</strong>uliert<br />
wird. Dabei sitzt man vor einem so genannten Tableau, einem Arbeitsfeld, über das man<br />
einen Griffel führt. Alles, was man mit diesem Griffel auf dem Tableau ausführt, kann man<br />
auf einem Bildschirm beobachten. Man braucht also überhaupt nicht mehr zu<br />
programmieren.“ 91 Diese Beschreibung zeigt, wie sich die eigentlich sehr komplexen Systeme<br />
zu relativ einfach zu bedienenden Oberflächen verändert haben. Ein interessanter Punkt ist<br />
die Imitation der aus den traditionellen Techniken bekannten Werkzeuge. So kann man in einem<br />
Grafikprogramm ebenso Radieren, wie mit einem Pinsel malen. Hier werden wir noch<br />
ansetzen und schauen, was nun die neuen, also die spezifischen Werkzeuge der <strong>digitale</strong>n<br />
Bildbearbeitung sind. Wichtig wäre es aus meiner Sicht auch, die Grenzen des<br />
Grafikprogrammes auszuloten und vielleicht zu überwinden. Dabei stößt man auf das Feld der<br />
Störungen, denn wenn man Methoden verwendet, die das Grafikprogramm eigentlich nicht zur<br />
Verfügung stellt, bewegt man sich urplötzlich außerhalb des angedachten Systems.<br />
Zurück zur Einteilung der Arbeitsweisen: Die zweite Stufe für Nake ist die Delegation geistiger<br />
Operationen. Hierbei übern<strong>im</strong>mt ein Programm, die Entscheidungen für das Anbringen der<br />
elementaren Zeichen, wie zum Beispiel der Farben oder den Linien. Der Künstler könnte diese<br />
Entscheidungen auch selbst treffen, aber er übergibt sie an die Maschine, weil er am<br />
ästhetischen Exper<strong>im</strong>ent interessiert ist. Es entstehen viele Produkte und in einem zweiten<br />
Prozess akzeptiert oder verwirft der Künstler die durch das Programm entstandenen<br />
Arbeiten. Dieses Vorgehen ist sinnvoll, wenn es sich um massenhafte oder komplizierte<br />
Entscheidungen handelt. Neue <strong>Bilder</strong> sind möglich, weil diese jetzt mit einer angemessenen<br />
Geschwindigkeit errechnet werden können. Diese Art der Computerkunst, deren Ursprung<br />
man um 1965 datiert, spielte schon relativ früh, eine bedeutende Rolle. Ein bedeutender<br />
Vertreter dieser Richtung ist der in New York lebende Manfred Mohr mit Serien wie „Cubic<br />
L<strong>im</strong>it II“. In dieser Serie wird ein Würfel in zwei Teile geschnitten, die dann unabhängig<br />
voneinander verdreht werden. Die Kanten der Würfel werden dann in die Bildebene projiziert<br />
und anschließend entscheidet Mohr welche der Computerentwürfe in Acryl ausgeführt<br />
werden.<br />
91 Herbert W. Franke, Der Monitor als Fenster in einen unbegrenzten Raum, in: Florian Rötzer (Hrsg.), Digitaler Schein - Ästhetik der<br />
elektronischen Medien, Suhrkamp Verlag, Frankfurt am Main 1991, S. 288<br />
86
Abbildung 20: Manfred Mohr, Arbeit aus der Serie Cubic L<strong>im</strong>it II 92<br />
Als eine dritte Stufe der maschinellen Autonomie sieht Nake die Modellierung geistiger und<br />
handwerklicher Operationen, also die Verschmelzung der beiden vorigen Eigenschaften.<br />
Hierbei entscheidet die Maschine eigenständig, wo welche elementaren Zeichen gesetzt<br />
werden und auf welches Material sie aufgebracht werden sollen. Der Künstler entwickelt<br />
diese Maschinen und befragt sich dabei gleichzeitig selbst. Er wird zu einer Art Forscher, der<br />
sich darüber <strong>im</strong> Klaren werden muss, wie er selbst zu Entscheidungen kommt und diese<br />
Erkenntnisse auf die Maschine überträgt. Die so entwickelten Maschinen kann man in den<br />
Bereich der Künstlichen Intelligenz einordnen, da sie selbstständig Entscheidungen treffen<br />
und der Ablauf der Algorithmen derart komplex ist, dass die tatsächlichen Ereignisse nicht<br />
mehr vorausgesagt werden können.<br />
Ein wichtiger Vertreter dieser Richtung ist Harold Cohen. Der englische Künstler lebt seit 1969<br />
in Kalifornien und spürt der Idee nach, eine Maschine zu entwerfen, welche ein funktionales<br />
Äquivalent des Künstlers selbst darstellt. Er entwickelte zuerst ein System namens Aaron,<br />
dass er 1974 der Öffentlichkeit vorstellte. Immer wieder entwickelt er „Malmaschinen“ dieser<br />
Art, die während ihres Einsatzes über das Trägermaterial fahren und selbständig<br />
Zeichnungen anfertigen. Mit diesen Arbeiten war er auch 1977 auf der Documenta 6<br />
vertreten. Mit seinen Arbeiten untersucht Cohen unter anderem die Regeln der Codierung von<br />
Informationen und die Frage nach der Entstehung der Bedeutung des Kunstwerkes. Die<br />
entworfenen Malmaschinen versteht er als semiotische Maschinen, da sie Bedeutung<br />
92 Bei der Arbeit handelt es sich um das Bild P-200/N aus der Serie Cubic L<strong>im</strong>it II, Acryl auf Holz, 112 x 112 cm, 1975,<br />
Bildquelle: http://www.dam.org/mohr/mohr_cube2_200n1.html (5.03.2002)<br />
87
erzeugen, wobei die Maschinen selbst kein Bewusstsein besitzen. Es sind Maschinen, die<br />
bedeutungstragende <strong>Bilder</strong> erzeugen, die aber selbst nicht intentional handeln. Daher ist es<br />
nicht verwunderlich, dass Cohen Kunstwerke aus einem konstruktivistischen Standpunkt<br />
heraus sieht. Für ihn ergibt sich die Bedeutung des Kunstwerkes erst <strong>im</strong> Vorgang der<br />
Rezeption her.<br />
Cohen ist einer der Künstler, die selbst Systeme entwickeln und programmieren und nicht auf<br />
vorhandene Systeme oder Programme zurückgreifen. In diesem Zusammenhang spricht man<br />
auch von so genannten offenen und geschlossenen Systemen. Franke dazu: „Bei einem<br />
offenen System kann man diese Programmteile beliebig einbringen. Von Seiten der Maler<br />
und Grafiker werden aber geschlossene Systeme verlangt. Bei einem offenen System<br />
müssen Sie noch ein eigenes Programm machen. Wenn Sie einen ganzen Katalog eigener<br />
Programme in ihr System integriert haben, dann wird auch ihr System individuell auf Sie<br />
ausgerichtet sein. Wenn man auf die eigene Programmierung verzichtet, dann ist man auf<br />
das angewiesen, was irgendein Programm an Routinen bietet. Das kann sehr viel sein, ist<br />
aber beschränkt. Jeder, der dieses System verwendet, verwendet auch dieselben<br />
Routinen.“ 93 Was hier angesprochen wird, ist ein Grundproblem der Computerkunst. Die<br />
Systeme sind derart komplex, dass es nicht sofort möglich ist, mit ihnen umzugehen. Deshalb<br />
wurden Programme entwickelt die dem Benutzer eine einfache Handhabung ermöglichen.<br />
Wenn er diese verwendet, schränkt sich der potenzielle Benutzer aber gleichzeitig auf die<br />
angebotenen Funktionen der Software ein, kann also nicht über den Funktionsschatz hinaus<br />
gestalterisch wirken. Damit geht der eigentliche offene Zustand der Systeme und die damit<br />
verbundenen Möglichkeiten verloren. Dennoch ist nur eine kleine Zahl von Künstlern bereit,<br />
sich das notwendige Know-How anzueignen, um selbst Programme zu entwickeln und sich<br />
damit von den vorhandenen Vorgaben zu emanzipieren. Sie beherrschen nicht die Systeme,<br />
sondern werden von den Systemen beherrscht.<br />
Besonders die angewandten Künstler setzen sehr auf Standards und könnten so zu bloßen<br />
Anwendern von Grafikprogrammen verkommen. Die latente Gefahr, die dabei <strong>im</strong> Raum<br />
schwebt ist, dass die Ergebnisse ähnlich ausfallen und in ihrer Diversifikation eingeschränkt<br />
sind.<br />
Es gibt also verschiedene Arten, wie man den Computer für gestalterische Zwecke einsetzen<br />
kann. Wir haben drei verschiedene Arbeitsweisen kennengelernt, wie man mit dem Computer<br />
als Werkzeug umgehen kann. Im Folgenden werden wir verschiedene Aspekte der drei<br />
Ansätze beleuchten und dabei die Bedingungen der Computerkunst beziehungsweise der<br />
computerunterstützten Gestaltung besser kennenlernen. Obwohl die veränderten<br />
Bedingungen sehr interessant sind, können diese nur kurz vorgestellt werden, weil das Feld<br />
derart umfangreich ist, dass dies wiederum eine eigene Arbeit wert wäre.<br />
93 Herbert W. Franke, Der Monitor als Fenster in einen unbegrenzten Raum, in: Florian Rötzer (1991), S. 288<br />
88
5.2 Gestaltung als ästhetisches Exper<strong>im</strong>ent<br />
Der Computer erlaubt es, beliebig lange an einem Bild zu exper<strong>im</strong>entieren. Nun ist es an und<br />
für sich nichts Neues, dass man <strong>im</strong> künstlerischen Prozess mit den Bildmedien, die man<br />
verwendet, exper<strong>im</strong>entiert. Mit den traditionellen Techniken der Bildproduktion kann man<br />
ebenso exper<strong>im</strong>entieren. Einen guten Eindruck davon bekommt man, wenn man sich zum<br />
Beispiel das druckgrafische Werk von Andy Warhol anschaut, das er mit den Techniken des<br />
Sieb- oder Offsetdruckes hergestellt hat. In einer seriellen Produktion stellt Warhol ganze<br />
Reihen eines Motivs her, die nur in ihrer Farbigkeit variieren. 94<br />
Aber es sind eben andere Parameter, die man be<strong>im</strong> Exper<strong>im</strong>entieren verändern kann. Mit dem<br />
Computer ist in einer gewissen Weise eine andere Art des exper<strong>im</strong>entellen Arbeitens möglich.<br />
Das <strong>digitale</strong> Bild kann ebenfalls in verschiedenen Varianten dargestellt werden. Es kann zum<br />
Beispiel bei einem Computerbild eine Farbe gegen eine andere ausgetauscht werden. Man<br />
kann Teile des Bildes ausschneiden oder herauszoomen, Details darin bearbeiten und die<br />
veränderte Version wieder in das Bild einfügen. Dabei können die Veränderungen <strong>im</strong>mer auch<br />
<strong>im</strong> nachhinein statt finden. Darüber hinaus gibt es aber einen weiteren wichtigen Aspekt: <strong>im</strong><br />
exper<strong>im</strong>entellen Arbeitsprozess können die <strong>Bilder</strong> nicht nur verändert, sondern diese<br />
Veränderungen auch wieder zurückgenommen werden, denn die <strong>digitale</strong>n <strong>Bilder</strong> lassen sich<br />
abspeichern und später wieder hervorholen. Es können also verschiedene Zustände der<br />
<strong>Bilder</strong> vorliegen, die man verwerfen, weiter bearbeiten oder auch als Ausgangspunkt für<br />
neue <strong>Bilder</strong> nehmen kann. Der Künstler als <strong>digitale</strong>r Homo Ludens. Da die eigentlichen<br />
Bilddaten, wie wir gesehen haben, <strong>im</strong>materiell vorliegen, hat man es eben nicht mit den<br />
übrigen Widrigkeiten des Materials zu tun.<br />
Hier tropft nichts, die Farbe fängt nicht an zu schnell zu trocknen und auch der Bleistiftstrich<br />
verschmiert nicht auf dem Papier.<br />
Insofern ist ein anderes exper<strong>im</strong>entelles Arbeiten wie mit den materiellen Techniken möglich.<br />
Insgesamt ergibt sich eine neue Arbeitsweise, die ein tastendes Exper<strong>im</strong>entieren besser<br />
zulässt als in den herkömmlichen Gestaltungsmethoden. Darin könnte man vielleicht auch eine<br />
Verbindung zwischen Naturwissenschaft und Kunst sehen: Das Exper<strong>im</strong>ent als Methode zur<br />
Gewinnung neuer Erkenntnisse und zur Herstellung neuer Sachverhalte. So könnte man jedes<br />
Produkt der Computerkunst als ein Exper<strong>im</strong>ent ansehen, aus dem man lernen kann, ob die<br />
Strukturen oder Methoden, die man eingebracht hat, zu etwas führen, das ästhetisch<br />
befriedigend ist oder nicht. Überhaupt kann man einen wesentlichen Teil der Computerkunst<br />
als eine Art exper<strong>im</strong>entelle Ästhetik verstehen, die sehr interessante ästhetische Qualitäten<br />
besitzt und dabei sehr oft das Medium selbst thematisiert. Dabei verändert der Computer<br />
vielleicht aber auch den künstlerischen Imaginationsprozess. Es ist einfacher Veränderungen<br />
vorzunehmen, denn diese können ohne Verluste wieder zurückgenommen werden. Damit fällt<br />
94 Vgl. Thomas Crow, Die Kunst der sechziger Jahre: von der Pop-art zu Yves Klein und Joseph Beuys, DuMont Verlag, Köln 1997,<br />
S.84-89<br />
89
die Entscheidung für eine Veränderung <strong>im</strong> Gestaltungsprozess eines Bildes leichter,<br />
gleichzeitig geht dafür vielleicht so etwas wie Verantwortung verloren. Der Schritt der<br />
Modifikation ist weniger gewichtig, wie der an einem traditionellen Bildmedium materiell<br />
vorgenommene. Denn die Veränderung bei materiellen Bildmedien hinterlässt Spuren und<br />
diese werden damit integraler Bestandteil der Arbeit. Diese Spuren aber gehen bei der<br />
<strong>digitale</strong>n Gestaltung <strong>im</strong> ästhetischen Exper<strong>im</strong>ent oftmals verloren.<br />
5.3 Das Problem der verlorenen Spuren<br />
Betrachtet man ein fertiges Artefakt, so lassen sich normalerweise viele Arbeitsspuren<br />
erkennen. Der Künstler kann zwar versuchen diese zu vermeiden oder ganz bewusst einen<br />
persönlichen Duktus verschleiern, aber auch dies ist wieder eine Art indirekte Handschrift, die<br />
man ablesen kann. Durch die Entscheidung für die Verschleierung hinterlässt er eine Art Spur.<br />
Anders dagegen sieht es bei den <strong>digitale</strong>n Bildmedien aus. Die äußere Erscheinungsform ist<br />
abhängig vom Ausgabegerät, ist also durch dieses Gerät vorgegeben und ist somit einheitlich.<br />
Was bedeutet das konkret? Im Arbeitsprozess entstandene Arbeitsspuren sind nicht mehr<br />
nachvollziehbar. Vorhanden ist nur das vorliegende Endergebnis, das aber ein Resultat<br />
unzähliger Korrekturen, Veränderungen oder Überarbeitungen sein kann. Wenn man zum<br />
Beispiel in einer Bleistiftzeichnung eine Korrektur vorn<strong>im</strong>mt, was unter der Zuhilfenahme eines<br />
Radiergummis leicht zu erledigen ist, ist es sehr schwer alle Spuren dieser Korrektur zu tilgen,<br />
den Vorgang zu neutralisieren. Bedingt durch die Materialität werden eigentlich <strong>im</strong>mer Spuren<br />
der Korrektur ablesbar sein. Im Endzustand der <strong>digitale</strong>n Medien sind diese Arbeitsspuren <strong>im</strong><br />
Nachhinein nicht mehr erkennbar, sind gänzlich verloren.<br />
Wenn man in einer Grafiksoftware ein Rechteck setzt, kann dieses beliebig auf dem<br />
definierten Arbeitsbereich verschoben werden, ohne dass <strong>im</strong> Nachhinein die geringste Spur<br />
erkennbar wäre. Die Informationen der Überarbeitung sind auf jeden Fall vollständig verloren.<br />
Seit ein paar Jahren stellen die Grafikprogramme so genannte „Protokolle“ zur Verfügung, die<br />
es ermöglichen, die durchgeführten Arbeiten Schritt für Schritt zurückzunehmen. Es kann also<br />
jeder Arbeitsschritt zurückverfolgt werden.<br />
Es ist aber fraglich, ob man dieses Protokoll als Arbeitsspur betrachten kann. Denn die<br />
Informationen stecken meiner Auffassung nach nicht <strong>im</strong> Werk, sondern stellen ein<br />
zusätzliches Protokoll dar. Im Arbeitsprozess werden alle Vorgänge mitgeschrieben, es wird<br />
aufnotiert was geschehen ist. Das wäre aber, wie wenn be<strong>im</strong> Malen eines Ölbildes ein<br />
Beobachter jeden Arbeitsschritt aufnotiert oder die verschiedenen Arbeitszustände in<br />
zusätzlichen <strong>Bilder</strong>n festhält. Dabei kommt es auch nicht darauf an, ob es sich <strong>im</strong><br />
Gestaltungsprozess um ein so genanntes additives oder subtraktives Verfahren handelt. Ein<br />
additives Verfahren wäre hierbei zum Beispiel eine Malerei, bei der <strong>im</strong> Verlauf des Malens<br />
<strong>im</strong>mer mehr Farbe aufgetragen wird und ein subtraktives Verfahren wäre die Herstellung<br />
einer Skulptur aus einem Holzblock, bei dem Schritt für Schritt Material weggenommen wird,<br />
90
is schließlich das fertige Werk herausgearbeitet ist. Denn auch be<strong>im</strong> subtraktiven Verfahren<br />
kann man <strong>im</strong> Nachhinein Arbeitsspuren feststellen. Zum einen am Werk selbst und zum<br />
anderen könnte man das übrig gebliebene Material, als eine Art Spur verstehen. Die<br />
Komplementärmenge des Werkes als nicht ausgewählte Form. Für diese Spuren ist es nicht<br />
nötig ein zusätzliches Protokoll anzufertigen, sie ergeben sich einfach aus dem<br />
Gestaltungsprozess.<br />
5.4 Die veränderte Zeitlichkeit <strong>im</strong> Bild<br />
Mit dem Problem der verlorenen Spuren ergibt sich auch eine veränderte Zeitlichkeit <strong>im</strong> Werk.<br />
Denn in jeder Arbeit steckt die ihr zugeführte Zeit, die notwendig war, um die Arbeit zu<br />
erstellen. Betrachtet man die fertiggestellte Arbeit, so kann man bei einer Malerei meistens<br />
Arbeitsspuren erkennen, die oft auch Rückschlüsse auf die Zeitlichkeit zulassen, die in der<br />
Arbeit steckt. Als Beispiel kann man sich die Selbstbildnisse von Max Beckmann vor Augen<br />
führen, bei denen man oft an speziellen Gesichtspartien Erhöhungen, Verdickungen<br />
entdecken kann. Dies weist darauf hin, dass der Künstler diesen Stellen besondere<br />
Aufmerksamkeit gewidmet hat, diese Stellen <strong>im</strong>mer wieder und wieder überarbeitet hat, bis er<br />
einen zufriedenstellenden Zustand erreicht hatte. Die Zeitlichkeit ist sozusagen an der<br />
Anhäufung von Material abzulesen, wobei das akkumulierte Material <strong>im</strong> Kontext des Bildes<br />
gesehen werden muss. So kann aus ein und derselben Erscheinung sowohl auf Flüchtigkeit,<br />
aber auch auf hohe Konzentration geschlossen werden.<br />
Das Phänomen der veränderten Zeitlichkeit ist aber auch bei den bereits bekannten<br />
Reproduktionsmedien zu verzeichnen. Es taucht <strong>im</strong>mer dann auf, wenn dreid<strong>im</strong>ensionale<br />
Bildmedien auf zwei D<strong>im</strong>ensionen reduziert und damit vorhandene Strukturen el<strong>im</strong>iniert<br />
werden. Der Verlust der dritten D<strong>im</strong>ension bewirkt also eine Verminderung der Möglichkeiten,<br />
die das Bild uns zur Erklärung seiner Entstehungsgeschichte zur Verfügung stellen kann.<br />
Durch die <strong>digitale</strong> Arbeitsweise gewinnt man aber gleichzeitig neue Möglichkeiten der<br />
Bildgestaltung. Wie diese aussehen können, werden wir nun ansprechen.<br />
5.5 Neue Werkzeuge für die Gestaltung<br />
Wenn man die Möglichkeiten untersucht, die ein Grafikprogramm zur Verfügung stellt, erkennt<br />
man, dass sehr viele dieser Funktionen an traditionelle Gestaltungstechniken angelehnt sind.<br />
Im Prinzip wird in den Programmen versucht, alle Techniken aus den traditionellen Techniken<br />
wie der Zeichnung oder der Malerei zu übernehmen, diese <strong>im</strong> Programm zu s<strong>im</strong>ulieren. So gibt<br />
es zum Beispiel Funktionen, um Freihandlinien zu zeichnen, oder man kann mit einer<br />
Gießkanne Flächen mit vordefinierten Farben ausfüllen. Auch ausgefallenere Methoden<br />
stehen zur Verfügung. So gibt es die Möglichkeit Linien oder Farbflächen, wie mit einem Finger<br />
91
zu verwischen oder Farbe in der Art der Airbrushtechnik auf der Arbeitsfläche aufzutragen.<br />
Man kann sagen, dass die manuellen Techniken <strong>im</strong>itiert beziehungsweise s<strong>im</strong>uliert werden.<br />
Man sollte aber erwarten, dass die Programme auch spezifische Methoden für die Gestaltung<br />
der <strong>digitale</strong>n <strong>Bilder</strong> zur Verfügung stellen und damit die Tür für neue Gestaltungsmöglichkeiten<br />
geöffnet wird. Ein wichtiger Ausgangspunkt ist die Möglichkeit, die <strong>digitale</strong>n <strong>Bilder</strong> zu<br />
berechnen und umzurechnen. Wie wir schon erfahren haben, handelt es sich bei den<br />
<strong>digitale</strong>n <strong>Bilder</strong>n um <strong>Bilder</strong>, bei denen jeder Bildpunkt mit allen seinen Merkmalen wie der<br />
Position und der Farbigkeit bekannt ist. Diese können vom Programm direkt angesprochen und<br />
modifiziert werden. Daraus ergeben sich vielfältige Möglichkeiten, die teilweise auch den<br />
Bereich der technischen <strong>digitale</strong>n Bildverarbeitung berühren. Um einen Eindruck zu bekommen,<br />
werden wir <strong>im</strong> Folgenden ein paar der neuen Möglichkeiten und die dabei eventuell<br />
auftretenden Probleme betrachten. Natürlich gibt es sehr viele Bearbeitungsmöglichkeiten,<br />
aber einige davon finden besonders häufig Verwendung in der Bildbearbeitung.<br />
Zunächst einmal gibt es Werkzeuge um die <strong>Bilder</strong> in ihrer Gesamtgröße zu vergrößern oder zu<br />
verkleinern. Man kann also das Bildformat auf beliebige D<strong>im</strong>ensionen abändern, wobei man in<br />
der Praxis eigentlich <strong>im</strong>mer auf rechteckige Formen eingeschränkt ist. Es können<br />
Bildausschnitte gewählt werden und diese kann man ausschneiden und kopieren, <strong>im</strong> Bild<br />
verschieben oder neu einfügen. Es gibt außerdem die Möglichkeit, Ausschnitte <strong>im</strong> Bild mit einer<br />
Lupenfunktion zu vergrößern und den gezoomten Ausschnitt <strong>im</strong> Detail zu bearbeiten.<br />
Desweiteren ist es möglich die <strong>Bilder</strong> zu drehen. Dabei kann man die <strong>Bilder</strong> <strong>im</strong> einfachsten Fall<br />
horizontal oder vertikal umklappen, was einer Drehung um 180° <strong>im</strong> Raum entspricht oder man<br />
gibt den Wert des Winkels, um den man das Bild drehen möchte, direkt an. Dabei muss man<br />
aber bedenken, dass die <strong>digitale</strong>n <strong>Bilder</strong> den Regeln der diskreten Geometrie unterworfen<br />
sind, wie wir gesehen haben. Das bedeutet zum Beispiel, dass man die <strong>Bilder</strong>, wenn man sie<br />
exakt erhalten will, eigentlich nur um ein Vielfaches von 90° drehen kann. Ansonsten<br />
verändert sich die Eigenschaften des Bildes. Ein einfaches Beispiel wäre eine gerade Linie,<br />
die exakt horizontal <strong>im</strong> Bild liegt. Wird diese nun um 5° gedreht, so wird sie „fransig“. Diese<br />
Probleme kann man in der Praxis durch Erhöhung der Auflösung beseitigen, denn damit kann<br />
man die auftretenden Störungen unter die Sichtgrenze des menschlichen Auges schieben.<br />
Das Problem ist deshalb aber <strong>im</strong>mer noch vorhanden, wir können es lediglich nicht mehr<br />
wahrnehmen.<br />
Ein weiterer und sehr wichtiger Bereich sind die mathematischen Transformationen. Nun<br />
muss man an dieser Stelle sagen, dass ja <strong>im</strong> Prinzip hinter allen bereits angesprochenen<br />
Methoden mathematische Operationen stehen, welche die Bilddaten in der gewünschten<br />
Weise verändern. Hier handelt es sich übrigens wieder um eine interessante Schnittstelle<br />
zwischen der Gestaltung auf der einen Seite und mathematischen Verfahren auf der<br />
anderen. So ist es auch mit den oft als „Filter“ bezeichneten Bildtransformationen. Damit<br />
lassen sich nun zum Beispiel Farbwerte invertieren oder polarisieren, die <strong>Bilder</strong> können<br />
schärfer oder unschärfer gemacht oder mit diversen anderen Effekten versehen werden.<br />
Schließlich kann man auch mit mehreren <strong>Bilder</strong>n arbeiten, indem man diese nach<br />
92
mathematischen Gesichtspunkten überlagert. Diese Vorgehensweise nutzt zum Beispiel<br />
Thomas Ruff um seine Substrat-<strong>Bilder</strong> herzustellen. Für diese sammelt er <strong>im</strong> Internet<br />
Comicbilder, die er in mehreren Schichten überlagert und miteinander multipliziert, bis<br />
schließlich semantisch leere <strong>Bilder</strong> entstehen. 95 Es gibt also einige neue Methoden und<br />
Werkzeuge, die sich ganz speziell auf die besonderen Eigenschaften der <strong>digitale</strong>n <strong>Bilder</strong><br />
einlassen, die also mit den traditionellen Techniken entweder gar nicht oder nur sehr mühsam<br />
möglich sind. Ein wichtiger Punkt ist, dass alle erwähnten Methoden nur am statischen Bild<br />
wirken. Durch die Verbesserung der Rechengeschwindigkeiten, der Auflösung und der<br />
Farbtiefe haben sich neue Möglichkeiten ergeben, die wir nun ein wenig kennenlernen<br />
werden.<br />
5.6 Vom statischen zum bewegten Bild<br />
Veränderungen <strong>im</strong> Bild können auch in Echtzeit vorgenommen werden, sie sind also mit der<br />
Anweisung durch den Anwender sofort verfügbar. Das heißt, die Veränderungen werden<br />
nicht erst berechnet und dann ausgegeben, sondern der Veränderungsvorgang wird<br />
unmittelbar zum Ereignis. Die Zeiten für die Berechnungen <strong>im</strong> Bild sind mittlerweile so kurz<br />
geworden, dass ein fließender Übergang von einem Zustand zum anderen möglich ist. Die<br />
logische Konsequenz ist dann der Schritt zum bewegten Bild, zur An<strong>im</strong>ation und damit auch<br />
zu Methoden wie dem Morphing. Durch die Möglichkeit der sehr schnellen Berechnung kann<br />
man wie bereits erwähnt die Veränderung der <strong>digitale</strong>n <strong>Bilder</strong> in Echtzeit vornehmen. Die<br />
Veränderungen können also mit ausreichender Geschwindigkeit stattfinden, so dass be<strong>im</strong><br />
Betrachten der Eindruck eines zeitlich flüssigen Ablaufes entsteht, eben wie man es vom Film<br />
gewohnt ist, bei dem ja 24 <strong>Bilder</strong> pro Sekunde genügen, um das menschliche kognitive System<br />
zu überlisten. Damit haben sich mittlerweile verschiedene Anwendungsbereiche<br />
herausgebildet.<br />
5.6.1 An<strong>im</strong>ation und Morphing<br />
Eine davon ist die Computeran<strong>im</strong>ation, bei der <strong>im</strong> Prinzip mehrere <strong>Bilder</strong> hintereinander<br />
geschaltet werden und damit der Eindruck der Bewegung durch die Veränderungen in den<br />
einzelnen <strong>Bilder</strong>n zueinander entsteht. Durch An<strong>im</strong>ation können nun verschiedene Arten von<br />
Sequenzen entstehen. Es kann sich also sowohl um s<strong>im</strong>ulierte reale Welten handeln, aber<br />
auch um künstlich erzeugte, die man zu Gesicht bekommt. Zumeist steht in den An<strong>im</strong>ationen<br />
aber der künstliche Charakter <strong>im</strong> Vordergrund und es wird offen gezeigt, dass die <strong>Bilder</strong> nur<br />
Repräsentationen für eine künstliche Welt sind. Ihre visuelle Sprache ist mehr mit der Grafik<br />
95 Thomas Ruff: Fotografien 1979 – heute (2001), S.247<br />
93
als mit der Fotografie verbunden. Ein berühmtes Beispiel ist die Computeran<strong>im</strong>ation<br />
„Panspermia“ von Karl S<strong>im</strong>s aus dem Jahre 1990, die 1991 auf der Ars Electronica in Linz<br />
prämiert wurde und lange Zeit auf MTV zu sehen war. Diese zeigt den Lebenszyklus, das<br />
Wachstum und die Entwicklung eines intergalaktischen Organismus. Dabei fällt ein Samen auf<br />
einen unbewohnten Planeten und explodiert in aggressive Formen botanischen Lebens, die zu<br />
dichten Wäldern verwachsen und die Oberfläche des Planeten bedecken. Und dann wachsen<br />
kanonenförmige Pflanzen, die Samen ins Weltall schiessen, um den Zyklus abzurunden. Die<br />
vollständig s<strong>im</strong>ulierte Sequenz mit einer Dauer von 2:08 Minuten zeigt wie sich diese fiktive<br />
Welt entwickelt. Die Pflanzenstrukturen entstanden aus Modellen des Pflanzenwachstums.<br />
Dabei wurde ein Satz aus 20 genetischen Parametern eingesetzt, um 3D-Modelle von Bäumen<br />
aus verbundenen Segmenten zu konzipieren. Es gibt lokale Wachstumsregeln, welche diese<br />
20 Parameter verwenden. Durch die Wachstumsregeln wird die hierarchische Position jedes<br />
Segments <strong>im</strong> Baum festgelegt, außerdem wie schnell jeder Abschnitt wächst, wann und in<br />
welche Richtung er neue Knospen entwickeln soll. Mit diesem Ansatz können die Pflanzen in<br />
beliebig kleinen Stufen wachsen, was eine glatte und fließende S<strong>im</strong>ulation und An<strong>im</strong>ation des<br />
Wachstumsprozesses ermöglicht. 96<br />
Abbildung 21: Snapshot aus der Computeran<strong>im</strong>ation Panspermia 97<br />
Die An<strong>im</strong>ationen dieser Art war zunächst <strong>im</strong> Bereich der Computerkunst angesiedelt. Die<br />
Grenze zum Film sind aber fließend und auch die Filmbranche hat sich diese Möglichkeiten zu<br />
eigen gemacht. Genau das bringt aber die Problematik, wie man sich dieser neuen Gattung<br />
des <strong>digitale</strong>n „Filmes“ annähern soll: Ist es nun die Filmtheorie oder die Kunsttheorie die<br />
geeigneter für Fragen der Beurteilung ist? Denn auch Vermischungen von vorhandenem<br />
historischen Filmmaterial, das digitalisiert wurde, und neu abgedrehtem Filmmaterial stellt heute<br />
kein Problem mehr dar.<br />
96 Vgl. http://prixars.aec.at/history/an<strong>im</strong>ation/1991 (4.03.2002)<br />
97 Bildquelle: http://prixars.aec.at/history/an<strong>im</strong>ation/1991/pictures/91gnA-panspermia3.jpeg (04.03.02)<br />
94
Ein bekanntes Beispiel dafür ist der Film „Forest Gump“ 98 aus dem Jahr 1994, in welchem der<br />
Hauptdarsteller Forest Gump alias Tom Hanks dem US-Präsidenten Kennedy anlässlich einer<br />
Ordensverleihung die Hand schüttelt. Dabei wurde auf historisches Filmmaterial<br />
zurückgegriffen, in das die Szene mit Tom Hanks eingearbeitet wurde. Dies geschieht <strong>im</strong><br />
Vorgang der <strong>digitale</strong>n Nachbearbeitung, der <strong>digitale</strong>n Post Production. Hier wird oft mit so<br />
genannten Gittermodellen gearbeitet, die später mit Leben gefüllt werden. Wenn man ein<br />
Objekt erst einmal in ein Gittermodell überführt hat, kann man dieses auch in ein anderes<br />
umwandeln. Diesen Vorgang nennt man „Morphing“. Wenn man ein Objekt „morphed“, man<br />
spricht in diesem Zusammenhang auch von „elastischer Wirklichkeit“, können sehr<br />
interessante neue Bildsequenzen entstehen. Beispielsweise besteht die Anfangsszene von<br />
Forest Gump aus einem ungewöhnlichen langen und extrem komplizierten Flug einer Feder.<br />
Um diese Aufnahme zu machen, wurde die wirkliche Feder in verschiedenen Positionen vor<br />
einem blauen Hintergrund gefilmt. Diese Aufnahmen wurden dann an<strong>im</strong>iert und mit Aufnahmen<br />
einer Landschaft kombiniert. Das Ergebnis ist eine neue Art des Realismus, das man als<br />
etwas beschreiben kann, dessen Aussehen genau dem gleichen soll, wie etwas geschehen<br />
sein könnte, obgleich dies in Wirklichkeit nicht geschehen kann. 99 Diese neuen Möglichkeiten<br />
werden mittlerweile intensiv von der Filmindustrie benutzt, wie man auch an Filmen wie<br />
„Terminator II“, „Die Maske“ oder „Matrix“ sehen kann.<br />
5.6.2 Generative <strong>Bilder</strong><br />
Ein anderes Feld, sind die durch den Computer selbst generierten, errechneten <strong>Bilder</strong>. Dies<br />
sind <strong>Bilder</strong>, die durch vorgegebene Algorithmen selbstständig entstehen. Die so entstehenden<br />
<strong>Bilder</strong> können sowohl statisch als auch an<strong>im</strong>iert sein. Im ersten Fall generiert das Programm<br />
ein Bild und zeigt dieses nach der Fertigstellung an. Als Beispiel könnte man Fraktale<br />
erwähnen, die visualisierte Mengen der Mathematik darstellen. Diese werden zunächst<br />
berechnet und ergeben dann das endgültige Bild. Im andern Fall würde das dargestellte Bild<br />
<strong>im</strong>mer wieder neu berechnet werden und die sich daraus ergebenden Veränderungen <strong>im</strong> Bild<br />
kontinuierlich angezeigt. Damit ergibt sich wieder der Eindruck einer Sequenz, also eines<br />
zeitlichen Ablaufs. In einem erweiterten Verständnis könnte man auch hier von einer<br />
An<strong>im</strong>ation sprechen, da es sich um bewegte <strong>Bilder</strong> handelt. Die <strong>Bilder</strong> können durch<br />
verschiedene Daten erzeugt werden. Das Programm kann zufällige Parameter, so genannte<br />
Startwerte durch einen Zufallsgenerator ermitteln oder es kann vorhandene Daten, die zum<br />
Beispiel in Dateien gespeichert sind, verwenden.<br />
98 Forest Gump, Robert Zemeckis, Paramount Pictures, 1994, Spezialeffekte von Industrial Light and Magic<br />
99 Diese formale Vorgehensweise erinnert ein wenig an die Turmspringerszenen in dem Olympiafilm „Fest der Völker“ von Leni<br />
Riefenstahl, bei dem vorwärts und rückwärts abgespielte Sequenzen zusammengeschnitten wurden. Der Film wurde aber für<br />
Propagandazwecke anlässlich der in Berlin ausgetragenen Olympischen Spiele <strong>im</strong> Jahr 1936 gedreht, steht also in keiner inhaltlichen<br />
Beziehung zum erwähnten Film „Forest Gump“.<br />
95
Eine andere Möglichkeit ist die Eingabe von Werten durch den Benutzer, in diesem Fall der<br />
Betrachter des Bildes. Dies kann vor dem eigentlichen generativen Prozess geschehen und<br />
legt damit die Startparameter fest. Diese beeinflussen dann die Entwicklung des entstehenden<br />
Bildes. Bei manchen Systemen kann der Betrachter, in diesem Fall auch der Benutzer,<br />
während des Vorganges in den laufenden Prozess eingreifen und diesen damit verändern.<br />
Diese <strong>Bilder</strong> sind also interaktiv.<br />
5.6.3 Interaktive <strong>Bilder</strong><br />
Interaktive Computerkunst 100 zeichnet sich dadurch aus, dass vom Künstler ein System zur<br />
Verfügung gestellt wird, welches best<strong>im</strong>mte Entscheidungen trifft. Die Entscheidungen des<br />
Systems sind aber zusätzlich abhängig von den Eingaben, die der Rezipient als Benutzer<br />
vorn<strong>im</strong>mt. Der Informationsfluss findet also zwischen dem System und dem Benutzer in beide<br />
Richtungen statt. Der Benutzer entscheidet über das Verhalten, das Aussehen, den Zustand<br />
und den Inhalt der Arbeit mit. Er kann durch seine Entscheidungen Einfluss auf den Ablauf des<br />
Systems nehmen. Für das visuelle Erscheinen der Arbeit können also weder Aussagen über<br />
den Endzustand noch über den Ablauf gemacht werden. Alles ist offen, <strong>im</strong> Rahmen der<br />
Grenzen die durch das vorgegebene System gesetzt sind. Hier haben wir einen sehr<br />
spannenden neuen Bereich, der sich entwickelt hat und in dem die Möglichkeiten für<br />
interaktive Arbeiten sehr vielfältig sind. Einen Eindruck von der Funktionsweise der<br />
interaktiven Arbeiten kann man am Beispiel einer frühen Arbeit aus diesem Bereich erhalten,<br />
welche sich <strong>im</strong> Zentrum für Kunst und Medientechnologie (ZKM) in Karlsruhe befindet. Es<br />
handelt sich um die Installation „Interactive Plant Growing“ von Laurent Mignonneau und<br />
Christa Sommerer aus dem Jahr 1991. Die Installation besteht <strong>im</strong> Wesentlichen aus einem<br />
Computersystem, einer Videoleinwand und natürlichen Pflanzen, die als Schnittstelle<br />
zwischen Betrachter und System dienen. In der Installation wachsen künstliche Pflanzen <strong>im</strong><br />
dreid<strong>im</strong>ensionalen virtuellen Raum des Computers. Durch den Kontakt und die Annäherung der<br />
Hand des menschlichen Betrachters zu den echten Pflanzen kann dieser das künstliche<br />
Wachstum von programmierten Pflanzen in Echt-Zeit beeinflussen und kontrollieren. Dies<br />
geschieht durch Sensoren an den Wurzeln der echten Pflanzen.<br />
100 Der Begriff Interaktion, abgeleitet vom Lateinischen „inter“ (zwischen) und „agere“ (handeln), beschreibt ursprünglich in den<br />
Sozialwissenschaften die gegenseitige Beeinflussung von Individuen und sozialen Gebilden. Die Bedeutung wurde in den achtziger<br />
Jahren auf den Bereich Mensch-Computer-Interaktion erweitert. Der Begriff in dieser abgeleiteten Version beschreibt <strong>im</strong> Bezug auf<br />
Computersysteme die Eigenschaften von Software, dem Benutzer eine Reihe von Eingriffs- und Steuermöglichkeiten zu eröffnen.<br />
Vgl. Ludwig J. Issing, Paul Kl<strong>im</strong>sa (Hrsg.), Information und Lernen mit Mult<strong>im</strong>edia, Psychlogie Verlags Union, Weinhe<strong>im</strong> 1995, S.152-<br />
153<br />
96
Abbildung 22: Ausstellungssituation der Installation<br />
„Interactive Plant Growing“ 101<br />
Das elektrische Potenzial, welches sich durch die verschiedenen Berührungen des<br />
Betrachters verändert, kann gemessen werden und dient als Vorgabe für den<br />
Wachstumsprozess der künstlichen Pflanzen, der auf eine Videowand vor dem Betrachter<br />
projiziert wird. Durch das Feedback des künstlichen Wachstums am Bildschirm kann der<br />
Betrachter auf die jeweiligen <strong>Bilder</strong> reagieren und durch seine Entscheidungen den weiteren<br />
Verlauf des Wachstums best<strong>im</strong>men. Die Installation ist so angelegt, dass mehre Menschen zur<br />
gleichen Zeit über die Schnittstelle der fünf echten Pflanzen in der Installation agieren können.<br />
In der Möglichkeit der Interaktion liegt zum einen der Reiz der Arbeiten und zum anderen wird<br />
dadurch die wesentliche Beschaffenheit der Arbeiten dieses Typs best<strong>im</strong>mt. Sie sind eben<br />
nicht statisch sondern verändern ihr Erscheinungsbild, indem sie Reaktionen auf die Eingaben<br />
des Betrachters zeigen. Die <strong>Bilder</strong> sind bewegt, gehen dabei aber über eine An<strong>im</strong>ation hinaus.<br />
Denn <strong>im</strong> Wechselspiel zwischen Werk und Betrachter entstehen Konstellationen, die der<br />
Künstler zum Zeitpunkt der Erstellung des Systems nicht vorhersehen kann. Der Benutzer<br />
übern<strong>im</strong>mt einen wesentlichen Teil der Gestaltung und best<strong>im</strong>mt damit den endgültigen<br />
Zustand der Arbeit mit. Der Prozess der Gestaltung wird also auf den Betrachter, besser den<br />
Benutzer übertragen und von diesem fortgeführt. Es handelt sich nicht mehr um ein<br />
vorgefertigtes Werk, sondern um eine zum Prozess gewordene Arbeit, an welcher der<br />
Benutzer aktiv teilnehmen kann. Der Betrachter erhält eine neue Rolle, indem er nicht nur als<br />
Rezipient sondern auch als Akteur auftritt. 102<br />
Durch den Wandel vom materiellen Kunstwerk zum digital codierten, <strong>im</strong>materiellen Werk ist ein<br />
ganz neuer Bereich der Gestaltung entstanden. Die Arbeiten dieser Gattung sind flexibel,<br />
aktivierbar, veränderlich; da sie <strong>im</strong>materiell vorliegen können und sie zudem über elektrische<br />
Leitungen oder Funk „transportiert“ und publiziert werden können.<br />
101 Quelle: http://on1.zkm.de/zkm/stories/storyreader$612 (4.3.2002)<br />
102 Auch in der Unterhaltungsindustrie sind solche interaktive Konzepte mittlerweile sehr populär geworden. In Funk und Fernsehen gibt<br />
es viele Beispiele (TED bei Wetten Dass oder Big Brother) bei denen der Zuschauer interaktiv gestaltend auf die Sendungen einwirken<br />
kann.<br />
97
5.7 Original und Kopie<br />
Ein Phänomen das mit der <strong>digitale</strong>n Codierung einher geht und somit auch den Bereich der<br />
<strong>digitale</strong>n <strong>Bilder</strong> betrifft, ist das neue Verhältnis zwischen Original und Kopie. Mit den gängigen<br />
Betriebssystemen ist es möglich vorhandene Dateien, die <strong>digitale</strong> Daten für zum Beispiel <strong>Bilder</strong><br />
oder Filme beinhalten, zu kopieren. Dies geschieht <strong>im</strong> Prinzip auch durch die Distribution über<br />
Datenleitungen, wie sie das Internet zur Verfügung stellt.<br />
Aus der vorliegenden Immaterialität der Bilddaten, also konkret des Bildes ergibt sich aber eine<br />
wichtige Konsequenz: man kann in diesem Zusammenhang nicht mehr von Original und Kopie<br />
sprechen oder anders gesagt das „auratische“ des Kunstwerkes geht verloren. Was bei<br />
Warhol noch die Forderung für eine Aufgabe des Individualkultes war, ist hier technische<br />
Realität. 103 Denn man kann von einer vorhandenen Bilddatei eine identische „Kopie“ anfertigen,<br />
wobei sich bei beiden Bilddateien die vorliegenden Bildwerte in keiner Hinsicht unterscheiden.<br />
Man könnte höchstens noch über den vorliegenden Metacode, der den Bildcode begleitet,<br />
Aussagen über das Entstehungsdatum des <strong>digitale</strong>n Bildes machen und über eine zeitliche<br />
Einordnung von einem früher oder später der Werke sprechen. Dieser Metacode aber gehört<br />
nicht zum Bild, sondern stellt eine Art Protokoll des Gestaltungsprozesses dar. Das Protokoll<br />
gehört nicht zum eigentlichen Werk und stellt zusätzliche Informationen dar, wie wenn man für<br />
eine angefertigte Handzeichnung eine Kontrollkarte anlegen würde, auf der die relevanten<br />
Eckdaten für das jeweilige Werk eingetragen sind. Das eigentliche Bild und die zugehörige<br />
Kopie unterscheiden sich in keiner Weise. Die Kopie, oder besser das Duplikat, besitzen<br />
genau die gleichen Qualitäten. Dies ist möglich geworden, weil das Bild durch numerische<br />
Werte repräsentiert wird und diese ohne Veränderung reproduziert werden können. Dies<br />
führt zu einer ganz neuen Situation, wenn es um die Beurteilung der Originalität geht. Das<br />
Original muss jetzt dazu deklariert werden und besitzt diese Eigenschaft nicht automatisch, da<br />
es absolut identisch dupliziert werden kann. Die Möglichkeit der Reproduktion der <strong>digitale</strong>n<br />
<strong>Bilder</strong> sind damit in höchstem Grad der Perfektion vorhanden. Um nicht in ein Loblied auf die<br />
Computer einzust<strong>im</strong>men, muss man auch erwähnen, dass es in der Praxis nicht <strong>im</strong>mer gelingt.<br />
Durch technische Fehler be<strong>im</strong> Kopieren oder Übertragen der Bilddaten können Störungen<br />
entstehen. 104<br />
5.8. Störungen<br />
Wenn <strong>im</strong> Gestaltungsprozess unerwünschte Phänomene auftauchen, die nicht durch den<br />
User bei angemessener Benutzung verursacht sind, kann man von Störungen sprechen.<br />
Diese können an verschiedenen Stellen <strong>im</strong> System entstehen, wenn dieses nicht einwandfrei<br />
103 Vgl. Thomas Crow (1997), S.86<br />
104 Vgl. dazu auch den Szenespruch: „Nur ein ausgeschalteter Computer verursacht keine Fehler!“<br />
98
funktioniert. So können durch die eingesetzten Hardware, aber auch durch die Programme<br />
Fehler entstehen. Dabei ist es möglich, dass der Fehler <strong>im</strong> Programm bereits angelegt ist, dass<br />
also das Programm fehlerhaft erstellt wurde oder dass das Programm durch ein weiteres<br />
gestört wird. Wenn zum Beispiel zwei Programme versuchen, denselben Speicherbereich <strong>im</strong><br />
Computer zu belegen, so kann dies Konflikte verursachen, die zu unerwarteten Resultaten<br />
führen können. Störungen können also auf verschiedene Art entstehen. Fehlerhafte<br />
Hardware oder Programme können die Ursache sein. Das Aufeinandertreffen von<br />
verschiedenen eigentlich fehlerlosen Programmen oder die Unst<strong>im</strong>migkeit zwischen<br />
Programmen und der Hardware kann ebenfalls Störungen auslösen. Nun kann man diese<br />
Störungen nicht nur als unerwünschte Fehler ansehen, sondern kann ihnen auch<br />
interessante Aspekte abgewinnen. Man kann mit ihnen arbeiten, indem man sie bewusst<br />
hervorruft und sie als künstlerischen Ausgangspunkt einsetzt. Im Prinzip ist es eine gängige<br />
Methode des Künstlers: indem er das gewohnte in Frage stellt und versucht vorhandene<br />
Grenzen zu überschreiten. Mit Störungen löst er Irritationen aus, die den Rezipienten dazu<br />
anregen, über die grundsätzliche Arbeitsweise eines funktionierenden Systems<br />
nachzudenken. Der Reiz liegt also in dem Versuch, die konventionellen Ausgangsmengen zu<br />
erweitern oder zu verändern, aber <strong>im</strong>mer in dem Maße, dass sie weiterhin kommunizierbar<br />
sind. Denn Kommunikation funktioniert nur über Konventionen. Die syntaktischen und<br />
semantischen Eigenschaften des verwendeten Codes müssen vorab zwischen Sender und<br />
Empfänger geklärt sein. Ist dies nicht der Fall, wird jede Äußerung zur privaten Sprache, die<br />
hermetisch und für andere nicht decodierbar ist und damit unverständlich bleibt. Die<br />
Möglichkeit bewusst mit Störungen zu arbeiten, eröffnete den Künstlern schon <strong>im</strong>mer neue<br />
Felder: „Schon in der klassischen Zeit gab es die Frage, ob nun die Harmonie, die Einheit<br />
oder die Gesetzlichkeit oder ob nicht eher die Abweichung oder Entfremdung vom<br />
Normalen, die Innovation, das Eigentliche in der Kunst wäre. Diese scheinbar<br />
widersprüchlichen Kriterien lassen sich mit der Informationspsychologie sehr gut vereinen.<br />
Es stellt sich nämlich heraus, dass weder die hundertprozentige Ordnung ein interessant zu<br />
nennendes Kunstwerk hervorbringt noch das völlige Chaos, sondern das Opt<strong>im</strong>um liegt<br />
irgendwo in der Mitte, was man auch quantifizieren kann. Es ist eine Art Gleichgewicht<br />
zwischen den verschiedenen Ordnungen des Gesetzlichen und der Innovation. Das gilt nicht<br />
nur für <strong>Bilder</strong>, sondern auch für alle anderen Kunstformen.“ 105 Die Schwierigkeit besteht also<br />
darin, die so genannte goldene Mitte zwischen Bekanntem und Unbekanntem, dem Neuem zu<br />
finden. Die enstehenden Veränderungen müssen sich noch erklären lassen.<br />
Wie können Störungen bei <strong>digitale</strong>n Bildmedien aussehen? Um Störungen bei <strong>digitale</strong>n <strong>Bilder</strong>n<br />
zu erzeugen, gibt es verschiedene Ansätze. Eine erste, sehr brachiale Möglichkeit könnte<br />
darin bestehen, die Technik des Systems, also die Hardware teilweise zu zerstören. Durch<br />
leichte Beschädigungen könnten unerwartete ausgefallene Resultate erzielt werden. Man<br />
kennt solche Vorgänge auch als User, wenn zum Beispiel die eingebaute Grafikkarte des<br />
105 Herbert W. Franke, Der Monitor als Fenster in einen unbegrenzten Raum, in: Florian Rötzer (1991), S. 285-286<br />
99
Computers Defekte aufweist. Es ist erstaunlich, welche Auswirkungen dies haben kann. Die<br />
ausgegebenen <strong>Bilder</strong> haben oftmals ästhetischen Wert. Ein anderer Weg wäre die bewusste<br />
Manipulation von Programmen, indem man den Programmcode verändert. Dieser Bereich spielt<br />
letztendlich bei Jugendlichen, die ein Spiel „knacken“, eine große Rolle. Man kann so<br />
vorhandene Funktionen abändern oder neue <strong>im</strong>plementieren.<br />
Störungen entstehen auch, wenn man die Programme in einer Art und Weise verwendet, für<br />
die sie nicht konzipiert sind. Wenn man zum Beispiel in einem Textverarbeitungssystem (z.B.<br />
Word) eine Sounddatei („Wav“ Dateiformat) öffnet. Eine interessante Möglichkeit wäre ein<br />
eigenes Programm zu schreiben, dass beliebige Dateien nach eigenem Verständnis visuell<br />
interpretiert. Der vorliegende Code wird dann auf eine Weise interpretiert, die zu neuen<br />
Erscheinungen führt. Diese Vorgehensweise setzt an einer Eigenschaft an, die wir bereits<br />
kennengelernt haben. Der <strong>digitale</strong> Bildcode verweist in seiner Erscheinung nicht auf das<br />
zukünftige Bild, für das er steht. Der Binärcode enthält keine Analogie und erhält seine<br />
Bedeutung erst <strong>im</strong> Vorgang der Interpretation.<br />
In umgekehrter Richtung gibt es heute schon Programme, die versuchen Störungen <strong>im</strong> Bild zu<br />
korrigieren. Im Bereich der Filmarchivierung und -restaurierung gibt es bereits solche<br />
Verfahren. Filme auf konventionellem Filmmaterial wie Zelluloid sind durch Verschleiß und<br />
Verfall des Trägermaterials oftmals in einem schlechten Zustand. Die Filme werden deshalb<br />
digitalisiert, um sie der Nachwelt zu erhalten. Dabei läuft be<strong>im</strong> Umwandlungsvorgang ein<br />
Programm, dass Fehler <strong>im</strong> Bild erkennt und versucht diese zu korrigieren, indem es die<br />
fehlerhaften Stellen <strong>im</strong> Film an die Umgebung anpasst. Die Erfolgsquote ist relativ hoch und nur<br />
wenige Stellen müssen manuell nachbearbeitet werden.<br />
Man sieht, dass auch das Feld der Störungen durchaus interessante Aspekte bietet.<br />
Störungen können eine Möglichkeit sein, sich über die Funktionsweise eines Systems klar zu<br />
werden, denn durch die Störungen „entlarvt“ sich in einer gewissen Weise das System.<br />
Wenn man eine Verständnis für die Systeme entwickelt hat, besitzt man aber gleichzeitig eine<br />
bessere Ausgangsposition, um sie zu gestalten, und darum geht es uns als bildende Künstler.<br />
Viele der in diesem Kapitel vorgestellten Gestaltungsmöglichkeiten kann man als sehr<br />
spezifisch für die <strong>digitale</strong>n Medien ansehen. Erst durch die Rechenbarkeit des digital<br />
vorliegenden Bildes wurden neue Methoden, wie zum Beispiel An<strong>im</strong>ation und Morphing<br />
möglich. Darüber hinaus sind diese jetzt in Echtzeit und interaktiv möglich.<br />
100
6. Abschliessende Zusammenfassung und Ausblick<br />
Von den etymologischen Betrachtungen zu den Störungen der <strong>digitale</strong>n System haben wir<br />
einen weiten Bogen gespannt und einen weiten Weg in der Geschichte zurückgelegt. Ich<br />
werde deshalb versuchen <strong>im</strong> Folgenden noch einmal die wesentlichen Aspekte dieser Arbeit<br />
zusammenfassen.<br />
Am Anfang der Arbeit stand der Versuch der Klärung der Begriffe „analog“ und „digital“ über<br />
eine sprachliche und geschichtliche Annäherung, die zu einem ersten Eindruck der Begriffe<br />
verholfen hat. Dabei wurde klar, dass das Wort „analog“ eine sehr alte Begriffsgeschichte<br />
besitzt. Es ist von dem ursprünglich griechischen Wort „Analogie“ abgeleitet und hat heute die<br />
Bedeutungen wie „entsprechend“, „ähnlich“ oder auch „gleichartig“. Die Analogie war<br />
zunächst ein Begriff der Philosophie, welchen <strong>im</strong> Wesentlichen die Pythagoreer circa 400 vor<br />
Christus entwickelt haben und der in der klassischen Antike große Bedeutung erlangte. Die<br />
Entdeckung der musikalischen Intervalle und spezieller Zahlenverhältnisse führte zur<br />
mathematischen Erörterung und später zur Vorstellung des richtigen, harmonischen<br />
Verhältnisses der Dinge zueinander. Daraus entwickelte sich der Begriff der Analogie, der in<br />
der pythagoreischen Schule zunächst jede Art von Gleichheit, je nach der Verbindung zweier<br />
Zahlen darstellte. In der klassischen Antike war die Wohlordnung der Dinge ein bevorzugter<br />
Zustand (Akribie bezeichnet die Perfektion und die Ordnung der Dinge) und war nicht wie<br />
heute negativ belegt. Die Analogie hat sich dann zu einem Verfahren weiterentwickelt, dass<br />
zur Herstellung von Beziehungen und Übertragungen zwischen eigentlich nicht<br />
zusammengehörenden Sachverhalten dient. Dies geschieht aufgrund von Ähnlichkeit der<br />
Verhältnisse in der Struktur oder der Funktion von Systemen oder Dingen.<br />
Das Adjektiv „digital“ bezeichnete ursprünglich Phänomene, die in Verbindung mit dem Finger,<br />
lateinisch „digitus“, standen. Dies konnte das Zeigen in der Rhetorik oder das Zählen in der<br />
Mathematik sein. Im medizinischen Kontext fand und findet der Begriff heute noch<br />
Verwendung. Erst in den dreißiger Jahren des 20. Jahrhunderts entwickelte sich die neue<br />
Bedeutungsvariante von „digital“ <strong>im</strong> Sinne von „in Ziffern darstellbar“, „in Stufen, in Schritten“<br />
oder auch „diskret“. Dies geschah <strong>im</strong> Zusammenhang mit den technischen Errungenschaften<br />
<strong>im</strong> Bereich der Rechnertechnik. Mit der Entwicklung des Digitalrechners veränderte sich die<br />
Funktionsweise des Rechners grundlegend. Die Rechner dieses neuen Typs arbeiten als<br />
Universalrechner mit einem endlichen Repertoire an Ziffern oder Zeichen und sind so vielseitig<br />
einsetzbar. Sie sind <strong>im</strong> Unterschied zum Analogrechner programmierbar und können somit für<br />
verschiedene Aufgaben benutzt werden. Dagegen stellte der Analogrechner eine<br />
Entsprechung eines zum Beispiel physikalischen Problems dar und war auf eine best<strong>im</strong>mte<br />
Aufgabe festgelegt. Mit der neuen Bedeutung von „digital“ entwickelte sich auch die<br />
Begriffserweiterung von „analog“ <strong>im</strong> Sinne von „kontinuierlich“ oder auch „stetig“, als<br />
Gegenstück zu „digital“ <strong>im</strong> Sinne von „diskret“.<br />
101
Am Beispiel der Fotografie und des Digital Imaging konnten wir erste spezifische<br />
Eigenschaften der beiden Bildmedien feststellen. Das Digital Imaging wird zu den Tertiären<br />
Medien gerechnet, bei denen sowohl auf der Produktions- als auch auf der Rezeptionsseite<br />
der Einsatz von Technik notwendig ist. Die unmittelbare, direkte Wahrnehmung der <strong>Bilder</strong><br />
konnte als spezifische Eigenschaft der <strong>analoge</strong>n Bildmedien verzeichnet werden. Aufgrund<br />
von Ähnlichkeiten, die sie <strong>im</strong> Bezug auf das, was sie denotierten zeigen, wirken sie<br />
analogisch und sind direkt wahrnehmbar. Demgegenüber sind die <strong>digitale</strong>n <strong>Bilder</strong> codierte, in<br />
Zahlen aufgelöste Wirklichkeit. Ein anderer Aspekt ist die unterschiedliche Authentizität der<br />
beiden Gattungen: während sich bei der <strong>analoge</strong>n Fotografie das Bild selbst „schreibt“ und als<br />
direktes materielles Resultat der einfallenden Lichtstrahlen gesehen werden kann, liegt das<br />
<strong>digitale</strong> Bild codiert vor und muss erst interpretiert werden. Die Möglichkeiten der <strong>digitale</strong>n<br />
Nachbearbeitung sind vielfältiger geworden und der Manipulation sind keine Grenzen gesetzt.<br />
Wir haben gesehen, dass <strong>digitale</strong> <strong>Bilder</strong> direkt erzeugt werden können, zum Beispiel be<strong>im</strong><br />
Digital Imaging, dass sie aber auch durch die Umwandlung von <strong>analoge</strong>n <strong>Bilder</strong>n entstehen<br />
können. Mit Hilfe eines „Scanners“ ist es zum Beispiel möglich analog vorliegende <strong>Bilder</strong> in<br />
<strong>digitale</strong> umzuwandeln, zu digitalisieren. Dabei werden die kontinuierlich vorliegenden Bilddaten<br />
<strong>im</strong> ersten Schritt gerastert, also in eine diskrete Geometrie überführt und dann die Farbwerte<br />
der Bildpunkte quantisiert, also auf endlich viele diskrete Farbwerte reduziert. Das bedeutet<br />
aber zugleich, dass Bilddaten verloren gehen. Das Resultat ist ein <strong>digitale</strong>s Bild, dass als<br />
zweid<strong>im</strong>ensionales Zahlenschema, als so genannte Matrix vorliegt. In dieser Matrix ist jeder<br />
Bildpunkt bezüglich seiner Position und Farbigkeit bekannt und kann jederzeit direkt<br />
angesprochen und verändert werden. Es liegt also ein rechenbares, flexibles, <strong>im</strong>materielles<br />
Bild vor. Soweit könnte man also festhalten, dass <strong>analoge</strong> Bildmedien Ähnlichkeit zu den<br />
Sachverhalten oder Dingen zeigen, auf die sie sich beziehen. Die <strong>digitale</strong>n <strong>Bilder</strong> sind durch<br />
Zahlen codiert und zeigen keine Entsprechung mehr zu dem, für was sie stehen.<br />
Die Bildtheorie zeigte, dass man die Begriffe „analog“ und „digital“ auch auf die strukturelle<br />
Beschaffenheit der <strong>Bilder</strong> beziehen kann. Der analytische Ansatz von Goodman hat gezeigt,<br />
dass syntaktische Dichte ein notwendiges Kriterium für <strong>analoge</strong> Symbolsysteme, also auch<br />
für <strong>analoge</strong> <strong>Bilder</strong> ist, wohingegen <strong>digitale</strong> <strong>Bilder</strong>, die zu <strong>digitale</strong>n Symbolsystemen gehören,<br />
als syntaktisch endlich differenzierbar oder auch diskret angesehen werden müssen. Dabei<br />
können <strong>digitale</strong> <strong>Bilder</strong> in diesem Sinn als Teilmenge der <strong>analoge</strong>n <strong>Bilder</strong> verstanden werden.<br />
Sie stellen sozusagen eine besondere Form des <strong>analoge</strong>n Bildes dar. Ein interessanter Aspekt<br />
war die Nähe der <strong>digitale</strong>n <strong>Bilder</strong> zum Text. Beide funktionieren linear und man weiß, wie man<br />
sie schreiben und lesen muss. Ein wichtiger Punkt war die Erkenntnis, dass nicht nur der<br />
Code das <strong>digitale</strong> Bild ausmacht. Vielmehr ist das <strong>digitale</strong> Bild <strong>im</strong> Prozess der Interpretation zu<br />
verstehen. Denn der Code selbst ist numerisch und als solcher ein Universalcode, der seine<br />
Bedeutung erst durch den Vorgang der Interpretation erhält. Die Substanz des <strong>digitale</strong>n Bildes<br />
ist nicht einfach <strong>im</strong> Bildcode begründet. Das wesentliche Kriterium, dass uns die Bildtheorie an<br />
die Hand gab, waren die unterschiedlichen Syntakta der beiden Gattungen. Die<br />
Unterscheidung der „<strong>analoge</strong>n“ und „<strong>digitale</strong>n“ Bildmedien lässt sich über die Begriffe der<br />
102
Dichte und der Differenziertheit best<strong>im</strong>men. Die Bildtheorie lieferte also eine andere Art der<br />
Charakterisierung der beiden Gattungen.<br />
Man muss also bezüglich der zwei Bedeutungen von „analog“ und „digital“ unterscheiden:<br />
Wenn man von „analog“ <strong>im</strong> Sinne von „ähnlich“ oder auch „entsprechend“ spricht, bezieht man<br />
sich eigentlich auf den Inhalt eines Bildes oder besser auf das, was es denotiert. Man kann<br />
also feststellen, dass bei <strong>analoge</strong>n <strong>Bilder</strong>n Ähnlichkeit zwischen dem, was das Bild zeigt,<br />
was es denotiert vorhanden ist. In diesem Sinne würde dann „digital“ genau das Gegenteil<br />
davon bedeuten, eben dass keine Ähnlichkeit vorhanden ist. Digitale <strong>Bilder</strong> sind digital codiert<br />
und insofern zeigen sie keine Entsprechung mehr zu dem, was sie denotieren. So kann auch<br />
die spezifische Eigenschaft der unmittelbaren Wahrnehmung von <strong>analoge</strong>n Bildmedien<br />
verstanden werden. Der Bildinhalt kann unmittelbar wahrgenommen werden, <strong>im</strong> Sinne dass er<br />
Ähnlichkeiten zum Denotat aufweist und nicht erst interpretiert werden muss. Der <strong>digitale</strong><br />
Bildcode hingegen muss erst aufbereitet werden, da er nicht analogisch wirkt. Er kann für<br />
alles stehen und bezieht sich nicht mehr auf das, für was er eigentlich steht.<br />
Die andere Verwendung von „analog“ und „digital“ bezieht sich auf die syntaktische<br />
Beschaffenheit der Bildmedien. Hierbei werden die Begriffe <strong>im</strong> Sinne von „kontinuierlich“ und<br />
„diskret“ verwendet und beschreiben Eigenschaften, wie die syntaktische Dichte der <strong>Bilder</strong>.<br />
Wir müssen also zum einen die Bedeutung des Bildes von der Beschaffenheit des Bildes<br />
unterscheiden. Dabei kann es durchaus Vermischungen der beiden Zustände geben. Etwas<br />
verwirrend ist zum Beispiel die Tatsache, dass es durchaus <strong>digitale</strong> <strong>Bilder</strong> geben kann, die<br />
analog <strong>im</strong> Sinne von „ähnlich“ sind. Dies könnte zum Beispiel ein Porträt einer Frau sein, dass<br />
als <strong>digitale</strong>s Bild vorliegt. Hierbei handelt es sich also um eine hybride Form, die sowohl analog<br />
als auch digital ist, je nachdem wie man die Begriffe deutet. Mein Vorschlag wäre also eine<br />
Art Doppelbezeichnung einzuführen, bei der man das Begriffspaar „analog“ und „digital“ zum<br />
einen auf die formalen Eigenschaften des Bildes bezieht, also die syntaktische Beschaffenheit<br />
und zum anderen auf die inhaltlichen Eigenschaften, also die Denotation des Bildes. Somit<br />
können beide Beziehungen beschrieben werden. Dies könnte in der Art wie bei einer Musik<br />
CD geschehen, bei der die unterschiedlichen Produktionsstufen mit Kürzeln, wie AAA oder<br />
ADD bezeichnet werden. Bei den <strong>Bilder</strong>n müsste man die zwei verschiedenen Beziehungen<br />
unterscheiden, zum Beispiel würde die Kategorie „AA“ ein syntaktisch dichtes, dem Denotat<br />
ähnliches Bild bezeichnen. Mit der vorgeschlagenen zweifachen Charakterisierung könnte<br />
man die verschiedenen Bildmedien wie in Abbildung 23: Ein Vorschlag für die Einteilung der Bildmedien<br />
einteilen.<br />
103
FORM<br />
INHALT<br />
analog = kontinuierlich<br />
digital = diskret<br />
analog =<br />
ähnlich<br />
Handzeichnung(*),<br />
Malerei<br />
<strong>digitale</strong>s Foto der “Welt”,<br />
gescannte<br />
Handzeichnung (*),<br />
Schrift (Text)<br />
digital =<br />
nicht analog<br />
(ähnlich)<br />
konkrete Kunst (**),<br />
z.B. Handzeichnung,<br />
Malerei<br />
Informationsästhetik,<br />
generative Kunst,<br />
Fraktale<br />
gescannte konkrete<br />
Kunst (**)<br />
Abbildung 23: Ein Vorschlag für die Einteilung der Bildmedien<br />
Vielleicht lassen sich die beiden Begriffsbedeutungen insofern in Einklang bringen, wenn man<br />
sagt, dass eigentlich alle durch unsere Sinne wahrnehmbaren Phänomene in der Welt<br />
<strong>analoge</strong>n Charakter besitzen und die strukturell <strong>analoge</strong>n <strong>Bilder</strong>, die aber nichts aus der Welt<br />
denotieren müssen (zum Beispiel nulldenotierende <strong>Bilder</strong>), in diesem Sinne ähnlich zur Welt<br />
sind. Dies wäre als Ähnlichkeit <strong>im</strong> Hinblick auf die Struktur von Welt und Bild. Es würde sich<br />
dann, um eine strukturelle Analogie handeln. Im Gegensatz dazu stehen die <strong>digitale</strong>n <strong>Bilder</strong>, die<br />
man einbinden kann, wenn man sie als Teilmenge der <strong>analoge</strong>n <strong>Bilder</strong> auffassen will.<br />
Die digital codierten, also rechenbaren <strong>Bilder</strong> brachten in der Gestaltung neue Möglichkeiten.<br />
Es konnten neue Formen der Kunst entstehen. Dabei kann man be<strong>im</strong> Gestaltungsprozess<br />
selbst verschiedene Grade der Selbstständigkeiten <strong>im</strong> Verhältnis zwischen Künstler und<br />
Maschine verzeichnen. Denn durch den Einsatz des Computers übergibt der Künstler<br />
Verantwortung an die Maschine. Aus der Rechenbarkeit der <strong>digitale</strong>n <strong>Bilder</strong> resultieren<br />
spezifische Gestaltungsmöglichkeiten wie Bildtransformationen, nachträgliche Bildbearbeitung,<br />
die Speicherung verschiedener Zustände und der Datenkompr<strong>im</strong>ierung. Durch die<br />
schnelle Umrechnung und damit Überführung von einem Bildzustand in den nächsten war der<br />
Weg zum bewegten Bild frei. Nachdem die Tür für die An<strong>im</strong>ation geöffnet worden war, die ja<br />
<strong>im</strong> Film bereits bekannt war, entwickelten sich darüber hinaus neue Formen des bewegten<br />
Bildes. Das Morphing als flüssiger Übergang eines Objektes in ein anderes war eine<br />
Innovation, die neue Sehgewohnheiten verursachte. Aber auch die Computeran<strong>im</strong>ation<br />
ermöglichte neue Formen weit über die bekannte An<strong>im</strong>ation <strong>im</strong> Film hinaus. Es konnten neue<br />
Welten erschaffen werden, wobei es möglich wurde, historisches und neues Filmmaterial zu<br />
104
mischen. Desweiteren ist es möglich, generative <strong>Bilder</strong> herzustellen, deren Erzeugung früher<br />
zu aufwendig und arbeitsintensiv gewesen wäre. Die Visualisierung von Fraktalen wurde<br />
erst mit dem Einsatz der Digitalrechner möglich, weil der Rechenaufwand für Menschen<br />
einfach unmöglich zu bewältigen war. Daraus konnte eine Erweiterung des visuellen<br />
Formenschatzes entstehen.<br />
Eine andere Möglichkeit ist die Interaktivität der Arbeiten. Diese können nun interaktiv ihr<br />
Aussehen verändern, sind also keine vorgefertigten endgültigen Zustände, sondern erhalten<br />
ihre Form und Aussehen erst <strong>im</strong> Prozess durch die aktive Teilnahme des Rezipienten. Der<br />
Betrachter wird zum Benutzer und er ist auch, der das Kunstwerk nach seinen Vorstellungen<br />
zur Vollendung bringt, indem er das System, dass ihm zur Verfügung gestellt wird<br />
durchforscht, die Grenzen auslotet und <strong>im</strong> Rahmen dieser Grenzen Veränderungen vorn<strong>im</strong>mt.<br />
Die Grenzen sind bei zweid<strong>im</strong>ensionalen Arbeiten aber nicht erreicht. Denn der <strong>digitale</strong> Code<br />
kann auch für dreid<strong>im</strong>ensionale Objekte stehen. Technisch ist es möglich auch mit<br />
Fräßmaschinen oder Plastikgussmaschinen dreid<strong>im</strong>ensionale Arbeiten herzustellen. 106<br />
Auch die Raumerfahrung ist mittlerweile in ganz neuen D<strong>im</strong>ensionen möglich. Der Benutzer<br />
kann vollständig in die erzeugten Welten eintauchen. Die Schnittstellen sind komfortabler und<br />
einfacher geworden. Längst ist der Cyberspace Wirklichkeit geworden, der 1984 von William<br />
Gibson in seinem Buch „Newromancer“ vorweg genommen wurde.<br />
Es gibt so genannte <strong>im</strong>mersionsfähige Systeme, die den Rezipienten vollständig umgeben und<br />
damit auch sein Sichtfeld vollständig ausfüllen. Der Benutzer wird vom Medium umgeben und<br />
die Grenze zwischen ihm und der virtuellen Welt ist aufgehoben.<br />
Damit fühlt er sich vollständig in die s<strong>im</strong>ulierte Welt versetzt. Ein solches System ist der HyPi6,<br />
der als Cave am Fraunhofer Institut in Stuttgart zu begehen ist. 107 Der Benutzer befindet sich<br />
in einem Kubus aus stabilen Glasplatten, die über Projektoren aus allen Richtungen bespielt<br />
werden. So entsteht ein vollständig s<strong>im</strong>ulierter Raum, in dem sich der Benutzer bewegen<br />
kann, indem er über ein Steuergerät mit dem System kommuniziert. Am Ende der Entwicklung<br />
könnte irgendwann die perfekte S<strong>im</strong>ulation von Realität stehen, bei der auch die anderen, die<br />
nichtvisuellen Kanäle vorhanden sind. Der Benutzer könnte dann auch über die taktilen,<br />
gustorischen und olfaktorischen Sinne die S<strong>im</strong>ulation erfahren.<br />
Eine andere Art der visuellen S<strong>im</strong>ulation findet in der so genannten „Augmented Reality“<br />
Anwendung statt. Hier wird dem Rezipienten über eine Datenbrille eine Überlagerung der<br />
realen Welt mit zusätzlichen <strong>digitale</strong>n S<strong>im</strong>ulationen geboten. Es handelt sich also um eine<br />
Vermischung von realen und künstlichen <strong>Bilder</strong>n, wobei die s<strong>im</strong>ulierten <strong>Bilder</strong> mit den realen<br />
korrespondieren. Diese Systeme finden meines Wissen zur Zeit noch keine Verwendung <strong>im</strong><br />
Kunstsektor. Ein Beispiel aus der Technik könnte derart aussehen, dass man durch eine<br />
Datenbrille ein reales Kraftfahrzeug betrachten kann und während man dieses anschaut,<br />
werden zusätzliche Informationen, zum Beispiel über den inneren Aufbau des Fahrzeuges,<br />
106 Karin Sander hat zum Beispiel in einer Arbeit biometrische Daten von Menschen mit einem Ganzkörperscanning eingelesen und<br />
anschließend kleine, <strong>im</strong> Maßstab reduzierte Figuren anfertigen lassen.<br />
107 Diesen konnte ich selbst be<strong>im</strong> Besuch des Fraunhofer Instituts in Stuttgart erleben und ausprobieren, <strong>im</strong> Rahmen des<br />
Forschungsprojektes „<strong>Visuelle</strong> <strong>Kompetenz</strong> <strong>im</strong> <strong>Medienzeitalter</strong>“ an der Akademie der Bildenden Künste Stuttgart<br />
105
über einen schwachen Laser direkt auf die Netzhaut geschickt. Dort überlagern sich beide<br />
Informationsstränge und verbinden sich zu einem Gesamtbild. Der <strong>im</strong>mense Rechenaufwand,<br />
um das s<strong>im</strong>ulierte Bild <strong>im</strong>mer mit den Augenbewegungen zu synchronisieren, führt momentan<br />
noch zu erheblichen Latenzzeiten, also zu Verzögerungen.<br />
Eine andere Entwicklung, die uns in absehbarer Zeit erreichen wird, ist das „e-paper“, eine<br />
Art elektronisches Papier. 108 Das elektronische Papier besteht aus Myriaden von kleinen<br />
Kügelchen, die zwischen zwei durchsichtigen Plastikfilmen eingeschweißt sind. In jedem<br />
Kügelchen befinden sich elektrisch geladene weiße und schwarze Farbpigmente. Je nach<br />
Spannung drehen sich die Kügelchen <strong>im</strong> Plastikfilm und die Pigmente an der Oberfläche<br />
werden sichtbar. Es erinnert ein wenig an die bei Kindern beliebten Zaubertafeln, die man mit<br />
einem Stift beschreiben und danach wieder löschen kann. Wenn es der Preis zulässt,<br />
werden Künstler sich auch auf dieses neue Medium einlassen, wer weiß, wie es das<br />
geschöpfte Papier aus Fasern verändern wird.<br />
Die Gestaltungsmöglichkeiten für Künstler werden sich also in Zukunft extrem erweitern.<br />
Gleichzeitig besteht die Möglichkeit zur Verfälschung und zur Manipulation. Die<br />
Unterscheidung von Wirklichkeit und S<strong>im</strong>ulation wird <strong>im</strong>mer schwieriger, was „Cave“- oder<br />
auch „Augmented Reality“-Systeme zeigen.<br />
Die perfekte S<strong>im</strong>ulation und damit auch Fälschung ist möglich geworden, auch weil die<br />
<strong>digitale</strong>n <strong>Bilder</strong> identisch reproduziert werden können. Darüber hinaus kann man eigentlich gar<br />
nicht mehr von Fälschung sprechen, weil sich diese <strong>Bilder</strong> nicht mehr auf die Welt oder ein<br />
anderes Bild beziehen, sondern einfach sich selbst sind. Ein große Veränderung birgt das<br />
neue Verhältnis zwischen Original und Kopie. Dieses ist mittlerweile nicht mehr<br />
unterscheidbar und man muss in diesem Zusammenhang besser von Original und Replikat<br />
sprechen. Man kann weder durch die Eigenschaften der Bildmedien noch durch Numerierung<br />
feststellen, welches das Original ist. Die <strong>Bilder</strong> unterscheiden sich in keiner Hinsicht, sind<br />
absolut identisch.<br />
Wenn man sieht wie rasant sich die neuen Medien weiterentwickeln, könnte man an diesem<br />
Punkt die Frage stellen: sind die traditionellen Techniken vielleicht anachronistisch?<br />
Meiner Auffassung nach sind die auf Computer basierenden Systeme, bei allen Möglichkeiten,<br />
welche die neuen Systeme zur Verfügung stellen, <strong>im</strong>mer als eine Ergänzung zum bekannten<br />
Instrumentarium und nicht als eine Alternative zu sehen. Denn jedes Medium hat seine<br />
spezifischen Eigenschaften und genau diese fehlen den <strong>digitale</strong>n auch, wenn es zum Beispiel<br />
um die Wirkung der Materialität geht. Bei den traditionellen Bildmedien handelt sich um<br />
verankerte Methoden, die auch unserem Verhaltensmuster angemessen erscheinen. So wird<br />
zum Beispiel ein Kind damit anfangen, wenn es gestalterisch aktiv wird, mit einem Stift auf ein<br />
Papier zu zeichnen. Das ist seiner Motorik und seinem Abstraktionsgrad angemessen. Es ist<br />
also unwahrscheinlich, dass die klassischen Methode, verschwinden werden. Außerdem<br />
108 vgl. Christiane Karweil, Noch schöner als <strong>im</strong> <strong>Bilder</strong>buch, in: Die Zeit 7.02.2002, S.20<br />
106
esitzen sie gegenüber den <strong>digitale</strong>n Bildmedien einige Vorteile: zum Beispiel ist mit ihnen ein<br />
direkterer Umgang mit dem Material möglich, was vielleicht auch zu einem besseren<br />
Verständnis für die Vorgänge, die dabei eine Rolle spielen, führt. Eine Erweiterung der<br />
Gestaltungsmöglichkeiten durch <strong>digitale</strong> Medien ist aber sinnvoll, denn sie schafft neue<br />
Ausdrucksmöglichkeiten. Der Einsatz von Werkzeugen ist legit<strong>im</strong>, denn auch ein Pinsel ist ein<br />
Werkzeug und das Beispiel der Musik zeigt, dass wir ohne Musikinstrumente, als technische<br />
Instrumente, nur die Möglichkeit unseres Körpers einsetzen könnten, also den vokalen<br />
Gesang. Gerade das Beispiel der Musik beweist, dass der Einsatz technischer Geräte zu<br />
einer gehörigen Erweiterung der Ausdrucksskala führen kann. Vielleicht könnte man auch<br />
sagen, dass gerade neuere Medien, die aus wissenschaftlichen und kulturellen<br />
Errungenschaften jüngerer und jüngster Zeit hervorgegangen sind, unserem Weltbild, unseren<br />
Vorstellungen und unserer Art zu denken viel näher sind, als alte Medien.<br />
Ich möchte die <strong>digitale</strong>n Bildmedien mit ihren spezifischen Eigenschaften als eine Erweiterung<br />
der künstlerischen Möglichkeiten verstehen. Meiner Meinung nach werden sie die traditionellen<br />
Techniken nicht verdrängen. Selbst wenn dies in weiter Zukunft der Fall sein sollte, könnte<br />
man sagen, dass die traditionellen Techniken <strong>im</strong> Hegelschen Sinn in diesen aufgehoben sind.<br />
Die Erfahrungen und Erkenntnisse aus der Vergangenheit gehen <strong>im</strong>mer in die<br />
Weiterentwicklungen mit ein. Die Entwicklungen werden, wie in der Wissenschaft auch, auf<br />
jeden Fall <strong>im</strong>mer weiter gehen, was vielleicht in einer der Triebfedern des Menschen<br />
begründet liegt, der Neugier.<br />
107
Hiermit erkläre ich, dass ich die Arbeit selbständig und nur mit den hier angegebenen Quellen<br />
verfasst habe.<br />
Ludwigsburg, den 12.März 2002<br />
_________________________<br />
108
7. Literaturliste<br />
Nachschlagewerke<br />
Der große Brockhaus, A - Z, Band 4, Brockhaus Verlag, Leipzig 1929<br />
Josette Rey-Debove und Gilberte Gagnon (Hrsg.), Dictionnaire des Anglicismes, Verlag Le<br />
Robert, Paris 1988<br />
Duden - Das Herkunftswörterbuch der deutschen Sprache, hg. von der Dudenredaktion, Band<br />
7, 2. völlig neu bearbeitete und erweiterte Auflage, Dudenverlag , Mannhe<strong>im</strong> 1989<br />
Duden - Das Fremdwörterbuch, hg. von der Dudenredaktion, Band 5, 5. neu bearbeitete und<br />
erweiterte Auflage, Dudenverlag, Mannhe<strong>im</strong> 1990<br />
Joach<strong>im</strong> Ritter (Hrsg.), Historisches Wörterbuch der Philosophie, Schwabe & Co. Verlag,<br />
Basel/Stuttgart 1971<br />
Hans Jörg Sandkühler (Hrsg.), Enzyklopädie Philosophie, Felix Meiner Verlag, Hamburg 1999<br />
Gert Ueding (Hrsg.), Historisches Wörterbuch der Rhetorik, Niemeyer Verlag, Tübingen 1992<br />
Johann Heinrich Zedler (Hrsg.), Grosses vollständiges Universal Lexikon, Band 7, Akad.<br />
Druck- und Verlagsanstalt, Graz 1961 (Erstveröffentlichung 1734)<br />
Bücher<br />
Otl Aicher, analog und digital, Ernst & Sohn, Lüdenscheid 1991<br />
Gernot Böhme, Theorie des Bildes, Wilhelm Fink Verlag, München 1999<br />
Bernd Busch, Belichtete Welt - Eine Wahrnehmungsgeschichte der Fotografie, Fischer Verlag,<br />
Frankfurt am Main 1995<br />
Thomas Crow, Die Kunst der sechziger Jahre: von der Pop-art zu Yves Klein und Joseph<br />
Beuys, DuMont Verlag, Köln 1997<br />
T<strong>im</strong> Daly, Handbuch <strong>digitale</strong> Photographie, Benedikt Taschen Verlag, Köln 2000<br />
109
Christian Doelker, Ein Bild ist mehr als ein Bild: visuelle <strong>Kompetenz</strong> in der Mult<strong>im</strong>edia-<br />
Gesellschaft, Klett-Cotta, Stuttgart 1997<br />
Umberto Eco, Einführung in die Semiotik, Wilhelm Fink Verlag, München 1972<br />
Umberto Eco, Kunst und Schönheit <strong>im</strong> Mittelalter, Deutscher Taschenbuch Verlag, München<br />
1993<br />
Umberto Eco, Zeichen. Einführung in einen Begriff und seine Geschichte, Suhrkamp Verlag,<br />
Frankfurt am Main 1977<br />
Werner Faulstich (Hrsg.), Grundwissen Medien, 4. Auflage, Wilhelm Fink Verlag, München<br />
2000<br />
Vilém Flusser, Für eine Philosophie der Fotografie, 9. Auflage, European Photography,<br />
Göttingen 2000<br />
Nelson Goodman, Sprachen der Kunst - Entwurf einer Symboltheorie, 2. Auflage, Suhrkamp,<br />
Frankfurt am Main 1998<br />
Peter Hoeg, Fräulein Smillas Gespür für Schnee, Rowohlt Taschenbuch Verlag, Reinbek bei<br />
Hamburg 1997<br />
Ludwig J. Issing, Paul Kl<strong>im</strong>sa (Hrsg.), Information und Lernen mit Mult<strong>im</strong>edia, Psychlogie<br />
Verlags Union, Weinhe<strong>im</strong> 1995<br />
Gottfried Jäger, Andreas Dress (Hrsg.), Visualisierung in Mathematik, Technik und Kunst,<br />
Vieweg, Braunschweig, Wiesbaden 1999<br />
Peter Jenny, Bildkonzepte, Verlag Hermann Schmidt, Mainz 2000<br />
Konrad Königsberger, Analysis I, Springer Verlag, Berlin 2001<br />
Florian Rötzer, Digitaler Schein - Ästhetik der elektronischen Medien, Suhrkamp Verlag,<br />
Frankfurt am Main 1991<br />
Thomas Ruff: Fotografien 1979 - heute, hg. von Matthias Winzen, Ausstellungskatalog:<br />
Baden-Baden 2001/02, Verlag der Buchhandlung Walther König, Köln 2001<br />
Klaus Sachs-Hombach, Klaus Rehkämper (Hrsg.), Bildgrammatik, Scriptum Verlag, Magdeburg<br />
1999<br />
110
Klaus Sachs-Hombach, Klaus Rehkämper (Hrsg.), Bild - Bildwahrnehmung - Bildverarbeitung,<br />
Deutscher Universitätsverlag, Wiesbaden 1998<br />
Willi Oelmüller (Hrsg.), Kolloquium Kunst und Philosophie 1: Ästhetische Erfahrung, Schöningh<br />
Verlag, Paderborn 1981<br />
Eckart Zundel, Clavis Quintilianea, Wissenschaftliche Buchgesellschaft, Darmstadt 1989<br />
Zeitungen<br />
Christiane Karweil, Noch schöner als <strong>im</strong> <strong>Bilder</strong>buch, in: Die Zeit 7.02.2002, S. 20<br />
Christian Wittwer, Das <strong>digitale</strong> Bild ist keine Fotografie, in: Neue Zürcher Zeitung 8.11.1996, S.<br />
37<br />
Internet<br />
Vortrag: Andreas Brennecke, Physikalische Analogien und Ziffernrechenmaschinen – Von<br />
mechanischen Rechengeräten zu Integrieranlagen und programmgesteuerten Maschinen.<br />
Quelle: http://iug.uni-paderborn.de/iug/veroffentlichungen/2000/anbr_greifswald/text.html<br />
(11.3.2002)<br />
111