historicum.net
ZEITENBLICKE
Navigation
2 (2003), Nr. 1: Inhalt
Abstract
Ansichten der Kybernetik
Eine neue Universalwissenschaft
Das Digitale und sein Bild
Kunstgeschichte, digitalisiert und digital
Anmerkungen
Autor
Zitierweise
PDF-Fassung

Claus Pias

Das digitale Bild gibt es nicht.
Über das (Nicht-)Wissen der Bilder und die informatische Illusion

Abstract   

Informationstheorie handelt nicht davon, was gesagt wird, sondern von dem, was gesagt werden könnte. Unter informatischen Bedingungen sind nicht die sogenannten "Inhalte" entscheidend, sondern die Anordnung und Verknüpfung von Daten. Der fundamentale Unterschied zwischen digitalen und analogen Bildern ist, dass digitale Bilder Information haben. Sie beschränken sich auf die Endlichkeit einer Datenmenge, deren Informationsgehalt streng genommen das ist, was nach maximaler, verlustfreier Kompression übrigbleibt. Mit dem Akt der gewalttätigen Repräsentation, mit der Beschneidung der analogen Unendlichkeit erkauft sich das Digitale gewissermaßen die Freiheit seiner Speicherbarkeit, seiner Übertragbarkeit und seiner Prozessierbarkeit.
Der ganze Komplex der "Digitalisierung" und Vernetzung bedeutet dabei viel mehr als eine Übersetzungsleistung vorhandener "Inhalte" in ein anderes technisches "Medium". Die sogenannten "Inhalte", die Verkehrsformen und das Wissen einer Disziplin überhaupt existieren nicht unabhängig von ihren technischen Gegebenheiten, ihren Institutionen und Inszenierungsweisen. Kunstgeschichte, wie wir sie kennen, wird nicht als digitalisierte zu haben sein, sie gerät dabei zwangsläufig zu einer anderen und wir können nicht absehen, wie diese aussieht.

Ansichten der Kybernetik

<1>
Bitte lassen Sie sich von dem merkwürdigen Titel und seiner ontologischen Spekulation (auf den ich später noch zu sprechen komme) nicht irritieren, und mich statt dessen mit einigen Bildern beginnen, die unserem Thema einer "digitalen" oder "digitalisierten" Kunstgeschichte und ihren Forschungs- und Informationssystemen viel näher stehen. [1]



Vergrößern (118 KB)

<2>
Diese Illustration stammt aus dem Buch "Kybernetik, die uns angeht", das Anfang der 70er Jahre in der Reihe "Aktuelles Wissen" erschien. Und als Legende können Sie vielleicht den hoffnungsvollen Satz entziffern: "Student, Schülerin, Wissenschaftler und Manager: sie werden in Zukunft zur Lösung ihrer Probleme bei einer Datenbank anfragen können, ohne viel Zeit für Sucharbeit aufwenden zu müssen." Ohne dieses Diagramm nun im Detail in die Geschichte oder Ikonographie von Wissensordnungen stellen zu wollen, möchte ich Sie darauf hinweisen, dass hier anscheinend eine verloren geglaubte Mitte wieder aufersteht - ein Ort der Verwaltung oder Regierung, der ununterbrochen selbst mit den unterschiedlichsten und entferntesten Provinzen in Verkehr steht, oder auch ein epistemisches Gravitationszentrum, das die verschiedensten Wissenszusammenhänge in einer stabilen Umlaufbahn hält. Und während um dieses Zentrum herum Geschäftigkeit und Leben herrscht, Menschen rauchen und telefonieren, konzentriert lernen oder angeregt diskutieren, strahlt diese Mitte eine gewisse Ruhe und Gelassenheit aus, eine Souveränität, wenn man es so nennen will. Die Maschine geht ihren Gang, und die Aufsichtsperson sieht ihr dabei zu oder liest Zeitung. Eine Nachtwache des Weltwissens.

<3>
Bemerkenswerterweise sieht man keine der Zielgruppen an einem Terminal bei einer konkreten Datenbankanfrage. Sie alle benutzen noch so klassische Medien wie Telefone und Druckerzeugnisse, von denen sie ja demnächst glücklich entbunden werden sollen. Erinnern wir uns, dass nur wenige Jahre später Jean François Lyotard in seinem Bericht über "Das postmoderne Wissen" eben dieses neue Wissen nicht primär als geistesgeschichtliches, sondern erst einmal als medien- und technikgeschichtliches Datum markierte, das dann erst zum "philosophischen" Problem wird. Dieses Datum wird bezeichnet durch "die Probleme der Kommunikation und die Kybernetik, die modernen Algebren und die Informatik, die Computer und ihre Sprachen, die Probleme der Sprachübersetzung und die Suche nach Vereinbarkeiten zwischen Sprachen - Automaten, die Probleme der Speicherung in Datenbanken, die Telematik und die Perfektionierung von intelligenten Terminals." [2]

<4>
Und erinnern wir uns auch, dass Lyotard eine immer noch virulente Konsequenz zog: Unter informatischen Bedingungen sind nicht die sogenannten "Inhalte" entscheidend, sondern die Anordnung und Verknüpfung von Daten. Es geht nicht mehr um das "Verstehen", das Dilthey zur Grundlage des Geistes der Geisteswissenschaften erkoren hatte, sondern "um den Gebrauch von Terminals, das heißt einerseits neue Sprachen und andererseits eine raffinierte Handhabung jenes Sprachspiels, das die Befragung darstellt: Wohin die Frage richten, das heißt, welcher Speicher ist für das, was man wissen will, relevant?" So Lyotard 1979. Und ich möchte die Frage: "Was wollen wir wissen?" für das Ende aufheben.

<5>
Lassen Sie mich zwei weitere Abbildungen hinzufügen. Die erste stammt aus einem Buch von Felix von Cube, das einige Jahre früher (1967) erschien und illustriert eine neue Wissensordnung, in deren Zentrum die Kybernetik steht. Hier sind es nicht mehr nur einzelne Berufe, deren Alltag durch ganz konkrete kybernetische Hardware erleichtert wird, sondern es sind die unterschiedlichen Wissenschaften selbst, die ein neues Zentrum gefunden haben.



Vergrößern (17 KB)

<6>
Den gleichen Zusammenhang (lediglich anders dargestellt und mit etwas mehr Gewicht auf den ingenieurstechnischen Feldern) zeigt eine Illustration von 1973.Sie stammt aus einem sowjetischen Jugendbuch namens "Kleine Enzyklopädie von der großen Kybernetik", das 1977 als Übersetzung in der DDR erschien. Hier ist es kein Stern, sondern gewissermaßen der Sonnenaufgang einer Theorie, in deren Strahlen die alten Disziplinen des Rechts, der Medizin und der Philosophie mit den jungen der Ingenieurswissenschaften vereint erstrahlen. Dass hier, in einem sowjetischen Buch, die Theologie fehlt, ist nur allzu verständlich. Gleichwohl hat die Kybernetik nicht zuletzt theologische Wurzeln. Schon Pindar nannte die göttliche Weltregierung "Kybernetik". Das Neue Testament rechnet die "Kybernesis", die Gemeindeleitung also, zu den Gnadengaben Gottes (1.Korinther, 12/28). Der Kirchenvater Hippolyt beschreibt Christus als "Kyberneten", als Steuermann, der das Schiff der Christenheit sicher über den stürmischen Ozean steuert.



Vergrößern (258 KB)

<7>
Und zugleich ist, über Platons Politeia und Aristoteles’ Politika und seit Thomas von Aquin die gute Regierung eines guten Regenten "gubernatio" genannt hat, die kybernetische Tätigkeit als politische Tätigkeit in die Neuzeit gekommen. Und als eine solche Cybernétique findet sie sich noch bei dem französischen Elektrophysiker André-Marie Ampère in der ersten Hälfte des 19. Jahrhunderts. Bis dann Norbert Wiener dem Begriff eine andere und programmatische Wende gab, auf die ich gleich zu sprechen komme. Denn seit dieser Wende ist Kybernetik nicht mehr politische Theologie, sondern der Name der vorerst letzten Universalwissenschaft. Und als solche löst sie ihre alten Wissensmonopole nicht auf, sondern strukturiert sie um und integriert sie.

<8>
Ich zeige Ihnen ein Bild, das 1958 gleich auf der ersten Seite der zehnbändigen Technikenzyklopädie Epoche Atom und Automation prangte. Es ist ein einsames Hirn, das als Weltbaumeister im All schwebt und von dort gezielt die Industrialisierung vorantreibt. Dabei bleibt allenfalls merkwürdig, wie der Übergang eines immateriellen Denkens in die Materialität gebauter Fabrikarchitektur bewerkstelligt werden soll. Aus den Pfeilen werden plötzlich die geschickten Hände eines Demiurgen (Weltschöpfers).



Vergrößern (36 KB)

<9>
Und ich zeige Ihnen ein weiteres Bild, das das Gehirn gegen sein Äquivalent ersetzt, nämlich den Digitalcomputer. [3] Dies war allemal legitim, zumal John von Neumann, der große Mathematiker und Computerkonstrukteur des Zweiten Weltkriegs, ja just zu dieser Zeit sein populärwissenschaftliches Büchlein The Computer and the Brain veröffentlicht hatte, das der Metapher vom Elektronengehirn zum überragenden Durchbruch verhalf - auch wenn es dies vielleicht gar nicht wollte. Statt eines abstrakten Gehirns wacht nun ein Bürokrat im dunklen Anzug über die Geschicke der Welt - oder genauer: er überwacht einen Computer, der diese Geschicke kontrolliert und beginnt, den Globus mit Kabeln zu umspannen. Denn nicht Materie oder Energie bilden den Stoff, aus dem kybernetische Träume gemacht sind, sondern Information. Und damit nähere ich mich zaghaft dem Thema dieser Veranstaltung.



Vergrößern (189 KB)

<10>
Denn nicht nur die Welt, sondern auch das Wissen unterliegt den gleichen Verfahren der Kommunikation und Kontrolle. Eine Frau, wahrscheinlich eine Bibliothekarin, nimmt hier den Platz des Bürokraten ein und blickt (als flöge sie über den Saal) auf die Library of Congress in Washington hinab, die Sitzreihen rund wie Breitengrade, deren Bestände am Regler in ihrer zarten Hand liegen. Doch der besondere Clou der Kybernetik ist ja, dass es sich immer um wechselseitige Regelungen handelt, um Rückkopplungsschleifen, in denen - solange man jedenfalls die Regelungsebene nicht verlässt - ununterbrochen auch die Kontrolleure kontrolliert werden.



Vergrößern (245 KB)



<11>
Sie sehen hier ein Diagramm, das die kybernetischen Hoffnungen auf neue Formen der Lehre illustrieren soll. Vorne soll nun nicht mehr der Lehrer stehen, der ein bestimmtes Niveau und ein bestimmtes Curriculum "durchzieht", dem die Schüler zu folgen haben. Vielmehr wird, so die Vision der frühen 70er, ein Zentralrechner mit Terminals die Leitung übernehmen. Die Schüler bedienen das Gerät nach ihrem Tempo und ihren Vorlieben und das Gerät stellt sich auf ihr Tempo und ihre Vorlieben ein. Im Namen der Effizienz sollen Hierarchien durch Rückkopplungen ersetzt werden. Gilles Deleuze hat dies bekanntlich als Ablösung der "Disziplinargesellschaften" durch die "Kontrollgesellschaften" beschrieben, durch Gesellschaften, in denen man nie mit etwas fertig wird und wellenförmige Existenzen entstehen. 



Vergrößern (120 KB)

<12>
Und so lassen sich die Bilder austauschen: Statt des Bürokraten, der einen Regelkreis von Computer und Welt beobachtet, statt der Bibliothekarin, die einen Regelkreis von Computer und Bibliothek beobachtet, sehen wir nun auch noch einen Lehrer, der einen Regelkreis von Computer und Schülern beobachtet. Und man könnte diese Reihe sicherlich endlos fortführen.



Vergrößern (209 KB)


Vergrößern (42 KB)

<13>
Es ist ganz offensichtlich, dass diese Konzepte der Kybernetik überall lebendig sind, obwohl die Kybernetik wissenschaftshistorisch längst tot ist. Oder besser: Ihr erster Körper ist irgendwann in den späten 70ern gestorben, um dann als Gespenst wiederzukehren und heute überall zu spuken.
Doch davon will ich gar nicht sprechen, sondern vielmehr noch einen Schritt zurück in die Geschichte wagen. Zurück in jene Zeit, als die Kybernetik noch ein junges und schillerndes, ambitioniertes und grandioses Projekt war. Und dieses Projekt macht erklärlich, warum die Begriffe der "Information" und des "Digitalen" für dieses Jahrhundertprojekt so entscheidend waren.

Eine neue Universalwissenschaft

<14>
Mit der Kybernetik begann offiziell das, was wir heute alltäglich in Stellenausschreibungen und DFG-Anträgen fordern: die sogenannte Interdisziplinarität. Denn die legendären Gründungstreffen der Kybernetik, die Macy-Konferenzen seit 1946, waren vor allem ein Auffangbecken für jene völlig heterogenen Forschergruppen, die während des Zweiten Weltkriegs von der 3US-amerikanischen Wissenschaftspolitik unter Vannevar Bush systematisch gebildet wurden. Was während des Krieges als effizienter Einsatz vereinter Kräfte zur Bildung von wissenschaftlichen Synergieeffekten gemeint war, webte ein Netz von fächerübergreifenden Bekanntschaften und transdisziplinärem Verständniswillen, das sich nach dem Krieg (nur) von Kriegs- auf Friedenswissenschaften umstellen musste. So stammte die Gründungsmannschaft der Kybernetik aus heterogenen Bereichen wie Anthropologie und Sprachwissenschaft, Elektrotechnik und Soziologie, Neurobiologie und Psychoanalyse, Wahrnehmungslehre und Mathematik.

<15>
Diese Treffen, die Macy-Konferenzen eben, hatten aber drei gemeinsame Theoriebausteine, aus deren Verschränkung die Kybernetik hervorgehen sollte. Sie finden sich formuliert in drei Aufsätzen der 40er Jahre: 1. Warren McCullochs "A Logical Calculus of the Ideas Immanent in Nervous Activity", 2. Norbert Wieners !"Behavior, Purpose, and Teleology" und 3. Claude Shannons "Mathematical Theory of Communication". Diese lieferten die drei theoretischen Anstöße, aus denen die Konferenzen eine universale Theorie der Regulation, Steuerung und Kontrolle zu entwickeln suchten, die für Lebewesen ebenso wie für Maschinen, für ökonomische ebenso wie für psychische Prozesse, für soziologische ebenso wie für ästhetische Phänomene zu gelten beanspruchte. Die eine (Shannons) ist eine letztlich geheimdienstliche, statistische Theorie des Symbolischen. Die zweite (Wieners) ist eine nicht deterministische und trotzdem teleologische Theorie der Rückkopplung, die an Flakgeschützen entwickelt wurde. Und die letzte (McCulloch) ist eine universale Theorie digitaler Maschinen.

<16>
Lassen Sie mich wenigstens zu dieser letzten etwas mehr sagen, denn Warren McCulloch ist in Deutschland sicherlich der am wenigsten Bekannte der drei. Sein kaum zwanzig Seiten langer Text beginnt mit der größtmöglichen Geste, nämlich eine Theorie zu schreiben "so general that the creations of God and men almost exemplify it".  Schon deshalb enthält der Text keinerlei Fußnoten, sondern lediglich eine ebenso spärliche wie programmatische Literaturliste von drei Büchern, die im Textverlauf nicht einmal zitiert werden: Carnaps Logische Syntax der Sprache, Hilberts Grundzüge der Theoretischen Logik und Russell/Whiteheads Principia Mathematica.



Vergrößern (58 KB)

<17>
Was Warren McCulloch daraus macht, ist allerdings rasant. Denn in einer Mischnotation aus Carnap, Russell und eigenen Zeichen entwirft er eine Art logisches Kalkül der Immanenz. Neuronale Interaktion wird transkribiert in Aussagefunktionen und umgekehrt können dann Aussagefunktionen in neuronale Interaktion transkribiert werden. Das heißt erstens, dass es zum Verständnis eines beliebigen Stücks Nervengewebe ausreicht, es als Verkörperung Boole’scher Algebra zu begreifen. Die materielle Realität glibberiger Gehirnmasse ist allenfalls eine schlampige Instantiation der wahren Ideen einer reinen und schönen Schaltlogik oder Mathematik auf die 'Instrumente der Zeit', wie es bei Platon heißen würde. Und dieses Konzept einer verkörperten Mathematik heißt zweitens, dass es den logischen Notationen egal ist, worauf sie gespielt werden - ob auf Synapsen oder auf Röhren, ob von Schaltern oder von Tintenstrichen. Deshalb konnten McCullochs Begriffe zugleich neurophysiologische Begriffe, philosophische Begriffe und computertechnische Begriffe sein. Denn es sind Begriffe, die arbeiten und funktionieren, die zugleich theoretische wie praktische Entitäten begründen, die neuronale Strukturen modellieren und zugleich Artefakte konstruieren.

<18>
So wie John von Neumann, McCullochs Aufsatz in der Hand, Digitalcomputer konstruiert. McCulloch selbst ging aber, drittens, philosophisch weiter. Denn wenn alle neuronalen Funktionen als Verkörperung eines logischen Kalküls aufgeschrieben werden können, dann muss man wohl zugeben, dass alles, was gewusst werden kann, in einem und durch ein logisches Kalkül gewusst werden kann.  Mit anderen Worten: Zu jedem denkbaren Gedanken lässt sich ein Schaltungsnetz konstruieren, das ihn schaltet und damit denkt. Der Verstand hat damit eine irreduzible symbolische Ebene, die gleichwohl implementiert werden muss. McCulloch fordert daher nicht nur eine "Physik der Kommunikation", sondern vor allem eine experimentelle Epistemologie: "Epistemische Fragen [so schreibt er] lassen sich, wenn man in den Begriffen der Kommunikation denkt, theoretisch mit Hilfe der kleinsten Signale beantworten, die in Rechenmaschinen Aussagen in Bewegung darstellen".

<19>
Und da haben wir es nun, das "Computergehirn" - nur eben anders als die populäre Fassung es uns immer wieder vorführt. Denn bei McCulloch geht es nicht um einen Vergleich zweier verschiedener Dinge (wie Original und Nachbau), sondern in seiner Theorie fallen beide schlicht zusammen. Der Mensch ein besonderer Fall der Informationsmaschine, und die Informationsmaschine ein besonderer Fall des Menschen, und damit kollabieren diese beiden Kategorien. Wir haben also 1943 eine Theorie, die den Unterschied (so müsste ich im heutigen Kontext wohl sagen) zwischen Kunsthistorikern und Informationssystemen für die Kunstgeschichte nicht mehr braucht. 

<20>
Und damit stellten sich historisch zugleich Fragen nach der Informationsverarbeitung von Lebewesen wie auch Fragen danach, ob Computer zum Beispiel lachen können, Neurosen haben oder Phantomschmerzen empfinden. Vielmehr noch: Eine ganze Wissensordnung wird erschüttert, wenn man den Begriff des Menschen in dieser Weise zu dekonstruieren beginnt. Schließlich gipfelte das aufklärerische Projekt einstmals in der Frage "Was ist der Mensch?", und gründete genau dafür die sogenannten Humanwissenschaften. So erst gerieten die verschiedensten Phänomenzusammenhänge in den Bann eines funktionierenden, wünschenden oder bezeichnenden Menschen, so wie sie nun in den Bann der Information und Regelung geraten sollten. In diesem Sinne ist die Kybernetik eine Art "Gegenwissenschaft", die die Humanwissenschaften in Frage stellt. Sie ist eine Wissenschaft, die eine neue Ontologie aus dem radikalen Denken der Technik und nicht aus der Radikalisierung der Philosophie entwickelt. Sie ist eine Wissenschaft (und dieser Satz scheint mir wichtig), die denkt, ohne dabei sogleich zu denken, dass es der Mensch ist, der denkt.

Das Digitale und sein Bild

<21>
Lassen Sie mich noch einmal von einer anderen Stelle aus anfangen, um in einer Parallelaktion zur Frage nach der Bedeutung von digitalen Informationssystemen für unsere Wissenschaft zu kommen. Die ganze kybernetische Epistemologie funktioniert nur und ausschließlich auf der Basis des Digitalen. Deswegen gibt es um diesen Begriff auch längere Diskussionen auf den Macy-Konferenzen, auf die ich hier nicht eingehen will. Vielmehr will ich Ihnen erstens an einigen Beispielen zeigen, was "es" ist das denkt, wenn nicht 'der Mensch' denkt, und zweitens, wie das digitale Bild absolut klar und präzise Warren McCullochs merkwürdige Theorie illustriert, die überall transzendental-empirische Dubletten bildet. Wir kommen also wieder zu einem unterhaltsameren Teil.

<22>
Claude Shannon hat den staunenden Teilnehmern der siebten Kybernetik-Konferenz von 1950 folgendes kleine Experiment vorgeführt, das seine geheimdienstliche Herkunft aus der Kryptoanalyse wohl kaum verbergen kann. Es ist ein wunderbares Beispiel für Informationstheorie und für das seltsame neue Wissen, das unter digitalen Bedingungen entsteht. Da einige von Ihnen es sicherlich kennen, fasse ich mich kurz.
Nehmen wir einmal an, wir hätten die üblichen Buchstaben des Alphabets und ein zusätzliches Spatium. Das Alphabet ist ja glücklicherweise eines der ältesten digitalen Medien, denn es kennt nur diskrete Zustände: So wie wir keinen Finger zwischen Ring- und Mittelfinger haben (digitus), so gibt es auch keinen Buchstaben zwischen A und B. Angenommen ein Zufallsgenerator pickt völlig willkürlich einen Buchstaben nach dem anderen heraus. Dann ergäbe sich beispielsweise eine solche Zeile:

1. XFOML RXKHRJFFJUJ ZLPWCFWKCYJ FFJEYVKCQSGHYD

<23>
Nehmen wir nun an, dass die Zeichen nicht völlig zufällig gewählt würden, sondern entlang ihrer Häufigkeit in der englischen Sprache. Das heißt, dass zum Beispiel das "E" häufiger getroffen würde als das "Z". Wir lesen dann vielleicht:

2. OCRO HLI RGWR NMIELWIS EU LL NBNESEBYA TH EEI

<24>
Nehmen wir nun an, dass der Computer auch noch darauf achtet, dass nie mehr Konsonanten oder Vokale aufeinander folgen, als in der englischen Sprache statistisch üblich. Das sähe es möglicherweise so aus:

3. ON IE ANTSOUTINYS ARE T INCTORE ST BE S DEAMY ACHIN D ILONASIVE TUCOOWE AT TEASONARE FUSO

<25>
Der nächste Versuch berücksichtigt nun Dreiergruppen von Buchstaben, wieder gestaffelt nach ihrer Häufigkeit im Englischen:

4. IN NO IST LAT WHEY CRATICT FROURE BIRS GROCID PONDENOME OF DEMONSTURES OF THE RETAGIN IS REGIACTIONA OF CRE.

<26>
Der fünfte Versuch greift zufällig ganze Wörter aus einem englischen Wörterbuch heraus und berücksichtigt auch wieder ihre Häufigkeit, nimmt also mehr Artikel oder Präpositionen:

5. REPRESENTING AND SPEEDILY IS AN GOOD APT OR COME CAN DIFFERENT NATURAL HERE HE THE A IN CAME THE TO OF TO EXPERT GRAY COME TO FURNISHES THE LINE MESSAGE HAD BE THESE.

<27>
Und der letzte Versuch berücksichtigt die Häufigkeit, mit der im Englischen ein aktuell ausgewähltes Wort auf ein zuvor ausgewähltes Wort folgt:

6. THE HEAD AND IN FRONTAL ATTACK ON AN ENGLISH WRITER THAT THE CHARACTER OF THIS POINT IS THEREFORE ANOTHER METHOD FOR THE LETTERS THAT THE TIME OF WHO EVER TOLD THE PROBLEM FOR AN UNEXPECTED.

<28>
Damit sind wir plötzlich bei "reasonable english", wie Shannon es kommentiert. Nach einigen statistischen Operationen beginnt die Sprache selbst zu sprechen und nicht etwa ein kluger Kopf dahinter. Und damit sind wir zugleich im Herzen der Informationstheorie. Denn diese - und das ist der Grund für so viele Missverständnisse in ihrer Geschichte - hat überhaupt gar nichts mit Sinn oder Bedeutung zu tun. Informationstheorie handelt nicht davon, was gesagt wird, sondern von dem, was gesagt werden könnte. Sie ist in diesem Sinne eine Theorie virtueller Ereignisse. Ihre Parameter sind die zur Verfügung stehenden, diskreten Zeichen und die jeweilige Wahrscheinlichkeit mit der ein bestimmtes Zeichen ausgewählt wird. Unwahrscheinliche Ereignisse haben dabei eine hohe Information, erwartbare Ereignisse dagegen haben eine geringe Information. Mit anderen Worten: Die höchste Information ist in dem Buchstabengestöber des ersten Satzes enthalten, während der letzte Satz, der ja fast sinnvolles Englisch ist, so gut wie keine Information mehr hat. Und das läuft natürlich unserer alltäglichen Intuition einigermaßen entgegen. Denn was ist das für ein seltsames Wissen, wenn aus statistischen Verfahren ein verständlicher und sinnvoller Satz entsteht? Sie können das leicht auf Fragen der digital(isiert)en Kunstgeschichte übertragen: Was wäre das für ein Wissen, wenn eine Bilddatenbank mit statistischen Verfahren eine einleuchtende Auswahl von Bildern träfe?

<29>
Ich werde am Ende darauf zurückkommen, wenn es um die Informationssysteme der Kunstgeschichte geht. Festzuhalten bleibt hier nur, dass die Informationstheorie es ausschließlich mit technischen und nicht mit semantischen Aspekten zu tun hat, dass aber dauernd semantische Irritationen auftreten. Als sinnfreie Nachrichtentheorie bezieht sie sich zugleich auf Kommunikation zwischen Maschinen und Maschinen und nicht bloß auf Maschinen und Menschen. Sie zeigt aber zugleich, und das ist ihr großer medientheoretischer Coup, dass es ein technischer Grund ist, auf dem die semantischen Effekte erst sprießen. Aus diesem Grund habe ich Ihnen auch Shannons Beispiel gezeigt.

<30>
Lassen Sie mich nun von den Texten zur Frage der digitalen Bilder kommen und mit einem kleinen Experiment beginnen. Sie sehen ein rotes Quadrat.

<31>
Jetzt zeige ich Ihnen noch einmal ein rotes Quadrat, und Sie sehen unterschiedslos ein rotes Quadrat.


Was sie nicht sehen können, weil es unterhalb der physiologischen Distinktionsschwelle und erst recht unter dem Differenzierungsvermögen aktueller Beamer liegt: Dies ist kein rotes Quadrat mehr, sondern es sind zwei rote Rechtecke übereinander, die unterschiedliche Farben haben. Hier die Werte für Rot, Grün und Blau.

<32>
Wir sehen gewissermaßen "a difference that makes no difference" - aber eben nur wenn wir sehen. Wenn allerdings der Computer beobachtet, wenn wir zum Beispiel in einem Bildbearbeitungsprogramm eine Farbe gegen eine andere ersetzen wollen, oder wenn wir mit einem Suchprogramm in einer Datenbank danach suchen, dann wird diese "difference" von einem einzigen Bit eben doch plötzlich Unterschied machen.

<33>
Hier zeige ich Ihnen den Scan des Roten Quadrats von Malewitsch. Das Programm PowerPoint®, das ja inzwischen leider überall verwendet wird und dringend einer kritischen, kunsthistorischen Analyse bedürfte, nährt nun ununterbrochen die Illusion, dass digitale Bilder nichts anderes sind als Dias im Rechner. Schließlich heißt der dortige Menüpunkt ja auch "Diaschau", und man kann sogar das Klacken eines Projektors simulieren. Deshalb wechsle ich nun, zumindest virtuell, das Programm.



Vergrößern (103 KB)

<34>
In iView jedoch, einem simplen Katalogisierungstool, kann man unter DATEI mehrere Aussagen über diesen Scan des Roten Quadrats finden: Zum Beispiel legt der Medientyp "Bild" legt fest, dass es an diesen Daten nichts zu hören gibt, dass sie auch keine Programmbefehle sind und so weiter. Wir lesen die Größe von 1.1MB oder genauer: 1.187.669 Byte, das heißt 9.501.352 Ein/Aus-Differenzen (würde man diese aufschreiben, mit 3mm breiten Einsen und Nullen, reichte der Papierstreifen schon fast von hier nach Florenz).



Vergrößern (158 KB)

<35>
Das Bild hat einen Schöpfer namens GKON (Grafikkonverter), also das was man einen "absoluten Leser" nennen könnte. Es hat einen Datei-Typ namens TIFF, also ein standardisiertes Set von Regeln die bestimmen, wie die Information aufzuschreiben ist. Und es hat eine Codierung namens LZW, die bestimmt, nach welchem Algorithmus Information ermittelt wird. Zuletzt erkennen wir mindestens ein medienhistorisches Datum: den 18. Mai 2002, 16:47:08 Uhr, das das Hier und Jetzt eines technischen Verbundes von gedrucktem Bild, Lampen, Sensoren, A/D-Wandlern, Interfaces, Programmen, Benutzern und so weiter bezeichnet. Darunter folgen zuletzt mehrere Angaben unter dem uns allen merkwürdig vertrauten Stichwort MEDIEN (Höhe, Breite, Tiefe, Kompression, Farbraum). Medien sind, zumindest für die Programmhersteller, nicht die Bilder, sondern etwas, das eine Übersetzung von Informationen in Bilder organisiert und formatiert oder (etwas heideggerianischer) diese Übersetzung "verhält". Wenn man sich nun den Spaß macht und die Medien "manipuliert" (um ein arg in die Jahre geratenes Wort zu benutzen), geht etwas schief.

<36>
Hier zum Beispiel habe ich beim Anzeigen der Information 8 statt 24 Bit Farbtiefe auf einer entsprechend großen Fläche angewiesen (oben der Header). Das ist, wie Sie merken, etwas ganz anderes, als das Bild in Graustufen zu konvertieren, was ja mit einem Informationsverlust einhergeht (das Programm Photoshop fragt sogar korrekt: "Wollen Sie die Farbinformation verlieren?"). Immerhin erkennen wir noch eine gewisse Gestaltanmutung - zumindest mit dem Vorwissen, dass dieselben Daten gerade als Rotes Quadrat dargestellt wurden. 



Vergrößern (366 KB)

<37>
Etwas undurchschaubarer wird es jedoch, wenn man den "Medientyp" nicht respektiert und die Farbangaben als Zahlen oder Buchstaben liest, wie ich es hier mit einem Disk-Editor getan habe, der links die relative Adresse zeigt, in der Mitte die hexadezimalen Werte gibt und rechts eine Zeichensatzdarstellung versucht.



Vergrößern (24 KB)

<38>
Und dann könnte man (was im Konzept der Turing’schen Papiermaschinen völlig legitim wäre) die ganze Hardware austauschen und statt des Computers zum Beispiel Hanne Darboven zum Aufschreiben hinsetzen. Mit anderen Worten: Die 'Bilder' digitaler Daten sind absolut kontingent, und wir haben es mit historisch extrem wandelbaren Verfahren und mit ebenso veränderlichen materiellen Apparaturen zu tun, also kurzum mit medienhistorischen Ereignissen. Lassen Sie mich in diesem Sinne ein medienhistorisches Beispiel bringen - ein Beispiel an dem die Historizität von Daten und ihren Inszenierungsweisen deutlich wird. Stellen Sie sich einen Empfänger vor, mit dem wir kulturell und historisch gar nichts zu tun haben - so wie den 'Buschmann', der sich bei Panofsky das Leonardo’sche Abendmahl ansieht. Nehmen wir an, dieser naivste Empfänger, den wir uns vorstellen können, sei der Außerirdische.

<39>
Hans Freudenthal, der in den 60ern ein Buch mit dem Titel "Lingua Cosmica" verfasste, hielt den Außerirdischen für einen Mathematiker (was ja auch kein Wunder war - zumindest nicht für einen Mathematikprofessor in Yale). Und Frank Drake hielt ihn wenig später für einen Augenmenschen. [4] So kam wohl der folgende, seltsame Datensatz von 551 bit zustande.



Vergrößern (43 KB)

<40>
Wahrscheinlich sieht niemand, der diese Daten nicht schon kennt, was sie darstellen. Die erste Frage eines Bildinterpreten (wobei wir schon unbegründet annehmen, dass es 'Bilddaten' sind) müsste sich wahrscheinlich auf das richten, was im Programm iView unter "Medien" stand: Höhe und Breite des Zeilenumbruchs. Bei 551 Bit sind dies 19x29 Pixel als Produkt zweier Primzahlen, denn Aliens sind - so wurde angenommen - informationstheoretisch verwöhnt und gehen vom Unwahrscheinlichsten aus. So ergibt sich dann dieses schöne Bildchen.



Vergrößern (20 KB)

<41>
Wirklich gesendet wurde dann jedoch 1974 diese Version von 1679 Bit mit gemächlichen 10 Bit pro Sekunde auf 2380 MHz, so dass sie in ca. 25000 Jahren am Ziel sein wird:



Vergrößern (43 KB)

<42>
Mir scheint hier erst einmal die Vorstellung interessant, digitale Information sei geradezu naturgegeben an eine bestimmte Darstellung gekoppelt: erstens an Ziffern von 0 und 1 in Leibniz’scher Tradition und zweitens, so selbstverständlich wie nur Primzahlen als Kantenlängen, an schwarze Kästchen auf weißen Flächen. An Pixelgrafik eben, die doch historisch gerade erst erfunden war und begann die Vektorgrafik der Radarbildschirme abzulösen.

<43>
Sie alle kennen wahrscheinlich die Folgebotschaft, die 1977 mit Voyager I und Voyager II auf zwei vergoldeten Schallplatten ins All ging. Bitte verwechseln Sie diese Platten jedoch nicht mit der Pioneer-Sonde, die immer wieder fälschlich abgebildet wird und von 1971 stammt.



Vergrößern (114 KB)

<44>
Die Voyager-Platten von denen ich rede, begannen nicht mit freundlich winkenden US-amerikanischen Durchschnittsmännern und -frauen, sondern (medienwissenschaftlich viel klüger) mit der Bauanleitung für ihren Plattenspieler selbst.



Vergrößern (39 KB)

<45>
Und das Wunderbare ist, dass dieser Plattenspieler erst mal Bilder abspielt. Die erste Platte ist eine Bildplatte, aber nicht, weil ein Bild eingraviert ist, sondern weil digitale Informationen darauf enthalten sind, die als Bilder dargestellt werden sollen. Der pfiffige Außerirdische braucht nur die Platte an einem Motor zu befestigen, irgendwie zu entziffern, dass sie auf 16,6 Umdrehungen läuft, den mitgelieferten Abtastkopf aus der Zubehörbox zu nehmen und die Bilder irgendwie auszugeben. Wenn er jetzt noch das Signal für den Zeilenumbruch richtig identifiziert, bekommt er als erstes ein Testbild zu sehen, das nicht mehr sagt als dass Kommunikation kommuniziert: Er sieht einen Kreis (und bitte beachten Sie das Copyright!), der deshalb als universal durchgeht, weil Flüssigkeiten in der Schwerelosigkeit Kugeln bilden, die so rund sind wie sonst nur Kreise in Künstlerlegenden. Und das basiert natürlich auf der stillschweigenden Annahme, dass der Außerirdische schon einen Farbmonitor der um 1970 neuesten Generation hat. 



Vergrößern (50 KB)

<46>
Und kaum sechs Bilder später folgt konsequent das nächste Testbild (ein Farbspektrum der Sonne nämlich), an dem er feststellen kann, ob die folgenden Vierfarbabbildungen auch farbecht rüberkommen. Farbmanagement ist selbst in den Tiefen des Weltalls noch ein Problem.



Vergrößern (51 KB)

<47>
Und ab dieser Klärung digitaler und visueller Diskursbedingungen folgen dann so großartige Bilder wie zum Beispiel diese "Allegorie des Geschmacks": lecken, essen, trinken - man beachte die Bissspur eines NASA-Mitarbeiters im Thunfischbrötchen), zu der Forschungsleiter Carl Sagan konstatiert: "Es erzählt der Milchstraße, dass wir von Brot, Wasser und Eiscreme leben.". So verwundert es kaum mehr, dass Frauen das Feuer hüten und Männer derweil Kunst machen und dass beides zusammen 'Kultur' sein soll.



Vergrößern (203 KB)


Vergrößern (198 KB)

<48>
Und welcher Außerirdische mag nicht im spontanen Bildverstehen das Los hängengebliebener Autofahrer teilen: "Das Flottmachen festgefahrener Fahrzeuge mag eine Erfahrung sein, die wir mit fremden Forschern teilen [...] im unvorstellbaren Schlamm fremder Planeten steckengeblieben".



Vergrößern (186 KB)

<49>
Nicht zuletzt enthielt eine zweite Platte 90 Minuten "Musik der Völker", einige Audio-Samples und 60 Grüße in den verbreitetsten Sprachen der Welt - diese aber wohlgemerkt analog. Nicht auszudenken was passieren würde, wenn der Außerirdische auch die Grüße Kurt Waldheims digital statt analog ausläse.



Vergrößern (33 KB)

Wahrscheinlich würde er so seltsame Bilder von unserer Welt bekommen wie dieses hier, dass die deutsche Audio-Datei "Herzliche Grüße an alle" als Bild mit primzahliger Kantenlänge öffnet.

<50>
Das alles mag Ihnen nun alles etwas abseitig vorkommen, und genauso banal ist vielleicht die erste Konsequenz, die ich daraus zu ziehen möchte: Das digitale Bild gibt es nicht. Wenn irgend etwas die Sache verfehlt, dann ist es unangebrachter Essentialismus. Was es gibt, sind ungezählte analoge Bilder, die digital vorliegende Daten darstellen: auf Monitoren, Fernsehern oder Papier, auf Kinoleinwänden, Displays und so fort. Und diese Daten selbst können auf verschiedenste Weisen entstehen: an Scannern oder in digitalen Kameras, an Grafiktabletts oder auf Tastaturen, aus Algorithmen oder in Kalkülen. Es gibt also etwas, das Daten ergibt (informationsgebende Verfahren), und es gibt etwas, das Bilder ergibt (bildgebende Verfahren), aber diese Dinge sind vollständig entkoppelt und gänzlich heterogen. Oder anders gesagt: Wir haben es zwar dauernd mit ästhetischen (also: wahrnehmbaren) Ereignissen zu tun, aber ein Bit Information hat trotzdem noch niemand in freier Wildbahn gesehen. Man sollte sich auch nicht von der Darstellung der Datensätze als Zahlenkolonnen täuschen lassen: Alphanumerische Zeichen sind um keinen Deut näher an einer vermeintlichen "Wahrheit" der Daten als bunte Pixel.

<51>
Lassen Sie mich daraus einen zweiten Punkt machen: Vielleicht lohnt es sich hier, eine Unterscheidung wie die von "Form" und "Medium" zu benutzen, die Fritz Heider in den späten 20er Jahren begründet und die Niklas Luhmann weiterentwickelt hat. Das sogenannte "Digitale" wäre demnach ein Medium, das selbst nicht beobachtbar ist, als dessen Form aber zum Beispiel verschiedenste Bilder erscheinen. Als unbeobachtbares Medium mit beobachtbaren Formen verbraucht es sich ebenso wenig wie "die Schrift" beim Verfassen von Vorträgen oder Liebeslyrik oder "die Farbe" beim Verfertigen von Sonnenuntergängen in Öl. Und ebenso wenig, wie man im Foto 'die Fotografie', oder in Schriften 'die Schrift' sieht, sieht man beim digitalen Bild 'das Digitale'.

<52>
Aber alle Formen, die wir sehen können, sind Geschichte: Die Liebesbriefe zerfallen, die Fotos werden schwarz, und die Daten von gestern kann heute schon kein Computer mehr lesen. Denn der fundamentale Unterschied zwischen digitalen und analogen Bildern ist, dass digitale Bilder Information haben. Sie beschränken sich auf die Endlichkeit einer Datenmenge, deren Informationsgehalt strikt nach Shannon das ist, was nach maximaler, verlustfreier Kompression übrigbleibt. Und getreu ebendieser Theorie ist Information ja nicht nur eine Kategorie jenseits von Materie und Energie, sondern auch das, was völlig resistent gegen Sinn und völlig indifferent gegen seine Form ist. Information bleibt, so Shannon, unabhängig von der Materialität ihres Erscheinens erhalten. Deshalb hat zum Beispiel dieser Vortrag die gleiche Redundanz auf dem Bildschirm seines Verfassers wie auf den Druckseiten in der Hand eines Lesers oder in Ihrer aller Ohren - und zwar unabhängig davon, wer ihn vorträgt. Ich zeige Ihnen hier einen Vortrag, den ich vor einiger Zeit in Bochum gehalten habe als 8-Bit-Graustufen-TIFF.



Vergrößern (30 KB)

<53>
Die Information bleibt unverändert. Man kann diesen Umstand auch anders illustrieren: Das Medium des Digitalen bringt verschiedenste Phänomene auf den gleichen Nenner (nämlich einer Menge diskreter Zeichen aus einem endlichen Vorrat derselben) und deshalb sind seine Formen logisch (aber nicht historisch) austauschbar. Eine Sounddatei kann als Text angezeigt werden, eine Textdatei kann als Bild betrachtet werden, und eine Bilddatei kann als Sound abgespielt werden. Die Information bleibt gleich. Information hat keine Materialität und sie hat keine Bedeutung. Zugleich aber tritt sie immer nur in Formen gebunden in Erscheinung. Es gibt keine Daten ohne Datenträger. Es gibt keine Bilder ohne Bildschirme. Alle Information ist an materielle Technologien und historisch wandelbare Verfahren geknüpft.

<54>
Und hier können wir nun plötzlich in aller Schärfe den McCulloch’schen Beitrag zur Kybernetik wiedererkennen. Es gibt logische Operationen, aber es gibt sie immer nur in verschiedenen Verkörperungen: aufgeschrieben auf Papier, implementiert in Computerchips, ausgeführt in Gehirnzellen. Und deshalb existiert jede Operation zugleich im Feld realer und idealer Seinsverhältnisse, ist zugleich transzendental und empirisch, ist zugleich zeitlos und braucht ihre Zeit, hat zugleich eine formallogische und eine historische Existenz, was sich zunächst sehr platonisch anhört.

<55>
Es ist aber - zumindest als Fußnote - nicht uninteressant, dass Warren McCulloch, bevor er Neurobiologe wurde, zuerst einmal promovierter Philosoph war und seinen Kant gelesen hatte. Und dort, in der Kritik der reinen Vernunft, findet sich der Begriff der "Illusion", den ich in den Titel meines Vortrags gesetzt habe. Es gibt, so schreibt Kant, einen "logischen Schein", der bloß dadurch verschuldet wird, dass man ein "Stümper" (Kant) ist und nicht ordentlich nachgedacht hat. Andererseits gibt es aber einen "transzendentalen Schein", der auch nach seiner Aufdeckung mittels transzendentaler Kritik nicht verschwindet. Das Problem mit dieser Art Schein ist, dass eine transzendentale Logik zwar den Schein transzendenter Urteile aufdecken, aber nie beseitigen kann. Und genau diese Art des Scheins, eines Scheins der unvermeidlich und "natürlich" ist, der notwendig ist, damit die Vernunft überhaupt arbeitsfähig ist, nennt Kant "Illusion". Diese natürliche und unüberwindliche Illusion entsteht im Spannungsfeld der reinen Sinne und des reinen Verstandes, die beide leider niemals rein zu haben sind. Denn der reine Verstand würde gar keine Fehler machen können, da er bloß nach seinen eigenen Gesetzen handelt und notwendig mit sich übereinstimmen muss, und die reinen Sinne würden weder wahre noch falsche, sondern schlicht gar keine Urteile haben. Und ich glaube, dass über dem, was man mathematisch "Information" nennt, und dem, womit wir tagtäglich arbeiten, ein ähnliches Verhältnis, eine unvermeidliche, notwendige und aus systemischen Gründen niemals aufzudeckende "Illusion" waltet - eine Illusion, die die Vernunft von Informationssystemen überhaupt nur arbeitsfähig hält.

<56>
Der andere Aspekt der Theorie McCullochs und der Kybernetiker (und zugleich mein dritter Punkt) ist, dass man etwas mit ihr machen kann, also zum Beispiel nicht nur das Gehirn beschreiben, sondern auch Geräte bauen, die Gehirnen äquivalent funktionieren. Lassen Sie mich dies etwas schärfer stellen: Die analoge Welt und damit auch alle Formen sind kontinuierlich und damit unendlich. Information dagegen ist radikal endlich und schon deswegen viel besser beherrschbar. Und aufgrund dieser Endlichkeit sollte man vielleicht einmal die Frage nach dem Nicht-Wissen von Bild- und anderen Daten stellen statt immer nur nach ihrem Wissen.

<57>
Wo entwirft gerade das Nicht-Wissen ein Terrain der Arbeitsfähigkeit? Aus dieser Richtung erscheint das Digitale geradezu als methodisches oder systematisches Instrument des Vergessens. Je nachdem, wie ich meinen Scanner einstelle, vergisst er gezielt für mich. Zwischen den einzelnen Daten beginnen gewissermaßen die vergessenen Kontinente des Realen, und zwischen zwei Abtastungen herrscht ein Diskursverbot. Aber dieses Diskursverbot oder Nicht-Wissen ist zugleich die Grundlage aller Produktivität digitaler Daten, von denen ja diese Tagung handelt. Denn Daten sind, völlig anders als analoge Bilder, operabel. Mit dem Akt der gewalttätigen Repräsentation, mit der Beschneidung der analogen Unendlichkeit erkauft sich das Digitale gewissermaßen die Freiheit seiner Speicherbarkeit, seiner Übertragbarkeit und seiner Prozessierbarkeit. Und diese spezifische Operationalität ist weitgehend inkommensurabel für menschliche Sinneskapazitäten. Denken Sie nur daran, wie viel Zeit es erfordert, einen Text wie diesen hier mit seinen 38353 Zeichen Korrektur zu lesen. Aber für den Code des unkomprimierten Malewitsch-Scans bräuchten wir wahrscheinlich eine Woche, und um ihn zum Beispiel durch Nachrechnen auf Papier zu "schärfen" oder die Farben zu korrigieren mehrere Monate. Symbolverarbeitende Maschinen können, so heißt die Ratio, unendlich viel besser, effizienter, schneller oder flexibler mit Informationen umgehen als Menschen.

<58>
Der vierte bemerkenswerte Punkt ist, dass Bilder, wenn sie als Information vorliegen, plötzlich ein ganz anderes Wissen haben. Wenn man in aristotelischen Kriterien denkt, also in den für uns grundlegenden Kriterien der Logik von Identität und Negation, dann war das analoge Bild (wie zum Beispiel das Gemälde) weder affirmativ noch negativ, sondern schlichtweg widerspruchsvoll. So galt mit Aristoteles, dass Wissen sich nur im Sprachmedium ereignen kann, weil der Grundoperator des Wissens die Negation ist. Der Gegensatz zwischen Bejahung und Verneinung im sprachlichen Ausdruck ist der erste Gegensatz, dem dann alle anderen folgen: "Alles, was die Vernunft überlegt und denkt, drückt sie als Bejahung oder Verneinung aus", wie es in der Metaphysik heißt. Und genau hier ändert sich nun etwas: Wenn Bilder Information sind, unterstehen auch sie plötzlich einer Logik der Sprache, der Logik von diskreten Zeichen und ihren Verknüpfungsregeln. Im Digitalen sind alle logischen Operatoren wie UND, ODER und NICHT verfügbar, unabhängig davon, ob die Daten anschließend als Bild, Ton oder Schrift dargestellt werden. Bilder scheiden also nicht mehr als Medium des Wissens aus, sondern werden bis ins letzte Bit hinein der Logik selbst gefügig. Es ist dies jedoch ein Wissen, mit dem Betrachter, die weiterhin nur Farben und Formen und Gestalten sehen können und sehen werden, schon in kleinsten Dosen kaum mehr umgehen können, das aber kompetenten Maschinen (alias Computern) ungeahnte Möglichkeiten eröffnet.

Kunstgeschichte, digitalisiert und digital

<59>
Lassen Sie mich die vier Punkte noch einmal nennen: 1. Das digitale Bild gibt es nicht, sondern es gibt nur ein paradoxes Verhältnis Information und Präsentation; 2. Über die Unterscheidung von Form und Medium gelangen wir dafür zum Begriff der "Illusion"; 3. Digitale Daten spannen eine Ökonomie von Vergessen und Verarbeitbarkeit auf; 4. Indem digitale Datenverarbeitung die Differenz von Bild, Schrift und Zahl unterläuft, führt sie ein neues Wissen herauf. Erlauben Sie mir daher zum Schluss, als Medienwissenschaftler (und nicht als Kunsthistoriker) daraus einige Spekulationen bezüglich der Forschungs- und Informationssysteme für die Kunstgeschichte abzuleiten.

<60>
Der ganze Komplex der "Digitalisierung" und Vernetzung bedeutet viel mehr als eine Übersetzungsleistung vorhandener "Inhalte" in ein anderes technisches "Medium". Die Hoffnung, dass man die immer unvollständigen Diatheken gegen einen Breitbandzugang zu einem Bildserver in Marburg oder Redmond tauschen kann, dass man die unbezahlbar gewordenen Institutsbibliotheken durch einen CD-Wechsler mit Volltexten ersetzt, dass man die horrenden kunsthistorischen Druckkostenzuschüsse durch Digitaldruck senkt, oder dass Studenten bessere Kunsthistoriker werden, wenn das Material multimedial präsentiert wird, und dass die Grundannahmen oder "das Wesentliche" trotzdem nicht verändert werden, halte ich für äußerst trügerisch. Oder, um es mit Adorno zu sagen: "Keine Heimat überlebt ihre Aufbereitung in (Heimat) Filmen".

<61>
Trotzdem zeichnet in vielen Konzepten (wie dem elektronischen Publizieren, dem Verbund heterogener Katalogumgebungen und dem Datentausch, den neuen Sacherschließungs- und Indexierungstechniken oder den computergestützten Lehrkonzepten) eine gewisse Hoffnung ab, durch eine Art "Rationalisierung" die Grundlagen für eine gesteigerte Flexibilität oder Effizienz zu schaffen, ohne am "Wesentlichen" etwas zu ändern. Beispielhafter gesagt: Ein gescanntes Urlaubsfoto sieht immer noch wie das Urlaubsfoto aus, ich es kann leichter an die Strandschönheit heranzoomen, es nimmt viel weniger Platz weg und ich kann es an die Verwandtschaft schicken ohne zur Post gehen zu müssen. Aber das einzige, was von ihm geblieben ist, ist die Illusion eines Motivs. Alles, aber wirklich alles andere hat sich grundlegend geändert: die Technologien, die Gebrauchsweisen, die Präsentationsformen, die beteiligten Institutionen und so weiter und so fort.

<62>
Kulturtechniken wie Alphabetismus, Bibliotheken, analoge Aufzeichnungsapparate oder digitale Rechenmaschinen verweisen eben nicht einfach nur auf unterschiedlich effiziente Prozesse der Datenverarbeitung. Vielmehr ziehen sie als medienhistorische Sachverhalte ihre ganz eigenen Demarkationslinien im Verhältnis von Sagbarem und Unsagbarem, von Sichtbarem und Unsichtbarem, von Ordnung und Differenzlosigkeit und damit jene Grenze, die den historischen Stand eines Wissenszusammenhangs vom Außen seines Nicht-Wissens trennt. Eine ähnliche Wendung betrifft auch die Institutionen, die die Sammlung und Distribution des Wissens organisieren. Und sie betrifft auch die Frage nach den Darstellungs- und Inszenierungsweisen des Wissens, deren Besonderheit nur mit Rücksicht auf bestimmte mediale Bedingungen angesprochen werden kann. Die sogenannten "Inhalte", die Verkehrsformen und das Wissen einer Disziplin überhaupt existieren nicht unabhängig von ihren technischen Gegebenheiten, ihren Institutionen und Inszenierungsweisen. Vielmehr sind es genau diese Apparate, Institute und Poetiken, die all ihr Wissen überhaupt erst erzeugen. Heinrich Dilly hat vor 25 Jahren solche Fragen von Technik und Institution im historischen Rückblick verhandelt, und ich befürchte aufrichtig, dass auch wir erst in 25 Jahren wissen können, was die neuen Medien aus der Kunstgeschichte gemacht haben werden.

<63>
Wir müssen unter der Prämisse eines medialen a priori von Wissenschaft also mindestens zwei Dinge berücksichtigen. Erstens nämlich, dass die Medien ein Eigenleben haben, dass sie eine je besondere Herkunft und eine damit verbundene Rationalität haben, und dass sie diese ununterbrochen mitkommunizieren. Das heißt zum Beispiel, dass Kunstgeschichte nicht so einfach vom Dia eines Raffael auf den Scan eines Raffael umsteigen kann ohne sich Gedanken zu machen, woher die Technologien digitaler Bildverarbeitung kommen, was ihre besondere Logik ist, welche Formen des Wissens entstehen und prozessiert werden, welche Institutionen entstehen und welche Darbietungsformen praktiziert werden, wenn man sie betreibt.

<64>
Zweitens müssen wir berücksichtigen, dass es in der Logik von Dispositiven im Allgemeinen (oder dem Ausbau kunsthistorischer Informationssysteme im Besonderen) liegt, dass sie zwar strategische Ziele formulieren, dass sie zugleich aber bei deren taktischer Verwirklichung ununterbrochen unerwartete Ergebnisse zeitigen. Michel Foucault hat wiederholt vorgeführt, welche neuen, unerwarteten Formen der Devianz, der Abweichung, der Aus- und Einschließung jedes neue Dispositiv mit sich bringt. Und wir alle beobachten heute schon so interessante Dinge wie Dissertationen mit 1200 Abbildungen oder mit 11000 Fußnoten, seltsame Verschiebungen von Informiertheit und Unwissen, merkwürdige Unübersichtlichkeiten, akademische Subkulturen und andere Dinge mehr. Verstehen Sie mich bitte nicht falsch: Ich sage nicht, dass es der Untergang der Kunstgeschichte ist, wenn alle Bibliotheken als Volltext online wären, aber ich sage auch nicht, dass es ihre größte Erfüllung wäre. Ich versuche nur zu sagen, dass Kunstgeschichte wie wir sie kennen nicht als digitalisierte zu haben sein wird, sondern dass sie dabei zwangsläufig zu einer anderen gerät und dass wir nicht absehen können, wie diese aussieht.

<65>
Aber ein Gedankenspiel mag erlaubt sein. Kunstgeschichte ist, so wissen wir alle, eine schreibende Disziplin. Wir schreiben Texte über Kunstwerke oder vielmehr über Bilder - auch, wenn wir über Skulptur, Architektur oder Installationen schreiben. Denn der universitäre Alltag sieht, aller Exkursionen zum Trotz, so aus, dass die Studierenden und wir selbst mit Büchern (also Quellen und Sekundärliteratur) und mit Bildern aus Büchern und mit Dias von Bildern aus Büchern arbeiten. In diesem Verbund von Bild und Schrift entstehen kunsthistorische Texte. Diese Texte sind entlang von Bildern und in bestimmten Poetologien konzeptualisiertes Wissen. Und umgekehrt werden die Bilder selbst von der Poetologie unserer Texte konzeptualisiert. Bilder sind etwas, dem Wissen unterstellt wird. Dies funktioniert alles sehr gut, solange die Bilder in doppelter Hinsicht stabil sind. Stabil sind sie erstens, weil Fotografien (trotz ihrer Reproduzierbarkeit) eine Technologie der Einmaligkeit sind. Sie sind eine Einmaligkeit wegen der physikalisch-chemischen Prozesse, die in dem einmaligen Augenblick ausgelöst werden, in dem Licht auf den Film trifft und das latente Bild entsteht. Stabil sind sie zweitens, weil man mit einem Dia, genau wie mit einem Gemälde, nicht arbeiten kann. Oder genauer: das Dia ist analog, und deswegen kann kein Computer mit ihm rechnen, und deswegen hat es keine Information, und deswegen ist es im aristotelischen Sinne kein Medium des Wissens.

<66>
Lassen Sie mich versuchen, die Spekulation auf dem harten Boden der Physik und der Technik weiterzutreiben. Ich glaube es ist ein bezeichnender Umstand, dass sich das ganze digitale Konzept der Information bis ins Detail gegen das Konzept der Entropie schreibt. Information ist, in ihrer mathematischen Formel ausgedrückt, schlicht Entropie mit einem Minuszeichen davor. Der ganz fundamentale Unterschied liegt jedoch in der Zeitlichkeit. Entropie ist, und deswegen bildete sie die große Wolke des Pessimismus über dem späten 19. Jahrhundert, ein ganz eindeutiger Zeitpfeil und damit der Inbegriff der Geschichte. Es gibt kein Zurück in der Thermodynamik, sondern nur eine ununterbrochene und irreversible Diffusion und Entwertung aller Ordnungen.

<67>
Die Fotografie als prominentestes Medium der Kunstgeschichte ist darin geradezu das Emblem der Entropie und also der Geschichte selbst. "Dasselbe Jahrhundert", bemerkte Roland Barthes ja einmal, "hat die Geschichte und die Photographie erfunden". Und Wolfgang Hagen hat es zuletzt in aller Klarheit formuliert: "Chemische Fotografien sind [so] hoch entropisch, [dass] ein zersprungenes Glas [...] nichts dagegen [ist]. [Es ist völlig] unmöglich, einen bereits belichteten Film wieder in seinen ursprünglichen Zustand zu versetzen. Nicht also am 'Referenten' des Bildes, sondern an der Irreversibilität belichteten Materials haftet das 'Es-ist-so-gewesen' der Fotografie - ein Strukturverlust, fixiert durch die 'Entwicklung' des Bildes." Der Scan oder die digitale Fotografie sind das völlige Gegenteil, weil sie vollständig reversibel sind. "Das beginnt mit dem Halbleiterchip, der Lichtphotonen in berechenbaren Wechselwirkungsquerschnitten in Elektronenladung wandelt. Abgespeichert oder nicht, augenblicks später ist der Chip wieder 'resettet', eine geeignete Vorspannungs-Schaltung erledigt das, und bereit für den nächsten 'Schuss'." Ordnung und Unordnung lassen sich beliebig vermehren und wieder abbauen. Mir scheint dies zumindest der Frage wert, inwiefern so etwas wie die Geschichtlichkeit einer Disziplin in dem Geschichtsverhältnis ihrer Medien selbst haust.

<68>
Dies betrifft den zweiten Punkt: In Informationssystemen ist es möglich, mit allem zu rechnen. Mit Buchstaben konnte man, weil sie ja von Haus aus digital sind, schon immer rechnen (von der antiken Musik über Raimundus Lullus bis zu Claude Shannon und seinem statistischen Englisch). Mit Bildern können wir erst jetzt rechnen, und es wird auch überall getan: im Polizeiwesen, in der Medizin, der Physik, der Satellitenaufklärung usw. In der Kunstgeschichte gibt es, wie bei vielen anderen Bilddatenbanken auch, Ansätze dazu in den Verfahren des 'image based retrieval', also der bildbasierten Datenbankabfrage und an einigen anderen Stellen. Der Punkt auf den ich hinaus möchte ist, dass die Mehrheit dieser Verfahren sich an einem Begriff der "Gestalt" orientieren. Und es steckt darin ein stark anthropomorphisierender Zug, wenn man glaubt, Maschinen beibringen zu können, so zu sehen wie Menschen- oder Kunsthistorikeraugen sehen. Historisch betrachtet kommt dies sicherlich aus den unendlich oft kultivierten Vorstellungen des "Elektronengehirns" und aus einer ganzen Tradition der Technikphilosophie, die Apparate der Menschen als Ausweitungen der Organe 'des Menschen' zu begreifen.

<69>
Doch mit einem Techniktheoretiker wie Heidegger müsste man wohl sagen, dass die Technik eben 'nichts rein Menschliches' ist. Systematisch hingegen hängt dieses "Sehen" der Maschinen mit dem zusammen, was ich "Illusion" genannt habe. Erinnern Sie bitte sich an die Beispiele: es war doch viel angenehmer, das Rote Quadrat zu sehen als endlose Zahlenkolonnen, und ich hoffe, dass es viel angenehmer ist, einem Vortrag zuzuhören als ein wüstes Gestöber von Pixeln anzuschauen. Doch für den Computer sind diese menschenverträglichen Formen völlig belanglos. Für ihn sind die Pixel und der Vortrag, das Rote Quadrat schlicht dasselbe.

<70>
Wenn wir also spekulieren und dabei medienbewusst bleiben wollten, so müssten wir diesen illusorischen Charakter bedenken und die Chance der radikalen Unähnlichkeit ergreifen. Diese Wissenschaft der illusorischen, digitalen Forschungssysteme wäre dann vielleicht eine, die auf den medialen Eigensinn ihrer Technologien setzt. Sie wäre eine in höchstem Maße hypothetische und vorläufige Wissenschaft - eine Wissenschaft der unzähligen möglichen und unmöglichen Konfigurationen von Daten. Sie wäre vielleicht eine Wissenschaft, die nicht von der Geschichte der Künstler, der Motive, der Formen oder der Materialien berichtet, sondern die eine Art "experimentelle Epistemologie" berechnet. Als solche würde sie unablässig Wissen produzieren, für das sie keine poetischen oder literarischen Formen hat. Sie müsste sich unablässig fragen, was gewusst werden kann, ohne sich darauf verlassen zu können, diese Frage philosophisch zu beantworten und ohne Wahrheit zu reklamieren. Und sie könnte dies alles nur "in Laufzeit", in der Aktualität einer Datenverarbeitung betreiben, denn in dieser Art der Verarbeitung digitaler Information sind wir, wie ich betont habe, symbolverarbeitenden Maschinen hemmungslos unterlegen.

<71>
Dadurch würden wir (gewollt oder ungewollt) in jenes Bild passen, das die Kybernetik vor 30 oder 40 Jahren von der Zukunft des programmierenden Wissenschaftlers am Schaltpult gezeichnet hat. Zugleich aber würden wir uns diversen Naturwissenschaften nähern, die heute längst implizit oder explizit Computerwissenschaften sind. Denn diese arbeiten ja nicht etwa an der sogenannten Natur, sondern an Softwaremodellen, und ihre Experimente sind hauptsächlich Programmierarbeit. Heinz von Foerster, einer der Gründungsmitglieder der Kybernetik in den 40ern, wollte ihr unter diesem Gesichtspunkt eine "KybernEthik" zur Seite stellen. Denn digitale Maschinen können und werden immer nur entscheidbare oder berechenbare Probleme lösen. Und wir sehen in den verschiedensten Bereichen, nicht zuletzt der Naturwissenschaften, wie sich mit den berechenbaren und berechneten Problemen zugleich die unberechenbaren rasant vermehren. Und diese sind, Heinz von Foerster folgend, eine Angelegenheit der Freiheit. Man müsste sich also fragen, welche unberechenbaren Probleme in der Kunstgeschichte freigesetzt werden, wenn so viele berechenbare erst einmal digitalen Forschungs- und Informationssystemen übergeben werden können. Denn darin wird sich eine Freiheit zeigen müssen, die manchmal vielleicht nicht einfach zu bewältigen sein wird.

Anmerkungen

1Aus konzeptuellen Gründen wurde die performative Anlage des Textes beibehalten.
2 Jean-François Lyotard, Peter Engelmann (Hg.): Das postmoderne Wissen, Wien 1999, 20.
3Nebenbei bemerkt ist es ein politisches Bild: Es stellt den CBS-Nachrichtensprecher Walter Cronkite dar, der mit Hilfe eines Univac 1-Rechners die amerikanischen Präsidentschaftswahlen von 1953 analysiert und kommentiert. Und dabei errechnete der Univac überraschenderweise und entgegen aller Vorhersagen Eisenhower als neuen Präsidenten der USA.
4All diese Annahmen wurden 1999 in dem Spielfilm Contact inszeniert, in dem Außerirdische sich genau so verhalten, wie die Forscher es seit 30 Jahren immer schon angenommen haben.

Autor

Claus Pias
Ruhr-Universität Bochum
E-Mail: claus.pias@rub.de
Web: http://www.ruhr-uni-bochum.de/ifm/

Empfohlene Zitierweise:

Claus Pias: Das digitale Bild gibt es nicht - Über das (Nicht-)Wissen der Bilder und die informatische Illusion,
in: zeitenblicke 2 (2003), Nr. 1 [08.05.2003],
URL: <http://www.zeitenblicke.historicum.net/2003/01/pias/index.html>

Bitte setzen Sie beim Zitieren dieses Beitrags hinter der URL-Angabe in runden Klammern das Datum Ihres letzten Besuchs dieser Online-Adresse. Zum Zitieren einzelner Passagen nutzen Sie bitte die angegebene Absatznummerierung.



ZEITENBLICKE ISSN: 1619-0459
historicum.net Editorial Abonnement Archiv Richtlinien Impressum

.