historicum.net
ZEITENBLICKE
Navigation
2 (2003), Nr. 1: Inhalt
Abstract
Einleitung
Warum Metadaten?
Ergebnis unserer Projekte: PETAL
Gegenstand und Aufbereitung
Methode
Zu Grunde liegendes XML-Schema
Wie kommen wir weiter?
Anmerkungen
Autor
Zitierweise
PDF-Fassung

Martin Warnke

Daten und Metadaten - Online-Ressourcen für die Bildwissenschaft

Abstract   

Der Beitrag schlägt einen XML-Standard zur Kodierung von bildwissenschaftlichen Forschungsdaten vor (PETAL), der die Speicherung, den Austausch und die Publikation von Diskursen über Bild-Korpora gestattet, wobei insbesondere die Bezugnahme auf Bilddetails erheblich vereinfacht wird.

Einleitung

<1>
Obwohl die Kunst- und Bildwissenschaften zu den konservativsten Disziplinen gehören, was die Verwendung digitaler Formate betrifft, gibt es trotz dieser vorsichtigen Zurückhaltung der akademischen Bilderleute vor dem Medium des Digitalen Anzeichen dafür, dass die Ära der Diapositiv-Doppelprojektion ihrem Ende zugeht. Zu diesen Anzeichen gehören die überall stattfindenden Digitalisierungs-Kampagnen der Betreuer großer und bedeutender Bildarchive, dazu gehört das Buch des Herausgebers dieser Kolloquiumsakten, zu dem ja einige von uns beigetragen haben [1], und dazu gehört natürlich auch das Kolloquium, das diese Publikation dokumentiert.

<2>
Einen gewaltigen Schub, dem digitalen Bild zum Durchbruch zu verhelfen, hat bekanntlich die Erfindung des WWW [2] in einem Genfer Großforschungsinstitut für Elementarteilchenphysik, dem CERN, gegeben. Weiter entfernt von der Bildwissenschaft konnte die Disziplin nicht sein, in der Tim Berners-Lee das World Wide Web erfunden hat; und noch dazu: Was einmal von Physikern ganz anders gedacht war, ist nun das Massenmedium zur Verbreitung von Bildmaterial überhaupt geworden.
Kurz gesagt: die Bildwissenschaften waren nicht prägend an Standards zur Verbreitung von Bildmaterial beteiligt.

<3>
Der Grund für den Erfolg des Web aber waren die Standards, die gesetzt wurden: HTTP, HTML und JPEG. Sie hatten das Zeug dazu, ein Medium für so diverse Ausdrucksformen bereit zu stellen, wie wir sie im WWW finden.
Und vielleicht war die ursprüngliche Ferne zum Bild der Grund dafür, dass das Web kein Eldorado für Bildersuchende ist, die Bildersuchmaschinen funktionieren durchaus nicht zufriedenstellend [3]. Denn was bei den Allzweck-Suchmaschinen fehlt, sind Daten über die gesuchten Daten, also Metadaten, die Aufschluss darüber geben, was denn da überhaupt zu sehen ist und wonach detailliert zu suchen wäre. Die Beschriftung fehlt, denn diese Arbeit macht sich natürlich ein normaler WebSite-Betreiber nicht, und sie ist auch nicht mit den Standard-Methoden zu machen.
Man könnte sagen, das Web böte Proto-Daten zu den Bildern an, es ist durch und durch sehr graue Literatur, und die ‚precision’, wie die Information Retrieval-Leute sagen, die Treffsicherheit, ist oft sehr enttäuschend. Der Parameter ‚recall’ dagegen, also die Ausbeute, ist meist gar nicht so schlecht. So liefert beispielsweise Googles Bildersuche bei der Eingabe der Suchbegriffe ‚Michelangelo Pieta’ nicht nur viele Bilder von Michelangelo Buonarrotis Plastik, sondern eben auch anderes, und man weiß es nicht vorher.



Vergrößern
(340 KB)

<4>
Entgegengesetzt liegt der Fall bei den spezialisierten Bilddatenbanken, der ‚Bildindex’ von Foto Marburg ist so ein prominentes Beispiel. Thesaurierte Metadaten erlauben hier den gezielten Zugriff auf Bilder, die precision ist erstklassig. Auch die Standardisierung über den ‚Dublin Core’ bietet eine passable Grundlage, Metadaten über Kunstwerke mit den Bildern selbst abzuspeichern, etwa das beherbergende Museum und die Datierung.

<5>
Ich möchte nun im Folgenden eine weitere Variante von Metadaten ins Spiel bringen, nämlich Diskurse über Bilddetails, Annotationen an und mit Bildern und Texten, vergleichbar etwa Fußnoten und Randnotizen in und zu Texten, mit denen Herausgeber eine kritische Edition begleiten, oder auch ähnlich dem Lichtzeiger bei der Doppelprojektion, mit dem diskursiv zum nächsten Diapositiv übergeleitet wird.
Wir haben in langjähriger Projektarbeit in dieser Weise gearbeitet, haben mittelalterliche Weltkarten im Faksimile annotiert und transkribiert, haben Anna Oppermanns rekursive Bilderfluten verzettelt und nun scheint es an der Zeit, ein Resümee zu ziehen und nachzuschauen, was an dieser Arbeit übertragbar und an die Arbeit anderer anschlussfähig sein könnte, anschlussfähig gerade auch an die fulminanten Sammlungen der großen Bildarchive, von einer ganz anderen Seite kommend.

<6>
Anlass für unseren Zugang zu Bildern, der dem der Kataloge und Archive komplementär ist, war die Vermutung, dass Kunsthistorikerinnen und Kunsthistoriker nicht nur Bilder als monolithische Ganzheiten bearbeiten wollen. Die Differenzqualitäten sind es, die sie am einzelnen Objekt interessieren, oder, um mit Aby Warburg zu sprechen: "Der liebe Gott steckt im Detail" - und ein Bilddetail ist eben ein Bild-Ausschnitt.
Ich will im Folgenden zeigen, wie solche annotierten Bilder in detailversessener Verzettelung bei uns aussehen und wie diese Forschungsdaten kodiert sind, mithin, was wir als Ergänzung zu bestehenden Kodierungsschemata zur Diskussion stellen wollen.
Denn die Zeit ist reif für eine Debatte um die digitalen Formate der Kunstgeschichte, gerade weil die Industrie Bilder hauptsächlich als das begreift, was für den Rechteinhaber Nutzungsgebühren abwirft und dessen Betrachtung vor allem kommerzielle Aspekte hat.
Die Zusammensetzung des Kolloquiums, für das dieser Beitrag geschrieben wurde, scheint mir ideal geeignet für eine Verständigung auf dem Wege zu alltagstauglichen Mindeststandards, die eine anschlussfähige Kodierung von Metadaten in den Bildwissenschaften gestatten. Wir möchten unser Scherflein dazu beitragen.

Warum Metadaten?

<7>
Metadaten erschließen Daten. Ohne sie braucht man ein fabelhaftes Gedächtnis, um auch Jahre später noch zu wissen, wie aus archivierten Daten wieder Informationen werden sollen. Ein tragisches Beispiel eines Datenfriedhofs ohne Metadaten sind die Speicherbänder der frühen Raumfahrtprojekte der NASA, die deshalb unbrauchbar geworden sind, weil die NASA sie nicht beschriftet hat, also niemand mehr herausbekommt, was sich eigentlich auf ihnen befindet.
Das menschliche Genom ist ein weiteres Beispiel. Es ist nicht lange her, da wurde die Aufdeckung des Textes des menschlichen Genoms als ‚Entschlüsselung’ des Erbguts gefeiert. Nichts könnte irreführender sein, denn das einzige, was bekannt ist, ist der Text des Genoms, nicht jedoch seine Bedeutung. Wir können ihn jetzt nachbuchstabieren, aber nicht interpretieren und damit produktiv nutzen, es gibt nur Daten, noch keine Information. Die Gilde der Genetiker hat ihre eigentliche Aufgabe noch vor sich, sie hat zu beschreiben, was welcher Teil der Aminosäuresequenzen bedeutet, sie hat Metadaten an die Daten zu heften.
Und natürlich ist das Word Wide Web ein Beispiel: es liefert, wie schon vorgeführt, eher Protodaten als Metadaten, gut für einen ersten Einstieg, aber ungeeignet für wissenschaftlichen Zugriff.

<8>
Unsere Vision besteht nun darin, analog zu der Annotation der Bilder im Ganzen in Datenbanken mit Metadaten, Bilddetails im Netz einfach und explizit zu adressieren: dass man Bilddetails hervorheben und annotieren kann, dass Diskurse über Bilder sich an Bildausschnitten festmachen lassen, dass Bilder als strukturierte Objekte verwendbar werden. Man sollte sie zum Beispiel bei Foto Marburg oder beim Getty Institute finden können, um sie anschließend explizit mit Kommentaren an den gemeinten Stellen zu versehen und diese dann auch veröffentlichen zu können, so dass mit Suchabfragen in jeder Sprache die Metadaten zu formulieren und die Daten zu bezeichnen und über das Netz auch zu erhalten wären.
Und wenn beides, das Archiv und der Kommentar, dann noch miteinander verknüpfbar wären und wenn Studierende sich eigene Bilddiskurse auf den Webservern ihres Instituts zusammenstellen und mit dem Original mühelos verlinken könnten, dann wäre eine neue Qualität erreicht, die nicht zu Stande kommen wird, wenn die Industrie allein alle Standardisierung besorgt.

Ergebnis unserer Projekte: PETAL

<9>
An der Kunst Anna Oppermanns hat unser Forschungsprojekt die detailversessene Seite der gerade beschriebenen Vision realisiert. Nach etlichen Portierungen auf jeweils andere Software-Plattformen [4] haben wir nun einen Satz von Beschreibungselementen isoliert und in plattformübergreifender XML-Syntax ausformuliert, einen Editor und einen Browser dafür geschrieben, so dass wir nun beschreiben können, was unserer Ansicht nach die Essentials einer Annotation von Bildern mit Bild oder Text sein könnten. Wir haben das Ganze blumig PETAL - PicturE Text Annotation Language - genannt:

Gegenstand und Aufbereitung

<10>
Die Kunst der 1993 verstorbenen international anerkannten Biennale- und documenta-Teilnehmerin Anna Oppermann hat einzigartige zeitgeschichtliche Dokumente in Form raumgreifender Arrangements hervorgebracht, die sie selbst "Ensembles" nannte. Der künstlerische Nachlass Oppermanns umfasst mehr als 60 Ensembles [5], von denen zur Zeit aber nur noch drei öffentlich zugänglich sind, alle in Hamburg. Sie sehen hier Bildschirm-Darstellungen unserer Aufbereitung des Ensembles ‚Öl auf Leinwand’ [6] in der Hamburger Kunsthalle.



Vergrößern
(278 KB)

<11>
Die künstlerische Methode, mit der die Ensembles entstanden, kann man verkürzt mit dem Begriff des Wachsens durch Abbilden und Erweitern umschreiben. Ausgangspunkt für diesen erst mit dem Tod der Künstlerin endenden Wachstumsprozess war dabei häufig ein alltäglicher Gegenstand, dem sie sich durch wiederholtes Abzeichnen näherte.
Wählt man per Mausklick die im Bild mit ‚10165’ bezeichnete Leinwand, so gelangt man zu folgendem Bildschirminhalt, der das entsprechende Detail des Ensembles zeigt:



Vergrößern
(178 KB)

Gezeichnetes Abbild und Ausgangsobjekt wurden nebeneinander arrangiert und erneut zu einem Ausgangsobjekt für weitere künstlerische Auseinandersetzung. Skizzen, ebenso wie flüchtig notierte Gedanken und Einsichten dokumentieren die beim Arbeitsprozess auftretenden Assoziationen.

<12>
Die Anwahl von Objekt ‚10126’ (Flasche) liefert dann ein Foto der auch realiter in das Ensemble integrierten Flasche:



Vergrößern
(139 KB)

Durch Ausschnittvergrößerungen und Detailabbildungen hob Anna Oppermann bestimmte thematische Aspekte und Situationen hervor. Immer wieder neu arrangiert, den räumlichen Gegebenheiten des jeweiligen Ausstellungsraums angepasst, thematische Schwerpunkte hinzufügend und verschiebend, die bisherige Arbeit ständig reflektierend, wuchsen die einzelnen Ensembles auf mehrere hundert bis zum Teil weit über tausend Einzelelemente an. Dem Betrachter im Museum wuchern diese überdimensionierten Zettelkästen aus einer Ecke des Ausstellungsraums in überwältigender Fülle entgegen. Durch die Annotationsmöglichkeiten, die PETAL bietet, kann man in der digitalen Dokumentation der Ensembles deren Entstehungsprozess und die Zusammenhänge der Einzelelemente nachvollziehbar machen.

<13>
Hätte man nicht die Flasche, sondern die Abbildung oben links auf dem vorletzten Bild angewählt (und: wie mühsam ist es, solche Sachverhalte verbal auszudrücken!), wäre man bei folgendem Bild angelangt:




Vergrößern
(100 KB)

Ein Klick auf das am Boden liegende Bild liefert:



Vergrößern
(184 KB)

...und die Zeichnung unten in der Mitte des Bildes zeigt sich dann so:



Vergrößern
(221 KB)

<14>
Neben Fotos und Zeichnungen findet man bei Anna Oppermann auch Zeitungsausrisse, architektonische Elemente, plastische Objekte, Zitate aus Wissenschaft und Literatur in Form handschriftlicher Notizen oder Fotokopien sowie Fundstücke unterschiedlicher Art.
Inhaltliche Gruppierungen des Materials heißen bei uns ‚Gruppen’. Eine davon versammelt Zeitungsausrisse, die die Künstlerin im Ensemble verwendet hat:



Vergrößern
(344 KB)

Das Objekt in der zweiten Reihe von oben ganz links sieht dann folgendermaßen aus:



Vergrößern
(328 KB)

Wie Sie sehen, ist der Text transkribiert. Dies erlaubt eine Volltextsuche im Textbestand.
Auch Videos lassen sich zur Darstellung verwickelter Situationen verwenden und annotieren, was an dieser Stelle zu zeigen allerdings zu weit führen würde.

Methode

<15>
Die von der Projektgruppe [7] angewandte Methode digitaler Gegenstandssicherung verwendet zunächst die dem Werk innewohnende Struktur der selbstbezüglichen Abbildung von Bildern und Texten. Bilder sind Träger von Strukturinformationen, denn sie dienen als Auslöser bildhafter Querverweise: die Benutzer des Systems wählen mit der Maus den abgebildeten Gegenstand an, und das System präsentiert diesen als nächsten, zusammen mit den zu ihm gehörenden Informationen, wie etwa der Transkription der in oder auf ihm befindlichen Texten, einem hochaufgelösten Farbbild, Maßangaben, Inventarnummer etc. Diese Operation ist auch umkehrbar, das heißt: die Benutzer können sich anzeigen lassen, auf welchen Ensembleteilen ein ins Auge gefasstes Objekt abgebildet wurde.
Was bisher gezeigt wurde, war die Ansicht unserer Daten und Metadaten im eigens entwickelten Browser. Die Metadaten selbst sind mit einem speziellen Editor kodiert worden, der das hier zur Debatte stehende XML-Format ‚PETAL’ erzeugt hat, das dann an- und abschließend vom Browser zu durchsuchen war.

<16>
Metadaten sind Forschungsdaten, sie enthalten, was über das Kunstwerk wissenswert erscheint: Maße, Datierung, Transkription, Bildstruktur, Materialordnung, Sekundärmaterial. Hat man es mit so umfangreichen Datenbeständen zu tun wie wir, dann lohnt der Einsatz spezieller Software, aber immer wird man gängige Programme zur Datenerfassung verwenden: Dateiverwaltungsprogramme (wir verwenden FileMaker Pro, es könnte auch Microsoft Access o. ä. sein). Wie beim Bau von Web-Seiten kann man einen Editor benutzen, aber auch ‚von Hand’ arbeiten, also alle Daten direkt in Form des gewünschten Kodes, in diesem Fall PETAL, aufschreiben.

<17>
Bei der Annotation von Bilddetails hilft uns ein selbst entwickelter Editor, den wir ‚Pictlinker’ genannt haben: er erlaubt ein komfortables Verknüpfen von Bildausschnitten mit anderen Bildern oder Texten. Aber auch das geht ‚von Hand’, wie ich gleich am PETAL-Kode zeigen werde. Dieser PETAL-Kode entsteht bei uns mit einem selbst geschriebenen Programm, das alle Daten integriert und in geeigneter Form kodiert.
Liegen alle Informationen im PETAL-Format vor, bereitet sie ein anderes Programm so auf, dass unser Browser sie effizient darstellen kann. Der Browser ist in Lingo (von Macromedia) geschrieben, er läuft unter Windows und Mac OS. Wir werden unsere Aufbereitung des Oppermannschen Ensembles zusammen mit dem Browser in einer DVD-Buch-Kombination im Laufe des Jahres 2003 veröffentlichen. Eine Web-Version werden wir anschließend in Angriff nehmen, um das Material auch einer breiten Öffentlichkeit über das Internet zur Verfügung stellen zu können.

Zu Grunde liegendes XML-Schema

<18>
Was ist nun etwa ein Bildobjekt? Worauf hätte man sich einzulassen, wollte man die erhobenen Daten im PETAL-Format ablegen und von einem Browser, zum Beispiel unserem, darstellen lassen? Was im Browser so aussieht ...



Vergrößern
(339 KB)

sieht in PETAL (DTD) folgendermaßen aus:

<pictureObject id="e45_0_9">
<title xml:lang="de">"&#214;l auf Leinwand", Aufbau Nationalgalerie Berlin 1983 (Ausschnitt)</title>
<title xml:lang="en">"Oil on canvas" assemblage Nationalgalerie Berlin 1983 (detail)</title>
<material ref="mixel_photo_canvas"/>
<dimensions>
<width value="60.0" unit="cm"/>
<height value="45.0" unit="cm"/>
<length value="0.0" unit="cm"/>
</dimensions>

<view id="v10047" direction="front">
<title xml:lang="de">45_0_9 von vorne</title>
<title xml:lang="en">45_0_9 from the front</title>

<img use="thumb" src="thumbs/10047.jpg"/>
<img use="normal" src="picts/10047.jpg"/>
<img use="magnification" factor="2" src="magnifications/10047.jpg"/>

Die Ähnlichkeit zu HTML ist nicht zu übersehen. Wer schon einmal versucht hat, Bilddetails in HTML zu annotieren, wird allerdings feststellen, dass unser PETAL-Kode sich auf das Wesentliche beschränkt und die Anwender von allen HTML-spezifischen technischen Details entlastet.

<19>
Es folgen anschließend Anmerkungen zum Gesamtbild.

<annotation xml:lang="de">
<line>Inventarbezeichnung: 45_0_9</line>
<line/>
<line>Eine Gesamtansicht dieses Aufbaus zeigt die Leinwand<link ref="v10048"/>45_0_10.</line>
<line/>
<line>Eintrag auf dem Keilrahmen: Hacker Zitat, Anna Oppermann (s. <link ref="v10265"/>R&#252;ckseite).</line>
</annotation>
<annotation xml:lang="en">
<line>Inventarbezeichnung: 45_0_9</line>
<line/>
<line>A full view of this assemblage shows the canvas <link ref="v10048"/>45_0_10.</line>
<line/>
<line>Inscription on frame: Hacker quotation,
Anna Oppermann (see <link ref="v10265"/>reverse side).</line>
</annotation>

Mehrsprachigkeit ist angelegt, Referenzen auf andere Bildobjekte werden mit Hilfe von Inventarbezeichnungen gemacht, wo die Dateien auf dem Datenträger liegen ist hier nicht relevant.

<20>
Nun kommen die positionsbezogenen Annotationen zu den Bilddetails:
<area order="1">
<rect left="0.234" top="0.472" right="0.322" bottom="0.676">
<link ref="v10236"/>
</area>

<area order="2">
<rect left="0.536" top="0.612" right="0.582" bottom="0.771">
<link ref="v10334"/>
<annotation xml:lang="de"><line>Verweisziel nicht vorhanden.</line></annotation>
<annotation xml:lang="en"><line>Link target not available.</line></annotation>
</area>

<area order="3">
<rect left="0.014" top="0.802" right="0.196" bottom="0.925">
<inscription id="5348">
<line>Der Mensch ist ein denkendes Wesen, aber seine gro&#223;en Werke werden vollbracht,
wenn er nicht</line>
<line>rechnet und denkt.</line>
</inscription>
</area>

<21>
Das erste Bilddetail (<area order="1">) trägt einen Querverweis auf ein anderes Bild-Objekt. Die Bemessungen erfolgen relativ zu den Bildmaßen, das heisst: wie viele Pixel das Bild umfasst, spielt keine Rolle, verlinkt wird zu einem Referenz-Code, wieder muss man den Datei-Pfad hier nicht notieren. Die zweite Detail-Annotation (<area order="2">) muss beklagen, dass sich das abgebildete Objekt nicht in der Sammlung befindet. Statt eines Verweises auf ein anderes Objekt gibt es hier also nur einen Kommentar, die Annotation ist textuell, nicht bildhaft.

<22>
Im dritten Teil der Annotation (<area order="3">) wird ein Text transkribiert.

Weitere Ansichten des Objekts, etwa die Rückseite, können sich anschließen:

...
</view>
.
<view id="v10265" direction="back">
...
</view>
</pictureobject>

Zur weiteren Arbeit mit Daten und Metadaten gehören Lichttische zum detaillierten Bildvergleich, inhaltliche Gruppierungen von Bildern sowie Video-Objekte mit ihren Beschreibungen, etwa Untertiteln.

<23>
Man kann den PETAL-Kode von Hand erzeugen oder ihn aus Datenbanken errechnen. Wir haben eine Mischtechnik verwendet, einschließlich der Arbeit mit dem Editor "Pictlinker", mit dem Gruppen und Areas, also anklickbare Bereiche, angelegt werden können. PETAL verlangt einen minimalen Kodierungs-Aufwand: Der Kode eignet sich zur redundanzfreien Speicherung von Forschungsdaten, die auf Bilddetails fußen, er kann aber auch von einem geeigneten Browser - etwa unserem - dargestellt und automatisch in HTML umgesetzt werden.

Wie kommen wir weiter?

<24>
Ich schlage vor, dass alle Projekte, die auf der Grundlage von XML arbeiten, ihre wechselseitige technische Anschlussfähigkeit erörtern. Wir sollten Interesse daran haben, der scientific community unsere Ergebnisse zur Verfügung zu stellen, und wir sind auch bereit dazu, unsere Software den noch hinzukommenden Anforderungen anderer anzupassen.
Wir würden dadurch im Sinne eines open-source-Ansatzes alle profitieren, unsere Arbeiten wären von allen benutzbar, wir würden dem Diskurs über Bilder, der sich anschickt technisiert zu werden, Wege eröffnen, die sonst verschlossen bleiben.

Anmerkungen

1 Hubertus Kohle (Hg.): Kunstgeschichte digital, München 1997.
2 Tim Berners-Lee: Der Web-Report, München 1999. Im Original: Weaving the Web, San Francisco 1999.
3 Martin Warnke: Bilder und Worte, 2001, http://www.uni-lueneburg.de/einricht/rz/menschen/warnke/bilderundworte/
bilder_und_worte.html
(05.05.2003).
4 Eine Aufbereitung des "Umarmungs-Ensembles" in HTML kann unter http://btva.uni-lueneburg.de/  (05.05.2003) eingesehen werden.
5 Verzeichnis der Oppermannschen Ensembles unter http://www.uni-lueneburg.de/anna_oppermann/ANNA_O/eigene/main.htm (05.05.2003).
6http://www.uni-lueneburg.de/anna_oppermann/ANNA_O/Ensemb_D/45.htm (05.05.2003).
7 Carmen Wedemeyer (Gegenstandssicherung), Christian Terstegge (Programmierung und Design), derzeit Nicole Sienkamp als Assistenz und der Autor als Projektleiter.

Autor

Martin Warnke
Universität Lüneburg
E-Mail: warnke@uni-lueneburg.de
Web: http://www.uni-lueneburg.de/anna_oppermann/

Empfohlene Zitierweise:

Martin Warnke: Daten und Metadaten - Online- Ressourcen für die Bildwissenschaft,
in: zeitenblicke 2 (2003), Nr. 1 [08.05.2003],
URL: <http://www.zeitenblicke.historicum.net/2003/01/warnke/index.html>

Bitte setzen Sie beim Zitieren dieses Beitrags hinter der URL-Angabe in runden Klammern das Datum Ihres letzten Besuchs dieser Online-Adresse. Zum Zitieren einzelner Passagen nutzen Sie bitte die angegebene Absatznummerierung.



ZEITENBLICKE ISSN: 1619-0459
historicum.net Editorial Abonnement Archiv Richtlinien Impressum

.