Upload
trantuyen
View
214
Download
0
Embed Size (px)
Citation preview
Historische Semantik und Semantic Web
Workshop der Heidelberger Akademie der Wissenschaften
und der Union der deutschen Akademien der Wissenschaften
AG „Elektronisches Publizieren“
14. bis 16. September 2015, Heidelberger Akademie der Wissenschaften
14. September 2015
11.00-13.00 Uhr Sitzung der AG „Elektronisches Publizieren“
13.00-13.30 Uhr
13.30-14.00 Uhr
Verteilung der Namensschilder und Tagungsmappen
Grußworte und Einführung
Bernd Schneidmüller (Heidelberg)
Sekretär der Philosophisch-Historischen Klasse
der Heidelberger Akademie der Wissenschaften
Sebastian Zwies (Mainz) In Vertretung des Generalsekretärs der Union der deutschen Akademien der
Wissenschaften
Kurt Gärtner (Mainz)
AG „Elektronisches Publizieren“
14.00-16.00 Uhr I. Sektion „Portale und Lexika“
Nicolas Apostolopoulos, Nadja Juhnke, Margit Wunsch Gaarmann (Berlin) 1914-1918-online. International Encyclopedia of the First World War
Isabelle Mandrin / Eckhart Arnold (München)
Virtuelles Europäisches Wörterbuch des Mittellateinischen auf der Basis semantischer Technologien Felix Lange (Berlin)
Inschriften im Bezugssystem des Raumes: Kollaborative Erstellung und Auswertung
multimodaler Ressourcensammlungen mit semantischen Technologien
Bryan Jurish (Berlin)
DiaCollo: Ein interaktives Werkzeug zur Extraktion und interaktiven Exploration
diachroner Kollokationen
16.00-16.30 Uhr Kaffeepause
16.30-18.30 Uhr I. Sektion (Fortsetzung)
Thomas Burch (Trier)
Wörterbuchvernetzungen
Katrin Einicke / Sascha Heße (Halle)
Ein Wörterbuchportal für das Sanskrit? – Arbeitsinstrument für künftige
Untersuchungen zur Historischen Semantik
Stefan Baums (München)
Bedeutungswandel und Übersetzung: Die historische Semantik buddhistischer Texte
und das Dictionary of Gāndhārī
Sabine Tittel (Heidelberg)
Semantische Integration von Wissen zum Europäischen Mittelalter: Ein Projekt der
europäischen Lexikographie
19.00-20.00 Uhr Abendvortrag
Bernhard Jussen / Alexander Mehler (Frankfurt/Main)
Computergestützte Historische Semantik. Das Projekt „CompHistSem“
20.00-22.00 Uhr Empfang der Heidelberger Akademie der Wissenschaften
15. September 2015
9.00-11.00 Uhr II. Sektion „Semantic Web und Korpora“
Stefan Dumont / Torsten Schrade (Berlin / Mainz) Digitale Briefeditionen im Semantic Web
Ingo Caesar / Andreas Wagner (Frankfurt/Main) Die Schule von Salamanca: ein elektronisches Publikationsprojekt und eine
semantische Herausforderung
Tilmann Walter (Würzburg)
Semantische Suchen in den „Frühneuzeitliche Ärztekorrespondenzen des
deutschsprachigen Raums (1500-1700)“
Michael Kempe (Hannover)
Die Leibniz-Connection: Personen- und Korrespondenz-Datenbank der Leibniz-Edition
11.00-11.30 Uhr Kaffeepause
11.30-13.00 Uhr II. Sektion (Fortsetzung) Vera Hildenbrandt / Jörg Ritter (Trier / Halle)
Erschließung und Erforschung thematischer Zusammenhänge in
heterogenen Briefkorpora
Jörg Wettlaufer (Göttingen)
Herausforderungen und Perspektiven bei der Erprobung von Semantic Web-
Technologien und LOD für Akademieprojekte
Antonie Magen / Markus Hellmann (München / Göttingen)
Semantic Web am Beispiel des Projekts „Gelehrte Journale und Zeitungen der
Aufklärung“
13.00-13.45 Uhr Mittagsimbiss
13.45-16.00 Uhr
III. Sektion „Historische Semantik und Erschließungsverfahren“
Julia Burkhardt (Heidelberg)
Die Welt des 13. Jahrhunderts erzählen. Das „Bienenbuch“ des Thomas von Cantimpré
– Edition und Auswertung
Laura Carrara / Andreas Dafferner / Christine Radtki (Heidelberg)
Die Chronik des Johannes Malalas und ihre historische Erschließung
Andreas Kuczera (Mainz)
Graphdatenbanken für Historiker mit Perspektiven für die Historische Semantik
François Charette / Stefan Müller (München / Würzburg)
Semantik und Lexikographie des ptolemäischen Kosmos: Ein mehrsprachiges digitales
Glossar der mittelalterlichen und frühneuzeitlichen Astronomie und Astrologie
16.00-16.30 Uhr Kaffeepause
16.30-18.30 Uhr III. Sektion (Fortsetzung)
Jonathan Groß / Ulrike Henny / Patrick Sahle (Düsseldorf / Würzburg / Köln)
„Semantisierungspotentiale“ in Akademievorhaben am Beispiel der „Kleinen und Fragmentarischen Historiker der Spätantike“ (KFHist) James M.S. Cowey (Heidelberg) Heidelberger Gesamtverzeichnis der griechischen Papyrusurkunden Ägyptens in
Papyri.info
Stylianos Chronopoulos (Freiburg)
Pollux‘ WordNet. Zur digitalen Edition eines griechischen Thesaurus des 2.
Jahrhunderts n. Chr.
Christian Orth (Freiburg)
Semantische Probleme in den Fragmenten der griechischen Komödie
ab 19.00 Uhr
Gemütliches Beisammensein im Café Villa Heidelberg, Hauptstr. 187, 69117 Heidelberg
16. September 2015
9.00-11.00 Uhr
IV. Sektion „Semantik und Wörterbuch“
Andreas Deutsch (Heidelberg)
Zur Symbiose zwischen ‚Zettelkasten‘ und ‚Datenbank‘ bei der Artikelerstellung im
Deutschen Rechtswörterbuch
Volker Harm (Göttingen)
Das retrodigitalisierte Deutsche Wörterbuch als Quelle für die historische Semantik
Christian Prager (Düsseldorf)
Textdatenbank und Wörterbuch des klassischen Maya
Ursula Welsch (München)
Semantische Wörterbuch-Strukturen. Ein Erfahrungsbericht am Beispiel des
Bayerischen Wörterbuchs
11.00-11.30 Uhr Kaffeepause
11.30-13.30 Uhr
V. Sektion „Semantische Aspekte digitaler Editionen“
Klaus Wachtel (Münster)
Editio Critica MaiorAperta: Zu einer offenen digitalen Edition des Neuen Testaments
Fabian Kaßner / André Kischel (Rostock)
Stand der Überlegungen für eine Digitale Edition der Uwe Johnsons-Werkausgabe
Oliver Immel (Oldenburg)
Digitale Karl Jaspers-Gesamtausgabe
Jörg Riecke (Heidelberg)
Digitale Edition der Werke Grimmelshausens
ca. 13.30 Uhr
Wolfgang Raible (Freiburg) Schlusswort
Historische Semantik und Semantik Web
Workshop der Heidelberger Akademie der Wissenschaften und
der Union der deutschen Akademien der Wissenschaften
AG „Elektronisches Publizieren“
14. bis 16. September 2015
Heidelberger Akademie der Wissenschaften
Abstracts, Referate und Präsentationen
Abkürzungen:
AG EP = Arbeitsgruppe „Elektronisches Publizieren“
der Union der deutschen Akademien der Wissenschaften
AdWG = Akademie der Wissenschaften zu Göttingen
AWH = Akademie der Wissenschaften in Hamburg
AdWL-Mainz = Akademie der Wissenschaften und der Literatur, Mainz
BAdW = Bayerische Akademie der Wissenschaften
BBAW = Berlin-Brandenburgische Akademie der Wissenschaften
BMBF = Bundesministerium für Bildung und Forschung
HAdW = Heidelberger Akademie der Wissenschaften
NRWAWK = Nordrhein-Westfälische Akademie der Wissenschaften und Künste
Die Abstracts sind z.T. ersetzt durch die vollständigen Referate.
Die Folien zu den Referaten und einige vollständige Referate sind am Ende des Abstracts
durch aktivierbare Verweise zugänglich gemacht.
Einen ausführlichen Tagungsbericht von Jörg Wettlaufer s. unter:
http://www.hsozkult.de/conferencereport/id/tagungsberichte-6238
I. Sektion „Portale und Lexika“
1914-1918-online. International Encyclopedia of the First World War
Nadja Juhnke und Margit Wunsch Gaarmann (FU Berlin, Friedrich-Meinecke-Institut)
Zum 100. Jahrestag des Kriegsbeginns 1914 ist an der Freien Universität Berlin ein
englischsprachiges, von namhaften Experten geschriebenes, virtuelles Nachschlagewerk über
den Ersten Weltkrieg entstanden, das seit Oktober 2014 online verfügbar ist. Das
internationale Verbundprojekt „1914-1918-Online. International Encyclopedia of the First
World War“ wird von Prof. Dr. Oliver Janz, Historiker am Friedrich-Meinecke-Institut und
Prof. Dr. Nicolas Apostolopoulos, Leiter des Centers für Digitale Systeme (CeDiS), geleitet.
Das gemeinsam mit der Bayerischen Staatsbibliothek durchgeführte Projekt bietet einen
globalgeschichtlich orientierten Überblick über den Ersten Weltkrieg und verstärkt die
Vernetzung internationaler Forschung. Zudem werden neue Navigationsverfahren für
elektronische Handbücher und Enzyklopädien erforscht und erprobt. Die Deutsche
Forschungsgemeinschaft (DFG) hat das Vorhaben mit rund einer Million Euro gefördert.
Das Zusammenwirken von über 1.000 Projektbeteiligten aus über 50 Ländern ermöglicht eine
umfassende Darstellung der „Urkatastrophe des 20. Jahrhunderts“ in einer globalen
Perspektive. Die weltweit kostenlos zugängliche Enzyklopädie spiegelt nicht nur die sich
zunehmend internationalisierende Forschung zum Ersten Weltkrieg wider, sondern treibt sie
auch durch Identifizierung von Lücken und Desiderata entscheidend voran. Die Qualität der
Artikel wird durch ein zweistufiges Peer Review Verfahren sichergestellt. Die Artikel werden
durch Bild-, Audio-, Video- und Kartenmaterial angereichert sowie durch externe Links mit
weiterführenden Online-Ressourcen verbunden.
Gleichzeitig steht die Entwicklung und Erprobung modellhafter Navigationsverfahren für
thematische Wissensräume im Fokus des Projektes. Diese erleichtern dem Nutzer die
Orientierung in komplexen, nichtlinearen Textkonvoluten wie elektronischen Handbüchern,
Enzyklopädien und Anthologien. Ein Semantic Media Wiki bildet die Grundlage als
Redaktions- und Publikationsumgebung mit diversen Erweiterungen und Schnittstellen zur
Veredelung und Anreicherung von Metadaten. „1914-1918-online“ bindet zudem durch
bibliothekarische Sacherschließung multilingualer Schlagworte einschlägige virtuelle
Fachbibliotheken und andere Informationssysteme ein. Das Nachschlagewerk setzt so auch
Maßstäbe im Bereich des elektronischen Publizierens in den Geisteswissenschaften.
Weitere Informationen unter:
http://www.1914-1918-online.net
Virtuelles Europäisches Wörterbuch des Mittellateinischen auf Basis semantischer
Technologien
Eckhart Arnold (BAdW, Leitung IT / Digital Humanities-Referat), Dr. Isabelle Mandrin
(BAdW, Mittellateinisches Wörterbuch), N.N (Institut de recherche et d’histoire des textes
(IRHT) Paris, Novum Glossarium Mediae Latinitatis)
Aus historischen Gründen gibt es in Europa eine größere Zahl mehr oder weniger
unabhängiger Wörterbuchprojekte des Mittellateinischen. Es wäre nur sinnvoll, diese Projekte
stärker zusammenzuführen. Mit Hilfe semantischer Technologien sollte es möglich sein, die
Ergebnisse dieser Wörterbuchprojekte im Internet so zu präsentieren, dass die Nutzer auf den
Gesamtbestand aller Wörterbuchprojekte zugreifen können, ohne in mehreren, und auf Grund
der langen Erarbeitungszeiten, jeweils noch lückenhaften Einzelwörterbüchern nachschlagen
zu müssen. Das französische Novum Glossarium Mediae Latinitatis (NGML) und das
deutsche Mittellateinische Wörterbuch (MLW) möchten durch ein geplantes gemeinsames
Wörterbuchportal einen Grundstein dafür legen. In diesem Zusammenhang sollen die
Wörterbuchdaten für das Semantic Web aufbereitet werden und auch mit den Quellentexten
verknüpft werden, soweit diese digital vorliegen. Die Realisierung dieses Vorhabens hängt
wegen des großen Arbeitsaufwandes davon ab, ob es gelingt, Mittel dafür einzuwerben.
Weitere Informationen unter:
http://www.mlw.badw.de/index.html
http://www.mlw.badw.de/dictionnaire/index.html
http://www.irht.cnrs.fr/en/recherche/sections/lexicographie-latine
Inschriften im Bezugssystem des Raumes: Kollaborative Erstellung und Auswertung
multimodaler Ressourcensammlungen mit semantischen Technologien
Felix Lange (Max-Planck-Institut für Wissenschaftsgeschichte, Berlin)
Im BMBF-geförderten Projekt “Inschriften im Bezugssystem des Raumes” (IBR, 2012-15)
erarbeiteten die AdW Mainz und die Mainzer Fachhochschule gemeinsam neue Wege, 3D-
Daten zum Quelleninventar raumbezogener geisteswissenschaftlicher Forschung
hinzuzufügen. Am Beispiel von Kircheninschriften aus dem späten Mittelalter und der Frühen
Neuzeit sollte IBR konkret aufzeigen, wie die Integration von objektiv erhobenen
Messinformationen zum räumlichen Inschriftenkontext epigraphischen Arbeiten zu einer
höheren empirischen Qualität und Nachprüfbarkeit verhelfen kann.
Die im Projekt entwickelte Webanwendung ‘GenericViewer’ ermöglicht es, geometrische
Objekte vermittelt über semantische Vokabulare mit digitalen Inschrifteneditionen und
nutzergenerierten Annotationen zu verknüpfen. Am Beispiel der Inschriften der
Liebfrauenkirche in Oberwesel und ihrer in den Deutsche Inschriften Online (DIO)
gesammelten Editionen haben wir untersucht, wie auf diese Weise physische Quellen und
Forschungsliteratur in ein integriertes Repositorium gebracht werden können.
In diesem Ansatz werden semantische Technologien dazu eingesetzt, einen
Forschungsgegenstand mit standardisierten Vokabularen zu beschreiben und als Datensatz zu
veröffentlichen. Mit Hilfe der Annotationsfunktion soll darüber hinaus aber auch die
Möglichkeit eröffnet werden, den wissenschaftlichen Diskurs über Objekte in einem
semantischen Datengraph nachvollziehbar abzubilden. Die im Projekt gemachten Erfahrungen
resümierend widmet sich der Vortrag organisatorischen, methodologischen und technischen
Fragen zur Erstellung und Auswertung solcher Graphen.
Weitere Informationen unter:
http://www.inschriften.net/
http://www.spatialhumanities.de/ibr/startseite.html
Das Abstract als PDF:
http://www.akademienunion.de/fileadmin/redaktion/user_upload/Publikationen/Praesentation
_Workshop_EP/Lange_Abstract.pdf
DiaCollo: ein interaktives Werkzeug zur Extraktion und Exploration diachroner
Kollokationen
Bryan Jurish (BBAW, DWDS)
DiaCollo ist ein Softwarewerkzeug zur effizienten Extraktion, zum Vergleich und zur
interaktiven Visualisierung von Kollokationen aus einem diachronen Textkorpus. Im
Gegensatz zu konventionellen Kollokationswerkzeugen, eignet sich DiaCollo zur Extraktion
und Analyse diachroner Kollokationsdaten, d. h. Kollokatenpaaren, deren Assoziationsstärke
von dem Zeitpunkt ihres Auftretens abhängt. Durch das Aufspüren von Veränderungen in
den typischen Kollokaten eines Worts im zeitlichen Verlauf kann DiaCollo helfen, ein
klareres Bild diachroner Veränderungen im Wortgebrauch zu liefern, insbesondere solcher,
die auf Phänomene semantischer Prozesse zurückzuführen sind. Nicht nur in der
Sprachwissenschaft können DiaCollo-Profile verwendet werden, sondern auch z.B. für
Historiker oder Philosophen können Überblicke über die Diskursthemen erstellt werden, die
mit einem Abfrageterm typischerweise assoziiert sind, zusammen mit ihren Variationen über
bestimmte Zeiträume oder Korpusteilmengen. Sogenannte Vergleichs- bzw. “Diff”-Profile
dagegen heben die prominentesten Unterschiede zwischen zwei unabhängigen Zielabfragen
hervor. Neben traditionellen tabellarischen Anzeigeformaten bietet ein Webservice-Modul
diverse interaktive Online-Visualisierungen diachroner Profildaten für technisch nicht
besonders versierte Nutzer.
Weitere Informationen unter:
http://kaskade.dwds.de/dstar/dta/diacollo/
Wörterbuchvernetzungen
Thomas Burch (Kompetenzzentrum für elektronische Erschließungs- und
Publikationsverfahren in den Geisteswissenschaften, Universität Trier)
Wörterbücher und Nachschlagewerke sind auf vielfältige Art aufeinander bezogen und damit
in gewisser Weise implizit „vernetzt“. Digitale Nachschlagewerke, die zusätzlich durch
inhaltlich-strukturelles Markup in standardisierte und damit aufeinander abbildbare
Informationseinheiten gegliedert und durch Metadaten angereichert sind, bilden eine
hervorragende Ausgangsbasis, um diese impliziten Vernetzungen explizit zu machen. Im
Gegensatz zu einer bloßen, unverbundenen Bereitstellung einzelner Nachschlagewerke bieten
derartige Wörterbuchverbünde mit multidirektionalen Verlinkungen komplexe und gezielt
spezifizierbare Zugänge zum Material. Diese Verlinkungen gehen dabei über eine rein
ausdrucksseitige Verknüpfung hinaus, indem sie philologische und
informationswissenschaftliche Methoden verbinden.
Konzepte, die solche Strukturen abbilden, können am besten auf der Grundlage einer
repräsentativen Auswahl aus verschiedenen Kategorien von Nachschlagewerken bzw.
Wörterbuchtypen entwickelt werden, da diese Typen unterschiedliche und je spezifische
wissensorganisierende Strukturen aufweisen. Ausgehend von den der Trierer Arbeitsgruppe
zur Verfügung stehenden annotierten Wörterbücher werden in dem Beitrag Methoden und
Verfahren zu deren Vernetzung vorgestellt, die einerseits die vorhandenen Verweisstrukturen
ausnutzen und andererseits mit Hilfe von Berechnungsverfahren aus dem Bereich des
Informationretrieval versuchen, neue Verweise zu ermitteln.
Weitere Informationen unter:
http://woerterbuchnetz.de/
http://kompetenzzentrum.uni-trier.de/de/
Die Präsentation als PDF:
http://www.akademienunion.de/fileadmin/redaktion/user_upload/Publikationen/Praesentation
_Workshop_EP/Burch_Woerterbuchnetz_Folien.pdf
Ein Wörterbuchportal für das Sanskrit –
Arbeitsinstrument für künftige Untersuchungen zur Historischen Semantik?
Sascha Heße und Katrin Einicke (Martin-Luther-Universität Halle-Wittenberg)
Dem Altindischen kommt als einziger Großcorpus-Sprache, welche vom 2. Jt. v. Chr. bis
heute kontinuierlich im Gebrauch blieb, eine zentrale Rolle u.a. auch bei der Erforschung der
Indogermanischen Sprachfamilie zu. Durch ein relativ konservatives Festhalten an (durch
Morpheme regelhaft erweiterbaren) Wortstämmen bilden sich semantische
Veränderungprozesse des Sanskrit weniger stark an der äußeren Lautgestalt des betreffenden
Lexems als vielmehr auf Ebenen von diachron und synchron außerordentlich breitgefächerten
Konnotationen ab. Vor dem Hintergrund einer nahezu viertausendjährigen Textproduktivität,
die sich über Literaturschichten aus Sozio-, Regio- und „Religio“-lekten zieht und die von
einer reichen Textsortenvielfalt unter terminologischer Ausdifferenzierung einheimischer
Wissenssysteme geprägt ist, lässt sich von einer hochgradigen Polysemie des Sanskrit
sprechen.
Dieser Erkenntnis wird in den Großwörterbüchern des Sanskrit (Petersburger Wörterbücher,
1879-1889 und Schmidt, 1928) im Aufbau der Artikel naturgemäß noch unzureichend
begegnet. Dort wurden alle Lemmata als mehr oder weniger in sich geschlossene Einheiten
wiedergegeben, und Stellenbelege aus unterschiedlichen Epochen und Themengebieten den
jeweils gemeinsamen Bedeutungsansätzen strukturell untergeordnet. Das verstellt bzw.
erschwert den Versuch, einen diachronen Überblick über die historische Entwicklung der
altindischen Semantik zu gewinnen.
Das derzeit in Halle und Marburg erstellte Kumulative Nachtragswörterbuch des Sanskrit
erfasst die seit 1928 verstreut und sehr heterogen publizierten Ergebnisse der Sanskrit-
Lexikographie in einer einheitlichen Struktur, um sie mit modernen benutzeroptimierten
Suchfunktionen abfragbar zu machen. In diesem Rahmen wurde daher die Anlage der
Aufnahmen von vornherein so verankert, dass bei allen bearbeiteten Glossaren durch die
verpflichtende Zuordnung von kategorisierenden Metadaten zum zugrundeliegenden
Wortschatz (Textgattung, Sachkategorie, ggf. Datierung und Lokalisierung) jedes Lemma
bzw. jeder Bedeutungsansatz sofort hinsichtlich dieser grundlegenden Fragestellungen
eingeordnet werden kann. Das bringt mit sich, dass die Ergebnisse einer Lemma-Recherche
automatisch nach Textgattung bzw. Sachkategorie gefiltert oder gegliedert werden können, so
dass der Ausgabeartikel die diachrone Entwicklung bzw. synchrone Breite der
Bedeutungsansätze auch optisch übersichtlich abbildet und diese Information mittels der
genau-en Zuordnung konkreter Stellenbelege noch vertieft. Umgekehrt kann durch die
einheitliche Strukturierung der Ergebnisse einer Volltextsuche z.B. die semantische
Entwicklung von Lexemen über den gesamten erfassten Zeitraum hinweg oder innerhalb einer
ausgewählten Textgattung aufgezeigt werden.
Der Vortrag soll auch als Impuls verstanden werden, die Potentiale ins Auge zu fassen, die
sich aus informationstechnologisch gestützten, gezielten Abfrageroutinen zur Semasiologie
einer Sprache mit der wohl längsten und ausdifferenziertesten Sprachgeschichte innerhalb der
Indogermania für erweiterte linguistische Fragestellungen ergeben könnten. Bei Einbezug
auch der o.g. Großwörterbücher in die für das Nachtragswörterbuch bereits entwickelten
Recherche-Strukturen lässt sich von einer vollständigen Verzeichnung des Wortschatzes
ausgehen. Dichte und Streuung der umfassend dargestellten lemmatischen Belege würden
eine belastbare Grundlage zur Behandlung unterschiedlichster Problemkreise im Rahmen der
historischen Semantik bieten.
Heße, Sascha, M.Sc., Kumulatives Nachtragswörterbuch des Sanskrit, MLU Halle-Wittenberg, Institut
für Informatik, Von-Seckendorff-Platz 1, 06120 Halle, Tel.: +49 (0)345 55 24793,
E-Mail: [email protected]
Einicke, Katrin, Dr., Kumulatives Nachtragswörterbuch des Sanskrit, MLU Halle-Wittenberg,
Seminar für Indologie, Emil-Abderhalden-Str. 9, 06099 Halle; Tel.: +49 (0)345 55 23656,
E-Mail: [email protected]
Weitere Informationen unter:
http://www.informatik.uni-halle.de/ti/forschung/ehumanities/sanskrit/
Bedeutungswandel und Übersetzung: Die historische Semantik buddhistischer Texte
und das Dictionary of Gāndhārī
Stefan Baums (BAdW, Buddhistische Handschriften aus Gandhāra)
Die mehrsprachige Recherche über ein heterogenes Korpus von Handschriften und
überlieferten Kanones stellt eine der Grundbedingungen der Arbeit an altbuddhistischen
Texten dar. Neben einer Reihe indischer Dialekte (besonders Pali, Gāndhārī und Sanskrit) hat
man auch mit umfangreichen Übersetzungsliteraturen ins Chinesische, Tibetische und
verschiedene zentralasiatische Sprachen zu tun, die oft im indischen Original verlorenes
Material bewahren und auf Schritt und Tritt berücksichtigt werden müssen. Dabei stellt man
Textzustände nebeneinander, die einen recht verschiedenen Status haben, nämlich am einen
Ende des Spektrums Handschriften, die Einzelschöpfungen darstellen und durchaus ohne
weiteren Einfluß geblieben sein können, und am anderen Ende kanonische Sammlungen, die
eine jahrhundertelange Redaktion im Rahmen buddhistischer Institutionen durchlaufen haben.
In der langen Textgeschichte des Buddhismus läßt sich Bedeutungswandel im Sinne eines den
einzelnen unbewußten linguistischen Prozesses beobachten, aber auch Vorgänge bewußter
Bedeutungspflege und Bedeutungsschöpfung, zum Teil unter Zuhilfenahme von Instrumenten
wie Kommentaren und Glossaren. Der Gültigkeitsbereich von Bedeutungen buddhistischer
Begriffe kann hierbei ganz verschieden gelagert sein: Bei Handschriften besteht die
Möglichkeit, daß ein bestimmtes Verständnis (oder auch Mißverständnis) nicht über den
Verfasser hinaus existierte; bei kanonischen Sammlungen darf ein breiter und nachhaltiger
Konsens in der Tradition vorausgesetzt werden. Ich möchte dieses Spannungsfeld hier vom
Blickwinkel neuentdeckter Handschriften in der mittelindischen Sprache Gāndhārī
beleuchten, die oft ein Bindeglied zwischen frühbuddhistischen Texten, wie wir sie in Pali‐
Form vorliegen haben, und späteren Entwicklungen in der buddhistischen Sanskrit‐Literatur
darstellen. Als Beispiele werde ich drei Begriffe heranziehen, von denen einer (viṣavida) eine
semantische Neuschöpfung darstellte, die im buddhistischen Sanskrit Allgemeingültigkeit
erlangte; einen anderen (die Gruppe der ayadana), in denen die Gāndhārī‐Tradition ein auch
im Pali nachweisbares Alternativ‐Verständnis widerspiegelt, das sich aber letztlich nicht
durchsetzen konnte; und einen dritten (moraśikha), den der Schreiber einer Handschrift in
seinem individuellen Ringen um Verständnis schuf, der aber keine weiteren Folgen hatte. Das
von mir selbst und Andrew Glass (Seattle) seit 2002 erstellte Dictionary of Gāndhārī
beschreibt die historische Semantik dieser und anderer Begriffe. Ich werde darstellen, wie wir
versuchen, ihrem mehr oder weniger breiten Geltungsbereich dabei Rechnung zu tragen, und
werde zeigen, welche technischen Möglichkeiten wir geschaffen haben, um solche
Bedeutungsentwicklungen über Sprachgrenzen hinweg aufzuspüren.
Weitere Informationen unter:
http://www.gandhara.indologie.uni-muenchen.de/index.html
http://gandhari.org/a_dictionary.php
Semantische Integration von Wissen zum Europäischen Mittelalter: Ein Projekt der
europäischen Lexikographie
(Lexicographic Semantic Integration in the European Middle Ages – LexEMA)
– Abstract -neu–
Sabine Tittel, Dictionnaire étymologique de l’ancien français – DEAF, Heidelberger
Akademie der Wissenschaften
Inhaltsverzeichnis
1 Einleitung ........................................................................................................................................... 14
2 Historische Lexikographie ................................................................................................................. 15
2.1 Herausforderung im europäischen Kontext ................................................................................ 15
2.2 Bestandsaufnahme ...................................................................................................................... 15
3 Das Projekt LexEMA ......................................................................................................................... 15
3.1 Konzept ....................................................................................................................................... 16
3.2 Arbeitsschritte ............................................................................................................................. 16
3.3 Welche Sprachen werden eingebunden? ..................................................................................... 17
4 Finanzierung ....................................................................................................................................... 17
5 Fazit .................................................................................................................................................... 17
1 Einleitung
Europa ist
„ein über 2000 Jahre gewachsenes Gebilde mit vielfältigen historischen, kulturellen und
philosophisch-theologischen Wurzeln [... mit Jahrhunderten,] die von einer weltweit einzigartigen
wechselseitigen Befruchtung in Politik, Wissenschaft, Kunst und Kultur geprägt gewesen sind. Das
Ergebnis dieser Entwicklung manifestiert sich in dem gemeinsamen kulturellen Erbe Europas.“ (zit.
aus http://www.akademienunion.de/-
fileadmin/redaktion/user_upload/Projektbeschreibung_BMBF_Projekt.pdf).
Die Sprache ist ein Träger und Vermittler unserer Kultur. Sie wurzelt in ihrer Vergangenheit.
Sie wächst, unterliegt Einflüssen der Umwelt, bringt Neues hervor während manches abstirbt.
Sie ist der Speicher unseres kulturellen Erbes und der Spiegel unserer soziokulturellen
Interaktion.
Das europäische Mittelalter ist eine Epoche, die geprägt war von dynamischem Wachstum in
allen Lebensbereichen: Es erlebte den Höhepunkt der Romanik und den Beginn der Gotik, das
Aufblühen der volksprachlichen Literatur, bedeutende Entwicklungen innerhalb der
Wissenschaften, die sich – basierend auf griechischem Wissen und arabischen Einflüssen –
über die Volksprachen vermittelten, die Entstehung der Universitäten, usw. Das Mittelalter
war der Startpunkt für das moderne Europa.
„Was fehlt, ist ein länderübergreifendes gemeinsames europäisches Forschungsprogramm für
langfristig angelegte Grundlagenforschung in den Geistes- und Sozialwissenschaften, das die
reziproken historischen Entwicklungen sowie die Frage einer europäischen Identität, eines
gemeinsamen kulturellen Erbes und eines europäischen Bewusstseins untersucht.“ (zit. aus ebd.).
Um diese europäische Identität zu verstehen, müssen wir verstehen, wie die Europäer dachten
und wie sie die Welt sahen. Und dies gelingt über die Sprache, die sie verwendeten.
2 Historische Lexikographie
Die historische Lexikographie erfasst und analysiert diese Sprache. Große Mengen an Wissen
über unsere mittelalterliche Kultur und Gesellschaft sind das Ergebnis jahrzehntelanger
lexikographischer Arbeit auf höchstem wissenschaftlichen Niveau.
Die vergangenen Jahre brachten die Digitalisierung vieler Wörterbücher und damit die
Erreichbarkeit des Wissens über ein zweites Medium – zusätzlich zum gedruckten Buch.
2.1 Herausforderung im europäischen Kontext
Allerdings ist das erarbeitete Wissen – im europäischen Kontext gesehen – fragmentiert
gespeichert und in seiner Gesamtheit schwer zugänglich: Es lagert in den Bänden großer
Wörterbücher, die schwer unter einen Nenner zu bekommen sind. Die Wörterbücher
untersuchen unterschiedliche Sprachen, verwenden unterschiedliche Metasprachen und
besitzen unterschiedliche Artikelstrukturen.
2.2 Bestandsaufnahme
Es gibt bereits Nutzeranwendungen, die verschiedene Projekte der Lexikographie unter einem
Dach vereinen wollen. Z.B. gibt es Plattformen, die das Französische durch mehrere
französische Wörterbücher hindurch untersuchen. Beispiele sind die Plattform des Centre
National de Ressources Textuelles et Lexicales – CNRTL1 und Lexilogos
2 für das
Französische, The free dictionary by Farlex3 für das Englische und das Wörterbuchnetz des
Trier Center for Digital Humanities4 für die verschiedenen Sprachstufen des Deutschen.
Die bestehenden Nutzeranwendungen sind jedoch problematisch, weil sie entweder a)
modernsprachlich oder b) einzelsprachlich sind, die mittelalterliche Welt war jedoch nicht
monolingual. Und, und das ist das wichtigste Merkmal, weil sie c) wortbasiert sind: Sie sind
auf das Suchen von Wörtern ausgerichtet. Dies erschwert den Zugang zu unserem Wissen
über unsere Kultur und ihre Geschichte.
3 Das Projekt LexEMA
Das Projekt Lexicographic Semantic Integration in the European Middle Ages – LexEMA hat
sich zur Aufgabe gesetzt, aus Europas großen historischen Wörterbüchern ein digitales
Netzwerk zu formen, um einen leichten Zugang zu den reichen Inhalten der einzelnen Werke
zu schaffen. Dieses Netzwerk wird interdisziplinär sein, intersprachlich und international. Die
1 S. <http://www.cnrtl.fr/definition/>.
2 S. <http://www.lexilogos.com>.
3 S. <http://www.thefreedictionary.com>.
4 S. <http://woerterbuchnetz.de>.
Hauptaufgabe ist dabei nicht eine informatische – für ein digitales Netzwerk verschiedener
Werke muss das Rad nicht neu erschaffen werden –, sondern eine inhaltliche.
3.1 Konzept
LexEMA will selbstverständlich, denn das ist eine Standardanforderung, einen wortbasierten
Zugang zum Inhalt der beteiligten Wörterbücher anbieten, mit Suffix- und Präfixsuche, Suche
nach Etyma, usw. (Zudem sollen Suchfunktionen zur Verfügung stehen, die außersprachliche
Informationen aufgreifen: ein textbasierter Zugang, ein autorbasierter Zugang, usw.)
Der in bereits bestehenden Wörterbuchportalen genutzte Verknüpfungspunkt der WÖRTER ist
aber nicht in der Lage, die Inhalte der historischen Wörterbücher über verschiedene Sprachen
oder Sprachstufen hinweg zu verknüpfen. Das Konzept LexEMAs will diesen Missstand
beheben, indem es die Wörterbücher über das verbindet, was ihnen allen gemein ist: alle
Wörterbücher historischer Sprachstufen geben die B e d e u t u n g e n der behandelten
Wörter an.
Die Bedeutungen sind in Definitionen gefasst, und in diesen manifestieren sich nun die
Unterschiede zwischen den einzelnen Wörterbüchern erneut: Manche Wörterbücher
definieren aristotelisch (Genus proximum et differentia specifica), manche geben
Translationsangebote, „Ein-Wort-Definitionen“. Und auch hier sind die Metasprachen
(annähernd) so zahlreich wie die Wörterbücher selbst.
LexEMA will dieses Problem lösen, indem es einen Zugang zum Wissen schafft, der von den
K o n z e p t e n der Sprache ausgeht. Basierend auf dem frühen Saussure‘schen binären
Zeichenbegriff (signifié = Bezeichnetes – signifiant = Bezeichnendes) will LexEMA nicht
primär den signifiant, das Bezeichnende, als Zugang auswerten (also etwa Hund – chien –
cane – canis – dog), sondern den signifié, das Bezeichnete (also das sprachlichen Konzept
‚Hund’).
Auf diesem Weg erschließt das Projekt unser in den Wörterbüchern gespeichertes Wissen
zwar auch semasiologisch, aber vor allem – und das ist das wegweisende Element –
onomasiologisch. So ist es in der Lage, über verschiedene Sprachen und Sprachstufen hinweg
Inhalte nutzbar zu machen.
3.2 Arbeitsschritte
Die folgenden Arbeitsschritte sind wesentlich: Es muss zunächst eine Ontologie/ein
Thesaurus erarbeitet, bzw. bestehende Ontologien/Thesauri geprüft und gegebenenfalls
adaptiert werden. Diese Ontologie/dieser Thesaurus muss die mittelalterliche Lebenswelt
abbilden. In Vorarbeiten wurden bereits der sog. Hallig-Wartburg5, der Art & Architexture
Thesaurus Online des Getty Research Institute6 und der Historical Thesaurus des Oxford
English Dictionary – HTOED7 geprüft, wobei letzterer spielversprechend ist.
5 R. Hallig - W. von Wartburg, Begriffssystem als Grundlage für die Lexikographie / Système raisonné des
concepts pour servir de base à la lexicographie, 2e éd., Berlin (Akademie-Verlag) 1963.
6 S. < http://www.getty.edu/research/tools/vocabularies/aat/>.
7 S. < http://www.oed.com/thesaurus>.
Die Entwicklung von intuitiven Benutzeroberflächen ist die Aufgabe der Informatik. Sie muss
die technische Infrastruktur sowohl für die Verknüpfung von Wörtern/Definitionen
verschiedenster Wörterbücher mit Konzepten bereitstellen. Zudem muss sie die Oberfläche
für den späteren europäischen Benutzer entwickeln (Suchmöglichkeiten, Darstellung der
Ergebnisse durch die verschiedenen Wörterbücher hindurch, Filterfunktionen, Timebar, usw.).
Der dritte Arbeitsschritt ist das (digitale) Verknüpfen von jeder Bedeutung jedes Wortes in
jedem teilnehmenden Wörterbuchprojekt mit dem semantischen Konzept (innerhalb der
Ontologie/des Thesaurus), das vom jeweiligen Wort reflektiert wird. Dieser Schritt scheint
einfach, aber hier liegt der Teufel sowohl im Detail als auch in der Masse, was ihn zum
zeitintensivsten und inhaltlich anspruchsvollsten Arbeitsschritt des Prozesses macht.
3.3 Welche Sprachen werden eingebunden?
Das Projekt will in in einem ersten Projektstatus die beiden Sprachen einbinden, die im
mittelalterlichen Europa die größte Verbreitung und Alltagsbedeutung besaßen: Dies sind a)
das Mittellateinische als die meistverwendete Sprache im europäischen Raum und b) das
Altfranzösische als die prestigeträchtigste Vernakularsprache. Sie wurde die im Raum des
heutigen Frankreichs, nördlichen Spaniens, in Italien und auf den britischen Inseln gesprochen
und übte Einfluss auf das Mittelhochdeutsche aus und darüber hinaus. Das Projekt schließt
zudem das Altitalienische ein, dessen Bedeutung im späten Mittelalter etwa mit der
europäischen Verbreitung der Werke Dantes, Pertrarcas und Boccaccios deutlich wird.
In späteren Stadien kann LexEMA für die mittelalterlichen Sprachstufen anderer europäischer
Sprachen geöffnet werden (Mittelenglisch, Altspanisch, etc.) sowie für jüngere Sprachstufen.
4 Finanzierung
Sieben Wörterbücher aus sechs Ländern und internationale Informatik haben unter der
inhaltlichen Federführung von David Trotter (Anglo-Norman Dictionary – AND,
Aberystwyth) und Sabine Tittel (DEAF, HAdW, Heidelberg) das Projekt während der COST
Action IS1005 „Medieval Europe: Medieval Cultures and Technological Resources“
(03/2011-03/2015) herausgearbeitet. Ein Finanzierungsantrag im EU-Förderprogramm
„Horizon2020 / FET-Open“ wurde 2014 abgelehnt. Finanzierung und Zukunft des Projektes
sind offen.
5 Fazit
„Ein zweites Ziel soll es sein, die an vielen europäischen Standorten bearbeiteten
Langfristvorhaben enger miteinander zu verzahnen sowie bestehende Standards, Tools und
Instrumente für die Bearbeitung solcher Vorhaben und deren Strategien für digitales Publizieren zu
harmonisieren sowie gegenüber der Politik, der Wissenschaft und der Öffentlichkeit zu
kommunizieren. Schließlich soll das Vorhaben die Basis legen für das Fernziel, ein gemeinsames
europäisches geistes- und sozialwissenschaftliches Förderprogramm zum kulturellen Erbe und zur
europäischen Identität zu initiieren.“ (zit. aus ebd.).
Wenn dieses Fernziel erreicht werden soll, dann muss sichergestellt sein, dass das Wissen, das
von den Langfristvorhaben erarbeitet wird, auch weiterhin erarbeitet wird. Schließlich ist es
eine Selbstverständlichkeit, dass erst erarbeitet werden muss, was international und
interdisziplinär digital weiter verarbeitet werden soll.
Für die Verarbeitung bietet sich das Konzept LexEMAs als eine Möglichkeit an, das von den
Wörterbüchern erarbeitete Wissen über Sprachen, Zeiten und Länder hinweg
zusammenzuführen, erreichbar und nutzbar zu machen.
ABENDVORTRAG
Computergestützte Historische Semantik: Das Projekt „CompHistSem“
Bernhard Jussen / Alexander Mehler (Universität Frankfurt)
Computational Historical Semantics = CompHistSem zielt auf die zeitbezogene
Modellierung von Wort- und Textbedeutungen ausgehend von Corpora mittelalterlicher
lateinischer Texte. Eine der Herausforderungen einer solchen computergestützten historischen
Semantik betrifft die möglichst genaue sprachliche Modellierung der Texte auf Wort- und
Satzebene. Zu diesem Zweck hat das Projekt eine größere Zahl von Ressourcen entwickelt,
welche ausgehend von einem eigens generierten Lexikon der Lateinischen Sprache eine Reihe
von Vorverarbeitungswerkzeugen für das Lemmatisieren ebenso wie für das Erkennen von
Wortarten und grammatischen Kategorien umfasst. Der Vortrag stellt diese Ressourcen und
deren Verwendung im Rahmen der Webseite www.CompHistSem.org vor und erörtert auf
dieser Grundlage neuartige Methoden für das elektronische Publizieren.
Die Präsentation als PDF:
http://www.akademienunion.de/fileadmin/redaktion/user_upload/Publikationen/Praesentation
_Workshop_EP/Jussen_Mehler_HistSemantik.pdf
II. Sektion „Semantic Web und Korpora“
Digitale Briefeditionen im Semantic Web
Stefan Dumont (BBAW, TELOTA), Torsten Schrade (AdWL-Mainz, Digitale Akademie)
Zusammenfassung
Der Doppelvortrag möchte anhand zweier Webservices zeigen, wie Briefe durch
Technologien des Semantic Web erschlossen, vernetzt und analysiert werden können. Zum
einen wird mit correspSearch ein Webservice präsentiert, der Briefeditionen und -repositorien
zentral recherchierbar macht. Zum anderen wird mit XTriples ein Webservice vorgestellt, der
die implizit semantischen Informationen TEI-XML kodierter Briefeditionen in RDF
explizieren und dadurch neue Analysemöglichkeiten eröffnen kann. Beide Webservices
wurden im Rahmen einer gemeinsamen Entwicklerinitiative zwischen BBAW und AWLM
miteinander verschaltet. Neben der Vorstellung beider Dienste wird auch der Nutzen
Webservice-orientierter Architekturen für die digitale geisteswissenschaftliche
Forschungsarbeit in den Blick genommen.
correspSearch – Briefeditionen vernetzen
Briefe bilden eine äußerst wichtige Quellengattung für die geschichts- und
literaturwissenschaftliche Forschung: In ihnen werden die unterschiedlichsten Themen,
Ereignisse, Personen oder Publikationen aus der Lebenswelt der Korrespondenten erwähnt,
geschildert oder kommentiert. Die Heterogenität des Inhalts von Briefen hat zur Folge, dass
sie für eine Vielzahl von wissenschaftlichen Fragestellungen relevant sind. Gleichzeitig sind
Inhalte von Briefen schwer zu recherchieren, denn Briefeditionen werden natürlich nicht
thematisch, sondern stets nur im Hinblick auf eine besonders wichtige Persönlichkeit oder gar
einen Briefwechsel zwischen zwei Korrespondenten erstellt. Das heißt, editierte Brieftexte
bilden bisher stets nur Inseln, deren Vorhandensein, Lage und Beschaffenheit man kennen
muss, um sie ansteuern zu können.
Den Bedarf, Briefeditionen projekt- und institutionsübergeifend zu vernetzen, hat daher die
literatur- und geisteswissenschaftliche Forschung schon länger geäußert.8 Mit correspSearch
hat die TELOTA-Arbeitsgruppe an der BBAW letztes Jahr einen Webservice entwickelt, der
dieses Desiderat einlösen möchte. correspSearch aggregiert dezentral bereitgestellte
Korrespondenzmetadaten (Absender, Empfänger, Schreibort, Datum etc.) und stellt sie für die
Recherche zur Verfügung. Dadurch können Forscher zum einen nicht zentral edierte
Briefwechsel recherchieren und zum anderen untersuchen, wie Zeitgenossen politische oder
gesellschaftliche Ereignisse, Themen oder Publikationen kommentieren. Dabei beschränkt
sich der Webservice weder auf einen thematischen noch auf einen zeitlichen Schwerpunkt, so
dass die Daten auch für bisher noch nicht entwickelte Forschungsfragen genutzt werden
können.
Grundlage des Webservices sind digitale Briefverzeichnisse, die von gedruckten oder
digitalen Briefeditionen bzw. -repositorien bereitgestellt wurden. Um die dafür notwendige
Interoperabilität herzustellen, wurde in Zusammenarbeit mit der Correspondence Special
Interest Group9 der Text Encoding Initiative (TEI) das Correspondence Metadata Interchange
8 So z.B. Wolfgang Bunzel: Briefnetzwerke der Romantik. Theorie – Praxis – Edition. In: Anne Bohnenkamp
und Elke Richter (Hg.): Brief-Edition im digitalen Zeitalter (=Beihefte zu editio Bd. 34) Berlin/Boston 2013. S.
109-131, hier S. 117. 9 http://wiki.tei-c.org/index.php/SIG:Correspondence
Format entwickelt.10
Es basiert auf den TEI-Richtlinien und benutzt im Wesentlichen die im
Frühjahr dieses Jahres in den Richtlinien implementierte TEI-Erweiterung Correspondence
Description (correspDesc).11
Für das Austauschformat wird correspDesc allerdings in einer
stark reduzierten und restriktiven Weise benutzt. So werden u.a. zur projektübergreifenden
Identifizierung von Personen und Orten durchgehend IDs von gängigen Normdatensystemen
verwendet.12
Neben einer Website bietet correspSearch auch eine freie Schnittstelle13
, über die Anfragen
automatisiert gestellt und die Daten unter einer freien Lizenz14
bezogen werden können.
Dadurch können in Zukunft Forscher den Datenbestand auch mit Technologien abfragen, die
neuartig sind oder für die der Webservice selbst keine technische Basis bietet. So wird mit
einer ausreichenden Datenmenge und einer entsprechenden Software auch die Erforschung
von sozialen Netzwerken möglich sein. Darüber hinaus können sich digitale Briefeditionen
mit Hilfe der Schnittstelle automatisiert verknüpfen.
XTriples: Semantische Aussagen aus TEI-XML
Wie der Webservice correspSearch setzen zahlreiche Briefeditionen zur Modellierung ihrer
Forschungsdaten auf die TEI-Richtlinien und somit auf XML als primäre Datengrundlage.
XML als semistrukturiertes Datenformat eignet sich sehr gut zur Lösung editorisch-
philologischer Aufgabenstellungen und entspricht den Forderungen nach Interoperabilität und
Nachhaltigkeit.
XML-codierten Daten beinhalten in jeder Hinsicht semantische Informationen. Doch sind
diese Informationen nur implizit und nicht explizit in den Daten vorhanden. Im Gegenzug
gründen sich Semantic Web-Technologien auf dem Resource Description Framework (RDF)
des W3C15
zur Formulierung semantischer Aussagen (statements) in Form von Subjekt –
Prädikat – Objektbeziehungen (sogen. triples). Die Stärke von RDF liegt in der Verbindung
(interlinking), Zusammenführung (merging) und Analyse (inferencing) digitaler Ressourcen.
RDF ist modellierungstechnisch auf einer höheren Abstraktionsebene anzusiedeln als TEI-
kodierte XML-Daten. Somit existiert eine Lücke: Auf der einen Seite die zahlreichen
geisteswissenschaftlichen XML-Repositorien mit implizit semantischem Potential, auf der
anderen Seite die Technologien und Datenmodelle des Semantic Web, die neue Sichten und
Analysemethoden eröffnen könnten. Zwar existieren Sprachkonzepte, Methoden und Tools
zur Übersetzung zwischen XML und RDF, diese sind jedoch ausnahmslos komplex, teilweise
technisch veraltet, verfügen nur über prototypische Implementierungen oder sind hochgradig
spezialisiert auf den jeweiligen Datenbestand.16
Das Prinzip der Explizierung semantischer Aussagen aus XML-Ressourcen ist dabei nicht
sonderlich komplex: Wird der Uniform Resource Identifier (URI) einer XML-Ressource als
10
http://correspsearch.bbaw.de/index.xql?id=participate_cmi-format&l=de 11
http://www.tei-c.org/release/doc/tei-p5-doc/de/html/ref-correspDesc.html 12
Derzeit unterstützt der Webservice für Personen fünf Normdatensysteme, die er aufeinander abbildet. So z.B.
die Gemeinsame Normdatei (GND) der Deutschen Nationalbibliothek 13
http://correspsearch.bbaw.de/index.xql?id=api&l=de 14
Creative Commons License CC-BY 4.0, https://creativecommons.org/licenses/by/4.0 15
http://www.w3.org./RDF 16
Projekte wie bspw. SPQR (http://spqr.cerch.kcl.ac.uk/?page_id=3) oder das Textual Encoding Framework
(http://rdftef.sourceforge.net/) sind veraltet und technisch nicht generalisiert. Einen interessanten Ansatz bietet
die XSPARQL Language Specification des DERI (http://www.w3.org/Submission/xsparql-language-
specification/), die in Form einer W3C Member Submission niedergelegt ist. Hier fehlen jedoch praktische
Implementierungen. Die Benutzung von RDF a innerhalb von XML-Daten stellt eine weitere Möglichkeit dar,
doch verfolgen die wenigsten geisteswissenschaftlichen Fachdatenrepositorien eine so ausgerichtete Markup-
Strategie.
das Subjekt einer semantischen Aussage begriffen, können diesem Subjekt über Prädikate aus
kontrollierten Vokabularen Werte aus den XML-Daten bzw. URIs zu weiteren
Datenressourcen als Objekte zugeordnet werden. Im Übersetzungsvorgang zwischen XML
und RDF geht es also vor allem um die Bestimmung semantischer Aussagemuster, die sich
gesamthaft auf alle Ressourcen eines XML-Datenbestandes anwenden lassen.
An dieser Stelle setzt der XTriples Webservice17
der Digitalen Akademie der AWLM an.
Grundgedanke des generischen Dienstes ist das Crawling beliebiger XML-Datenbestände und
die anschließende Generierung semantischer Aussagen auf der Basis von Aussagemustern.
Die technische Realisierung als Webservice hat hierbei den Vorteil, dass AnwenderInnen
keine weitere Software zur semantischen Übersetzung ihrer Forschungsdaten benötigen. Die
Aussagemuster werden in Form einer simplen XML-basierten Konfiguration an den Dienst
übermittelt. Dabei ist es auch möglich, über die Bestände eines spezifischen XML-
Repositoriums hinauszugehen und externe Ressourcen oder Dateneinheiten in die
Transformation mit einzubeziehen.
Das Ergebnis einer XTriples-Extraktion steht dabei in einer Vielzahl gängiger RDF-
Serialisierungen zur Verfügung. Neben rein RDF-basierten Formaten ist es auch möglich, die
semantischen Bezüge mittels skalierbarer Vektorgrafiken (Scalable Vector Graphics, SVG) zu
visualisieren oder das Extraktionsergebnis zur weiteren Analyse und Visualisierung an
Semantic Web-Tools weiterzureichen.
17
http://xtriples.spatialhumanities.de. Der Webservice wurde im Kontext des Akademievorhabens Deutsche
Inschriften Online in Verbindung mit dem BMBF-Projekt Inschriften im Bezugssystem des Raumes entwickelt.
Er steht unter freier Lizenz zur Verfügung, das zugrunde liegende Softwarepaket ist auf GitHub
(https://github.com) veröffentlicht. Neben den Deutschen Inschriften wird XTriples auch in den
Akademievorhaben Regesta Imperii und Die Schule von Salamanca verwendet. Das Steinheim-Institut für
jüdische Geschichte nutzt XTriples zu einer CIDOC-CRM-basierten semantischen Modellierung des Epidat-
Corpus im Rahmen des BMBF-Projekts Relationen im Raum.
Um die Potentiale einer schnittstellenbasierten, dynamischen Verbindung von correspSearch
und XTriples in Form einer Webservice-Prozesskette auszuloten, haben TELOTA und Digitale
Akademie eine interakademische Zusammenarbeit auf Entwicklungsebene angestoßen. Das
Referat präsentiert erste Ergebnisse dieser Zusammenarbeit.
Weitere Informationen:
http://www.bbaw.de/telota/telota
http://www.digitale-akademie.de/
http://correspsearch.bbaw.de
http://xtriples.spatialhumanities.de/index.html
Die Schule von Salamanca: ein elektronisches Publikationsprojekt und eine semantische
Herausforderung
Andreas Wagner und Ingo Caesar (AMLM, Projekt „Die Schule von Salamanca“,
Universität Frankfurt)
Im Rahmen des Vorhabens „Die Schule von Salamanca. Eine digitale Quellensammlung und
ein Wörterbuch ihrer juristisch-politischen Sprache“ wird ein ideen- und geistesgeschichtlich
sehr einflussreicher Diskussionszusammenhang der frühneuzeitlichen Theologie, Jurisprudenz
und Philosophie durch eine digitale Edition und ein Wörterbuchvorhaben erschlossen. Nach
einem Überblick über die im ersten Projektabschnitt realisierten Arbeitspakete
(Digitalisierungsworkflow, Datenformat, Server-Infrastruktur und Web-Anwendung) wird ein
zentrales Forschungsproblem angeschnitten, für dessen Bearbeitung die Technologien des
Semantic Web eine entscheidende Hilfestellung sein können. Anders als seine
ideengeschichtliche Bedeutung ist nämlich sowohl das Wesen und die Bezeichnung jenes
Zusammenhangs (Ist es eine Schule? Was ist überhaupt eine Schule?) als auch seine interne
Differenzierung (nach Orten, nach Disziplinen u.ä.) alles andere als geklärt. Zur Bearbeitung
dieses Problems müssen zum Studium von Quellentexten, wie es in den betroffenen
Disziplinen gang und gäbe ist, auch vielgestaltige Kontext- und Netzwerk-Analysen
hinzutreten. So wird in der Präsentation gezeigt, wie das Projekt einerseits selbst Daten für
das Semantic Web anbietet und wie es sich andererseits von der Vernetzung mit anderen
Anbietern und dem Einsatz von Semantic Web-Technologien Antworten auf genuine
Forschungsfragen erhofft.
Die Präsentation als PDF:
http://www.akademienunion.de/fileadmin/redaktion/user_upload/Publikationen/Praesentation
_Workshop_EP/Caesar_Salamanca.pdf
Semantische Suchen in den Frühneuzeitlichen Ärztebriefen des deutschsprachigen
Raums (1500-1700)
Tilmann Walter (BAdW; Institut für Geschichte der Medizin, Universität Würzburg)
Das Akademieprojekt Frühneuzeitliche Ärztekorrespondenzen, 1500-1700 der BAdW hat im
Februar 2009 seine Arbeit aufgenommen. Seine Aufgabe ist die Erschließung und nähere
Erforschung der Korrespondenzen deutschsprachiger akademischer Ärzte vor dem Jahr 1700.
Arbeitsziel ist weder ein Wörterbuch noch eine Edition, sondern eine möglichst vollständige
Katalogisierung der in Archiven, Bibliotheken und über Editionen überlieferten Ärztebriefe.
Gemeint sind mit „Briefen“ dabei klassische lateinische Gelehrtenkorrespondenzen ebenso
wie volkssprachige berufliche, private und amtliche Briefwechsel (Konsile, Diätanweisungen,
Bewerbungen, Petitionen, amtliche Berichte und Gutachten), in gewissem Umfang auch
Verträge, insbesondere Bestallungsverträge. In unsere Datenbank haben wir bisher über
27.000 solcher Briefe aus 289 Bibliotheken und Archiven in Deutschland und der
deutschsprachigen Schweiz sowie Österreich, Polen, Frankreich, Italien, den Niederlanden,
Dänemark, Tschechien, Russland, Großbritannien und den USA eingetragen. Die Ärztebriefe
werden in folgender Weise k a t a l o g i s i e r t :
Besitzende Institution Burgerbibliothek <Bern>
Signatur Cod. 496 (A) 251
Blatt 224r-225v
Literatur Verena Schneider-Hiltbrunner: Wilhelm Fabry von Hilden 1560-
1634. Verzeichnis der Werke und des Briefwechsels, Bern /
Stuttgart / Wien 1976, 82 (Katalogeintrag)
Person VON Belinus, Zacharias (fl.-1604-1607) [Verfasser/in] [gesichert]
Person AN Fabry, Wilhelm <1560-1634> [Adressat/in] [gesichert]
Entstehungszeit 25.02.1604
Absenderort Basileae (Basel) [gesichert]
Sprache Latein
Land Schweiz
Ausreifungsgrad Abschrift
Inhaltsangabe "Anfrage wegen Unterricht in Anatomie und Botanik bei
Fabricius." (Onlinekatalog der Burgerbibliothek Bern)
Außerdem werden Links zum Online-Katalog der besitzenden Institution und (soweit
verfügbar) zum Digitalisat des Manuskripts oder der Edition angeboten.
Da das Projekt von Anfang an als Online-Datenbank geplant wurde, können, anders als in
einem gedruckten Katalog, sämtliche Inhalte zu jedem beliebigen Zeitpunkt ergänzt und
verbessert werden. So werden für eine stetig wachsende Zahl der Briefe detaillierte
Inhaltsangaben (oder Regesten) erstellt und die Briefe durch ein stetig erweitertes
Schlagwortregister miteinander vernetzt. Unser Schlagwortthesaurus enthält derzeit über
4.300 Einträge mit 1.750 Synonymen; hier die ersten 30 Registereinträge:
Aal, Aalborg, Aarau, Abano Terme <Padua>, Abaton <Pflanze>, Abbildung <Botanik>,
Abbildung <Ethnographie>, Abbildung <Fötus>, Abbildung <Zoologie>, Abdecker,
Abendmahl, Abendmahlsstreit, Abführmittel, Abrechnung, Absage <Hofamt>, Abstinenz,
Abszess, Abtreibung, Abulfeda <Werke>, Aconitum pardalianche <Pflanze>, Adel, Aderlass,
Ägypten, Aegyptiacum <Pflanze>, Aelianus <Werke>, Ärztekritik, Ärzteveteran, Ärztin . . .
Natürlich sind sämtliche Inhaltsangaben auch durch eine Volltextsuche mit der Möglichkeit
der Trunkierung mit Sternchen durchsuchbar. Wir empfehlen den wissenschaftlich
interessierten Benutzern, uns überdies via E-Mail zu kontaktieren, um das Ergebnis ihrer
Anfragen zu optimieren. So haben wir bspw. auf bestimmte Anfragen hin unsere Schlagwörter
weiter ausdifferenziert, oder wir können uns entscheiden, Briefe von bestimmten Ärzten im
Hinblick auf ein kommendes Jubiläum hin bevorzugt zu erschließen u.s.w.
Ebenfalls der inhaltlichen Erschließung dient ein P e r s o n e n r e g i s t e r , zu dem die
biographischen Basisinformationen entweder aus den Briefen selbst, aus der GND oder aus
dem von uns gepflegten WIKI zu Ärztebiographien, Archiven oder Bibliotheken sowie zur
wissenschaftlichen Literatur entnommen sind;
Name Fabry, Wilhelm <1560-1634>
Andere Namen Fabricius Hildanus, Guilelmus; Fabry von Hilden, Wilhelm; Fabry
von der Schmitten, Wilhelm; Fabricius Hildanus, Wilhelm; Hildanus,
Wilhelm Fabricius; Fabri, Wilhelm; Fabricius, Guilelmus <Hildanus>;
Hildenius, Guilelmus; Fabricius, Guilhelmus; Fabricius, Guilielmus;
Hilden, Guilielmus; Hildanus, Guilhelmus F.
Geschlecht männlich
Lebensdaten 25.06.1560 - 14.02.1634
Land Deutschland
Angaben zur Person Sohn des Gerichtsschreibers Peter Andreas Fabry; 1576 Lehre bei
Johann Dümgens in Neuss, 1580 bei Cosmas Slotanus, Wundarzt
Herzog Wilhelms V. von Jülich-Kleve-Berg; Wanderjahre führen ihn
zu Johann Bartisch in Metz und Jean Griffonius in Genf; 1587 verh.
mit Marie Colinet; 1589 Praxis in Hilden, 1593 in Köln, seit 1594
häufiger Ortswechsel; 1602-1610 Stadtwundarzt in Peterlingen, seit
1615 in Bern
Geographischer Bezug Hilden [Geburtsort]
Sachbezug Wundarzt [Beruf/Funktion]
Fundstelle/Quelle M, B; LoC-NA; NDB 4, 738 f.
Von dieser Person 11 Dokumente im Katalog
Von dieser Person 590 Ärztebriefe
An diese Person 351 Ärztebriefe
Über diese Person 36 Ärztebriefe
Homepage des Vorhabens:
http://www.medizingeschichte.uni-wuerzburg.de/akademie/index.html
Die Präsentation als PDF:
http://www.akademienunion.de/fileadmin/redaktion/user_upload/Publikationen/Praesentation
_Workshop_EP/Walther_Folien.pdf
Die Leibniz-Connection. Personen- und Korrespondenz-Datenbank der Leibniz-Edition
Michael Kempe (AdW-Goe, Leibniz-Forschungsstelle/Leibniz-Archiv, Hannover)
Der Beitrag zielt im Kern darauf, die neue Datenbank der Leibniz-Edition in all ihren
Aspekten vorzustellen und ihre Funktionen zu erläutern. Dabei gilt es auch danach zu fragen,
auf welche Weise die Datenbank weiterentwickelt und mit anderen ähnlichen Datenbanken
etwa zu gelehrten Korrespondenznetzwerken der europäischen frühen Neuzeit verknüpft
werden kann. Die SQL-Datenbank ist gewissermaßen noch klassisch als relationale
Datenbank aufgebaut. Es soll hier deshalb ebenso thematisiert und zur Diskussion gestellt
werden, inwieweit es möglich wäre, die Leibniz-Connection in Richtung Semantic Web
auszubauen.
Weitere Informationen unter:
https://leibniz.uni-goettingen.de/pages/index
Erschließung und Erforschung thematischer Zusammenhänge in heterogenen
Briefcorpora
Vera Hildenbrandt (Universität Trier) und Jörg Ritter (MLU Halle-Wittenberg)
Das vom BMBF geförderte Projekt „Vernetzte Korrespondenzen | Exilnetz33“ widmet sich
der Erforschung und Visualisierung sozialer, räumlicher, zeitlicher und thematischer Netze in
Briefkorpora. Im Zentrum stehen dabei die Briefe deutschsprachiger Kulturschaffender aus
der Zeit zwischen 1932 und 1950, die durch die Machtergreifung der Nationalsozialisten ins
Exil gezwungen wurden. Ziel des Projektes ist die Entwicklung eines modularen interaktiven
Portals zur Beantwortung von Fragen der Form: Wer hat wo wann mit wem worüber
geschrieben?
Dabei spielt das „worüber“, also die thematische Dimension eine herausragende Rolle. Im
kollaborativen Verbund der drei Projektpartner Deutsches Literaturarchiv Marbach,
Kompetenzzentrum für elektronische Erschließungs- und Publikationsverfahren in den
Geisteswissenschaften an der Universität Trier und Institut für Informatik der MLU Halle-
Wittenberg werden Methoden entwickelt, um Themen in Briefen effizient und so objektiv wie
möglich zu identifizieren, auszuzeichnen und deren Weg und Verbreitung im
Korrespondenznetzwerk zu untersuchen. Im Rahmen des Vortrages wollen wir den Aufbau
eines Exilthesaurus und eine semi-automatische, interaktive Verschlagwortung vorstellen,
welche zusammen die Grundlage für die Erschließung der thematischen Zusammenhänge im
Briefnetzwerk bilden. Der Aufbau des Exil-Thesaurus erfolgte über detailliertes verstehendes
und interpretierendes Lesen der Exilbriefe, die Identifikation der jeweils relevanten
Textstellen und das Übertragen des im Text Gemeinten in sinnvolle Schlagwörter. So entstand
ein umfassender Thesaurus des Exils, der später bei der Verschlagwortung erweitert bzw.
modifiziert werden wird. Die interaktive Verschlagwortung selbst basiert auf dem Ansatz,
dem Bearbeiter für alle Stichwörter aus den Briefen und den zugehörigen
Stellenkommentaren Vorschläge zu unterbreiten, welche Themen aus dem Thesaurus diesem
Stichwort zugeordnet werden könnten. Die Kandidaten für die Vorschläge berechnen sich
über textuelle Ähnlichkeit zu Themen im Thesaurus, über Synonyme und über Übersetzungen
bei fremdsprachigen Einschüben bzw. Briefen in englischer und französischer Sprache.
Zusätzlich werden alle durchgeführten Zuweisungen von Themen zu Stichwörtern gelernt und
ebenfalls als Kandidaten für Vorschläge genutzt.
Die Einbindung des resultierenden Exilthesaurus und der Verschlagwortung in das Briefnetz-
portal erlaubt nicht nur die thematische Erschließung des Korrespondenznetzwerkes, sondern
auch die Analyse und Visualisierung der sozialen, räumlichen und zeitlichen Ausbreitung von
Themen.
Weitere Informationen unter:
http://exilnetz33.de/de/
Herausforderungen und Perspektiven bei der Erprobung von Semantic Web-
Technologien und LOD für Akademieprojekte
Jörg Wettlaufer (AdW-Goe)
Semantische Technologien, also Standards und Formate, die semantische Informationen für
Maschinen lesbar und verstehbar machen, haben seit der Vision eines Semantic Web von Tim
Berners Lee vor 15 Jahren Einzug in den Kanon der Standards der Webprogrammierung und
der KI-Forschung gehalten. Welche Potentiale, Herausforderungen und Probleme sich damit
verbinden, soll an einführenden Beispielen und vor dem Hintergrund des von 2012-2015 im
Rahmen des Niedersächsischen Digital Humanities Forschungsverbundes von der Akademie
der Wissenschaften zu Göttingen durchgeführten Projekts „Semantic Blumenbach“ im
Rahmen des Verbundvorhabens „Digitale Bibliothek und virtuelles Museum“ dargestellt und
diskutiert werden.
Die digitale Darstellung von Texten und Museumsobjekten wird durch zwei unterschiedliche
wissenschaftliche Communities kuratiert: das TEI- Konsortium für Textauszeichnung und der
CIDOC Conceptual Reference Model Gruppe für Kulturgüter (Goerz und Scholz, 2009). Seit
etwa zehn Jahren beobachten wir Bemühungen, diese beiden Communities und die
Weiterentwicklung der von ihnen betreuten Standards miteinander in Kontakt zu bringen.
Christan-Emil Ore und Øyvind Eide veröffentlichten im Jahr 2006 einen ersten Vorschlag für
den Austausch von Informationen zwischen TEI und CIDOC (Eide und Ore, 2006). Seitdem
wurde die TEI Ontologien Special Interest Group (SIG) gegründet, aber bisher gibt es keinen
Konsens, wie man die Herausforderungen am besten meistern.
In dem Projekt „Semantic Blumenbach“ wurden semantische Informationen aus den Schriften
Johann Friedrich Blumenbachs (1752-1840) automatisiert erkannt (Named Entity
Recognition), in TEI P5 ausgezeichnet und ebenfalls automatisiert mit Objektbeschreibungen
einer Datenbank mit naturhistorischen Sammlungsobjekten verknüpft. Als Top Level
Ontologie wurde eine OWL-DL 1.0 Implementation von CIDOC CRM (Erlangen-CRM)
verwendet., als „semantisches Framework“ kam die wissenschaftliche
Kommunikationsumgebung (WissKI) in der Version 1.0 zum Einsatz, die das CMS Drupal
mit einem Triple-Store und der Ontologie Erlangen-CRM verknüpft und Pfade für die
semantische Modellierung bereitstellt. Weitere Experimente wurden mit der Einbindung von
dbpedia-Daten über SPARQL-Abfragen zur Anreicherung der zu den Entitäten verfügbaren
Informationen angestellt. Die Ergebnisse illustrieren die oben beschriebenen
Herausforderungen und bieten zugleich einen Einblick in Chancen und Fallstricke für eine
Verwendung von Semantic Web-Technologien (SWT), Linked Open Data (LOD) und
Semantic Mashups in Akademieprojekten.
Weitere Informationen unter:
http://www.tei-c.org/Activities/SIG/Ontologies/
http://www.cidoc-crm.org/official_release_cidoc.html
Eide und Ore 2006: http://www.cidoc-crm.org/workshops/heraklion_october_2006/ore.pdf
Goerz und Scholz 2009: http://www.cidoc-crm.org/workshops/heraklion_october_2006/ore.pdf
http://wiss-ki.eu/wisskiproject/; http://erlangen-crm.org/; http://www.blumenbach-online.de/
Die Präsentation als PDF:
http://www.akademienunion.de/fileadmin/redaktion/user_upload/Publikationen/Praesentation
_Workshop_EP/Wettlaufer__Blumenbach.pdf
Semantic Web am Beispiel des Projekts „Gelehrte Journale und Zeitungen der
Aufklärung“
Antonie Magen (Abteilung für Handschriften und Alte Drucke, Bayerische Staatsbibliothek)
und Marcus Hellmann (AdW-Goe)
Bei unserem Projekt handelt es sich um eine Kooperation zwischen der Göttinger Akademie,
der Universitätsbibliothek Leipzig und der Bayerischen Staatsbibliothek München; es
erschließt gelehrte Zeitschriften der Aufklärung wissenschaftlich, veröffentlicht die
Erschließungen datenbankgestützt (vgl. hierzu die Suchmaschine http://www.gelehrte-
journale.de/startseite/ ) und stellt Digitalisate der erschlossenen Rezensionen zusammen mit
den Erschließungen zur Verfügung.
1. Inhaltliche und technische Einführung in das Projekt, aktueller Stand.
In den Korpus der Datenbank ist auch das Material zweier Vorgängerprojekte der Akademie
Göttingen "Index deutschsprachiger Zeitschriften 1750-1815" (IdZ 18) und „Systematischer
Index zu deutschsprachigen Rezensionszeitschriften des 18. Jahrhunderts" (IdRZ 18)
eingegangen; die Daten wurden zu diesem Zweck konvertiert. Der besondere Reiz des
Projektes, gerade im Hinblick auf das semantic web, liegt in der innovativen Kooperation von
Akademie und Bibliotheken. So erfolgt die Dateneingabe in der bibliothekarischen
Erfassungssoftware WinIBW, die von einigen Verbünden, beispielsweise dem GBV, aber auch
von der ZDB, verwendet wird. Die Datenhaltung erfolgt in der GBV-Datenbank PICA. Aus
dieser Datenbank wird täglich ein OAI-basierter Datenabzug erstellt, aus der sich die
Datenpräsentation auf der projekteigenen Website mit Suchfunktionen speist
(http://www.gelehrte-journale.de/startseite/).
2. Möglichkeiten einer zukünftigen Semantisierung
Indem wissenschaftliche Inhalte in bibliothekarischen Systemen dargestellt werden, sind sie
auch mit einer Vielzahl von bibliothekarischen Normdaten verknüpfungsfähig. Gegenwärtig
ist hier vor allem der Konnex mit VD18 zu nennen. Perspektivisch geplant sind u. a. eine
GND-Verknüpfung sowie die Bereitstellung der Volltexte der Digitalisate auf Solr-Index. Mit
diesem Vorgehen ist eine Datenstruktur garantiert, die Einfallmöglichkeiten für Linked Open
Data und mehrere Möglichkeiten für die Semantisierung der Daten bietet. Damit sind
vielfältige Möglichkeiten gegeben, zukünftig über LOD einerseits wissenschaftliche
Erschließungen in bibliothekarische Nachweissysteme zu integrieren, andererseits
bibliothekarische Datenbanken für die wissenschaftliche Nachnutzung zu optimieren.
Weitere Informationen unter:
Homepage des Projekts: http://www.gelehrte-journale.de/startseite/
Index deutschsprachiger Zeitschriften des 18. Jahrhunderts:
http://adw.sub.uni-goettingen.de/idrz/pages/Main.jsf
III. Sektion „Historische Semantik und Erschließungsverfahren“
Die Welt des 13. Jahrhunderts erzählen. Das „Bienenbuch“ des Thomas von Cantimpré
– Edition und Auswertung
Julia Burkhardt (HAdW, Projekt „Klöster im Hochmittelalter“)
Autor und Text
Im zweiten Drittel des 13. Jahrhunderts vollendete der Dominikaner Thomas von Cantimpré
mit dem Bonum universale de apibus sein Spätwerk, eine monumentale Exempelsammlung,
die als Handbuch für die Prediger seiner Zeit konzipiert war. Ausgehend von dem Beispiel
einer hierarchisch in den König und sein Volk gegliederten Bienengemeinschaft wurden darin
in kleinen Geschichten und Anekdoten vornehmlich aus dem Brabanter und flandrischen
Raum lebensnahe Probleme des menschlichen Alltags, zeitgenössische politische und
gesellschaftliche Themen und schließlich theologische Fragen thematisiert. Wie die
Überlieferungs- und Rezeptionsgeschichte des umfangreichen (ca. 300 Druckseiten starken)
Textes zeigt, wurde das „Bienenbuch“ in den Jahrhunderten nach seiner Entstehung immer
wieder tradiert, bearbeitet und weiterverwendet: So sind aus dem 13.-16. Jahrhundert rund
130 Handschriften vorrangig mit lateinischen, aber auch mit volkssprachlichen Textfassungen
bekannt; Drucke aus dem 15.-17. Jahrhundert bieten den Text in vollem Umfang sowie
teilweise auch Annotationen; schließlich enthalten etwa 100 Handschriften kurze Ausschnitte
und Exzerpte aus dem Werk („Streuüberlieferung“).
Editionsvorhaben
Trotz dieser beachtlichen Wirkungsgeschichte existieren bislang weder eine kritische Edition
noch eine umfassende historische Würdigung des gesamten Werkes. Das Editionsprojekt setzt
hier an und will mit der ersten kritischen Edition des lateinischen Textes und der Auswertung
des „Bienenbuchs“ in kulturhistorischer Perspektive einen Modellvorschlag, der auch für
Texte mit ähnlicher Überlieferungs- und Rezeptionsgeschichte anwendbar sein könnte,
entwickeln.
Ausgehend von den Fragen, wie sich ein derart umfassend überlieferter Text in einem
angemessen Rahmen edieren lässt und inwiefern seine Überlieferungsgeschichte in der
Edition zu berücksichtigen ist, sollen im Vortrag Überlegungen zur Verortung des Texts im
Kontext der politischen und religiösen Auseinandersetzungen des 13. Jahrhunderts
(Historizität/ Vermittelbarkeit), Methoden zu Abgleich und Auswahl von Handschriften sowie
das Konzept der Edition kurz vorgestellt werden.
Kontakt und weitere Informationen unter:
http://www.haw.uni-heidelberg.de/forschung/forschungsstellen/kloester.de.html
Die Chronik des Johannes Johannes Malalas und ihre historische Erschließung
Andreas Dafferner (HAdW, EDV-Abteilung), Claudia Carrara und Christine Radtki (HAW,
Projekt „Historisch-philologischer Kommentar zur Chronik des Johannes Malalas“,
Universität Tübingen)
Die Chronik des Johannes Malalas
Im 6. Jahrhundert n. Chr. verfasste Johannes Malalas eine ‚Weltchronik‘ – eine Darstellung
der Geschichte von Adam bis in seine eigene Zeit. Diese Chronik besitzt herausragende
Bedeutung für die spätere mittelalterliche Geschichtsschreibung: Nachfolgende byzantinische
Chronisten haben sich nicht nur an ihrem Aufbau orientiert, sondern auch vielfach Teile des
Textes übernommen und weiter ausgearbeitet, so dass Malalas‘ Werk letztlich einen
Grundpfeiler der byzantinischen Historiographie darstellt. Die Chronik behandelt nach
biblischer Geschichte, der römischen Königszeit und der Geschichte Alexanders des Großen
und seiner Nachfolger in zunehmender Ausführlichkeit die römische Kaiserzeit mit einem
Schwerpunkt auf den Jahrzehnten, die der Autor selbst erlebt hat, d.h. die Regierungszeiten
der Kaiser Anastasios (491–518), Justin I. (518–527) und Justinian (527–565). Gerade für das
6. Jahrhundert stellt dieses Geschichtswerk somit ein grundlegendes Quellendokument dar,
aber auch für die älteren Perioden bietet es wichtige Informationen.
Das Projekt der HAdW
Die ‚Weltchronik‘ des Johannes Malalas konnte von der Forschung bisher noch nicht
hinreichend erschlossen werden. Aufgabe der seit 2013 an der Eberhard Karls Universität
Tübingen eingerichteten Forschungsstelle ist es, diese Lücke zu schließen. Im Zentrum des
Vorhabens steht die Erarbeitung eines umfassenden philologisch-historischen Kommentars
zur Chronik. Mit diesem Kommentar soll ein Arbeitsinstrument vorgelegt werden, das den
Zugang zu diesem Werk erleichtert und eine konkretere wissenschaftliche
Auseinandersetzung mit ihm ermöglicht. Dazu ist es erforderlich, Sacherläuterungen zum
Text zu erarbeiten, die aus historischer, philologischer, kirchengeschichtlicher und
archäologischer Perspektive sprachliche und inhaltliche Aspekte gleichermaßen behandeln.
Die Datenbank
Als Grundlage für einen am Ende der Projektlaufzeit zu veröffentlichenden schriftlichen
Kommentar wird derzeit ein online-Kommentar erstellt, der dem interessierten Fachpublikum
eine passgenaue Hilfestellung zur Analyse gezielter Textpassagen oder schlicht zur Textsuche
bietet. In einer das komplette Textcorpus umfassenden Datenbank werden dabei alle historisch
wie philologisch relevanten Inhalte der Chronik aufgeschlüsselt und sind für Buch 18 bereits
in Teilen individuell abrufbar. Nach einigen Vorarbeiten und Testversionen liegt mittlerweile
eine Version 2.0 vor, die es dem Nutzer ermöglicht, einen zur Einzelstelle bzw. zum
Einzelwort aufklappbaren Kommentar, der in die Großkategorien „historisch“ und
„philologisch“ aufgeteilt ist, sowie eine kurze Inhaltsangabe zum jeweiligen Kapitel, ferner
die relevanten Stellen der Nebenüberlieferung und Hinweise auf einschlägige
Forschungsliteratur abzurufen.
Historische Semantik
Vor dem Hintergrund des Tagungsthemas der „Historischen Semantik“ sollen im Rahmen
dieses Vortrages nach einer generellen Vorstellung der Datenbank verschiedene Beispiele
gezeigt werden, die den Autor Malalas im Kontext seiner Zeit und seiner Tätigkeit im
unmittelbaren Umfeld spätantiker Administration verorten. Als Beispiel können die von
Malalas verwendeten Latinismen angesehen werden, die vor dem Hintergrund historischen
Sprachwandels Bedeutung gewinnen und nicht nur den Blick auf den Autor selbst, sondern
auch auf gesellschaftliche Entwicklungen seiner Zeit freigeben.
Weitere Informationen unter:
http://www.haw.uni-heidelberg.de/forschung/forschungsstellen/malalas/projekt.de.html
Graphdatenbanken für Historiker mit Perspektiven für die Historische Semantik
Andreas Kuczera (AdWL-Mainz, Regesta Imperii)
Die zunehmende Menge an Volltexten in den Geschichtswissenschaften bietet neue Chancen
für die Forschung, erfordert aber auch neue Methoden und Sichtweisen. Der Beitrag möchte
die Verwendung von Graphdatenbanken bei der Erschließung von Quellenmaterial vorstellen.
Momentan werden digitale Quellen meist in XML oder in SQL-Datenbanken abgelegt. XML
hat sich als Standard bewährt und findet in vielen Editionsprojekten als Datenformat
Verwendung, während Websites meist auf SQL-Datenbanken als Daten-Repositories
zurückgreifen. XML-Dateien sind meist noch verständlich lesbar, bei SQL-Datenbanken ist
die Lesbarkeit ohne Kenntnis der zu Grunde liegenden Datenstrukturen in der Regel nicht
mehr gegeben. Hier könnte die Verwendung von Graphdatenbanken ein neuer Ansatz für die
Speicherung von zu erschließendem Wissen sein.
In SQL-Datenbanken sind die Informationen in Tabellen abgelegt, die untereinander
verknüpft sind. Graphdatenbanken folgen hier einem völlig anderen Ansatz. In einem Graph
gibt es Knoten und Kanten. Vergleicht man die Knoten mit einem Eintrag in einer Tabelle
einer SQL-Datenbank, wäre eine Kante eine Verknüpfung zwischen zwei Tabelleneinträgen.
Im Unterschied zu SQL-Datenbanken können Knoten und Kanten jeweils Eigenschaften
haben.
Wie dies genau aussieht und wie man einen solchen Graphen anschließend auswerten kann,
wird im Vortrag ausführlich vorgestellt.
Weitere Informationen unter:
http://www.regesta-imperii.de
Semantik und Lexikographie des ptolemäischen Kosmos: Ein mehrsprachiges digitales
Glossar der mittelalterlichen und frühneuzeitlichen Astronomie und Astrologie
François Charette (BAdW, Projekt „Ptolemaeus Arabus et Latinus“, Universität Würzburg),
Stefan Müller (IT-Referat BAdW)
Im Rahmen des Projektes „Ptolemaeus Arabus et Latinus“ an der Bayerischen Akademie
werden sämtliche astronomischen und astrologischen Texte des Claudius Ptolemäus in
arabischen und lateinischen Quellen und deren Bearbeitungen erfasst. Aus diesen entsteht zur
Zeit ein umfangreiches digitales Glossar der mittelalterlichen und neuzeitlichen Sternkunde.
Im ersten Teil der Präsentation wird nach einer allgemeinen philologischen und
wissenschaftshistorischen Einleitung zum Projekt das Konzept des Glossars erklärt und
dessen technische Implementierung mittels einer Graphdatenbank erläutert. Die Vorzüge einer
solchen Datenbank für das Erforschen der behandelten Texte werden anhand einiger Beispiele
hervorgehoben. Im Anschluss daran wird gezeigt, wie das Glossar auf den Netzseiten
erscheinen und verwendet werden könnte, indem es zum einen für die Maschine lesbar in
RDFa eingebunden, zum anderen für den Menschen durch Verlinkungen, Einblendungen und
filterbare Auflistungen nutzbar gemacht wird.
Das Glossar und seine Darbietung im Netz sollen nicht so sehr selbst Forschungsergebnisse
darstellen als vielmehr Mittel für künftige Forschung sein: für die weitere inhaltliche
Erschließung der dargebotenen Texte, aber auch für sprachkundliche Untersuchungen, die
jenseits vom Forschungsschwerpunkt des Ptolemaeusprojektes liegen.
Weitere Informationen unter:
http://ptolemaeus.badw.de/pal/public/index
„Semantisierungspotentiale“ in Akademievorhaben am Beispiel der „Kleinen und
Fragmentarischen Historiker der Spätantike“ (KFHist).
Jonathan Groß, Ulrike Henny, Patrick Sahle (Cologne Center for eHumanities, Universität zu
Köln)
Die „Kleinen und Fragmentarischen Historiker der Spätantike“ (KFHist) sind ein
Editionsprojekt an der Universität Düsseldorf, das seit 2012 im Akademienprogramm der
Nordrhein-Westfälischen Akademie der Wissenschaften und Künste gefördert wird. Es ediert
ein Corpus von über 80 kürzeren bzw. nur in Fragmenten erhaltenen Historikern der
Spätantike (3.-6. Jh. n. Chr.) mit kritischem Apparat, deutscher Übersetzung und philologisch-
historischem Kommentar. Die Edition erscheint in einer Druckausgabe samt PDF für
Subskribenten; darüber hinaus werden Einleitungen und Originaltexte in Kooperation mit dem
Cologne Center for eHumanities (CCeH) im Open Access erscheinen.
Durch die digitale Publikation werden die Forschungsergebnisse aus KFHist einem potentiell
größeren Leserkreis und anderen Rezeptionsformen leichter zugänglich gemacht. Als Web-
Präsentation meint dies neben dem „Lesen“ der edierten Texte vor allem browsende und
suchende Zugänge. Auf der analytischen Ebene ist ein Fortschritt aber nur zu erreichen, wenn
die Daten selbst in Formaten zur Verfügung gestellt werden, die eine Nachnutzung durch
algorithmische Verfahren erlauben. Dies betrifft einerseits die Frage der Bereitstellung an
standardisierten Schnittstellen und andererseits die Form, in der das Wissen gegeben ist.
Ausdrucksweisen aus dem Bereich des Semantic Web erlauben es, Informationen so explizit
zu machen, dass sie für „semantische“ Formen der Informationsverarbeitung zugänglich
werden.
Auf der Ebene der Metadaten betrifft dies für die KFHist zunächst die edierten Autoren und
Werke. Sobald diese mit kanonischen Bezeichnern (URIs) identifiziert werden, wird eine
Anbindung an Wissen möglich, das außerhalb des Projektes liegt. Die KFHist werden über
solche Brückenköpfe Teil des „Giant Global Graph“.
Weitere Anknüpfungspunkte bilden die Metadaten zu den Überlieferungsträgern sowie zu
Voreditionen. Auch hier sind Personen, Werke sowie bibliografische Entitäten mit ihren
verschiedenen Eigenschaften (wie Entstehungsorten, Entstehungszeiten etc.) zu identifizieren.
Auf der Ebene der Texte selbst ist zunächst die kanonische Ansprechbarkeit von Texten,
Textfassungen und Textteilen zu regeln, für die persistente Adressen geschaffen werden
müssen. Darauf können dann in den Texten identifizierte „named entities“ wie Personen und
Orte, aber auch andere kontrollierte Begriffe, wie Schlagwörter, verweisen. Jenseits dieser
klassischen semantischen Einheiten gibt es z.B. mit den „Ereignissen“ weitere
Themenkomplexe, die ebenfalls semantisch expliziert werden könnten, bei denen die
Entwicklung praktischer Lösungen aber noch am Anfang steht. Nochmals anders stellt sich
die Situation für den Wortbestand der Texte selbst dar: die einzelnen Wörter können zwar
identifiziert und lemmatisiert und damit mit anderen Texten und Lexika verbunden werden,
eine Nutzung der semantischen Dimension selbst ist damit aber nur grundsätzlich vorbereitet.
Für die praktische Umsetzung der Semantisierung eines Forschungsprojektes wie die KFHist
sind zunächst die bestehenden Modelle wie SKOS auf ihre Einsetzbarkeit zu prüfen. Sodann
ist zu evaluieren, ob für die in Frage stehenden Entitäten bereits Normdaten von den zentralen
Einrichtungen (z.B. via GND) vergeben sind, ob sie von der jeweiligen Community (hier den
„Digital Classics“) entwickelt werden oder ob im Projekt Identifikatoren gebildet werden
müssen. In einem zweiten Schritt muss dann eine Strategie entwickelt werden, wie die
bestehenden Daten eigentlich mit möglichst geringem Aufwand bei möglichst hoher Qualität
semantisch angereichert bzw. übersetzt werden können. Danach stellt sich die Frage des
„exposure“: Linked Open Data wird im Idealfall an technischen Schnittstellen bereitgestellt,
um von anderen abgerufen zu werden, die darauf Suchanwendungen aufbauen, sie in
übergreifende Systeme einspeisen oder für analytische Zwecke nutzen.
Der Beitrag möchte am Beispiel der KFHist zeigen, welche Anknüpfungspunkte bereits
digital gewordene, „typische“ Akademievorhaben für Verfahren des Semantic Web bieten.
Damit ist die Vorbereitung von Verknüpfung mit anderen Informationsbeständen verbunden,
die zunächst zu einer besseren Auffindbarkeit und Benutzbarkeit von Forschungsergebnissen
führen können und dem Fernziel des Semantic Web entsprechend eines Tages das Ziehen von
Schlüssen (reasoning) erlauben. Bereits vorhandene Anschlussmöglichkeiten, die im Falle der
KFHist vor allem aus dem Bereich der Digital Classics kommen, sollen in diesem Beitrag den
Blick genommen und mögliche Umsetzungs- und Nutzungsszenarien am Beispielprojekt
aufgezeigt werden.
Weitere Informationen unter:
Homepage des Projekts: http://www.phil-fak.uni-duesseldorf.de/historiker-der-spaetantike/
Cologne Center for eHumanities: http://www.cceh.uni-koeln.de/node/520
Heidelberger Gesamtverzeichnis der griechischen Papyrusurkunden Ägyptens in
Papyri.info
James M. S. Cowey (HAdW, Papyrus-Editionen)
Die digitale Plattform papyri.info wird präsentiert und ihre Erfolge dargestellt. Das Vorhaben
"Papyrus-Editionen" der Heidelberger Akademie der Wissenschaften, das eine Laufzeit von
1989 bis 2002 hatte, etablierte die Datenbank „Heidelberger Gesamtverzeichnis der
griechischen Papyrusurkunden Ägyptens“ (HGV). Diese Datenbank bot und bietet noch
Metadaten für alle veröffentlichten Papyri und Ostraka. 1982 begann an der Duke University
(NC) ein ähnliches Projekt, die „Duke Database of Documentary Papyri“ (DDbDP). Diese bot
griechische und lateinische Texte mit begleitenden minimalen Metadaten aller
veröffentlichten Papyri und Ostraka. Diese zwei Projekte ergänzten sich und so entstand im
Laufe der Jahre eine Zusammenarbeit. Zu Beginn dieses Jahrhunderts haben beide Projekte
unter mangelnder Finanzierung gelitten. Diese missliche Lage trug zu der Entstehung von
papyri.info bei, einem Projekt, das unterschiedliche Materialien von verschiedenen
papyrologischen Datenbanken, darunter HGV und DDbDP, zusammenführte.
Die zusammengeführten Ressourcen unterliegen Versionskontrollen und der Überprüfung von
Fachleuten: Es werden Texte, Übersetzungen, Kommentare, wissenschaftliche Metadaten,
Daten aus Bestandskatalogen, Bibliographien und Digitalfaksimiles bearbeitet und
dargeboten. Anhand von papyri.info wird illustriert, wie sich die von der Heidelberger
Akademie der Wissenschaften begründeten Projekte weiterentwickeln und wie existierende
Datenbanken nachhaltig betreut und vor der Fossilisierung bewahrt werden können.
Weitere Informationen unter:
http://papyri.info/
http://www.rzuser.uni-heidelberg.de/~gv0/gvz.html
Pollux’ WordNet. Zur digitalen Edition eines griechischen Thesaurus des 2.
Jahrhunderts u. Z.
Stylianos Chronopoulos (Seminar für Klassische Philologie der Universität Freiburg)
Pollux’ Onomastikon ist ein griechischer Thesaurus, verfasst im 2. Jh. u. Z. In zehn Büchern
werden die Wortfelder von verschiedenen Begriffen aufgefasst. Pollux strukturiert
hierarchisch jedes Wortfeld (Mikrostruktur), bemüht sich aber nicht, die Begriffe in ein
logisches System einzuordnen (Makrostruktur). Das Onomastikon ist zugleich ein
attizistisches Lexikon: es beinhaltet Wörter, die zum größten Teil bei kanonischen Autoren
der klassischen Zeit zu finden sind, es führt, wenn notwendig, Belege und Zitate auf, und in
mehreren Fällen rät den Benutzer von der Verwendung mancher Wörter ab.
Das Onomastikon ist in mehreren Handschriften überliefert, die auf eine revidierte Edition des
9.–10. Jh. zurückgehen. Der Text variiert beträchtlich von Handschrift zu Handschrift. Die
aktuelle Druckedition stammt von Erich Bethe (Bd. 1: 1900; Bd. 2: 1931; Bd. 3, Indices:
1937), der einen “vollständigen” Text rekonstruiert, indem er die überlieferten Texten aller
Handschriften zusammenlegt.
Die im Rahmen des Projekts “Open Greek and Latin” (http://www.dh.uni-
leipzig.de/wo/projects/ opengreek-and-latin-project/) geplante digitale Edition des
Onomastikon beruht sich auf Bethes Druckedition, wird aber ein reichhaltigeres Modell für
den Text vorlegen, so dass die Edition in ihrer vollständigen Form die folgenden
Nutzungsbedürfnisse abdecken wird:
1. lineare Lektüre und Suche nach Wörterformen bzw. Lemmata;
2. Sichtbarkeit der verschiedenen Fassungen des Onomastikon, so wie sie über die
verschiedenen Handschriften überliefert worden sind
3. Überblick über der Mikrostruktur der Wortfeldern (Wie sind sie organisiert? Welche
Ontologien stellt Pollux her?) und Suche nach Strukturmustern;
4. Benutzung des Onomastikon als Thesaurus/Lexikon der altgriechischen Sprache;
5. Benutzung des Onomastikon als Quelle für antiken Autoren, Werktiteln und Zitaten;
6. Untersuchung der metalexikographische Anmerkungen;
7. Verknüpfung des Onomastikon mit der antiken lexikographischen/enzyklopädischen
Tradition Der Text und der kritische Apparat der Edition von Bethe wird digitalisiert
und in TEI XML (EpiDoc) ausgezeichnet. Zusätzlich zu Bethes Edition werden auch
die metalexikographischen Anmerkungen gekennzeichnet. Die Hinweise auf Autoren,
Werke und die Zitate sowie die Elemente der Mikrostruktur jedes Wortfeldes werden
durch stand-off markup in RDF ausgezeichnet. Eine Bearbeitung des im Onomastikon
aufgeführten Vokabulars durch Anwendung der Kategorien für Synsets-Beziehungen
zwischen Wörtern derselben Wortart (POS) sowie „cross-POS“ Beziehungen, die
WordNet (https://wordnet.princeton.edu) verwendet werden, wird das Onomastikon zu
einem digitalen Thesaurus machen. Drei hauptsächliche Darstellungsmodi sind für die
Edition vorgesehen:
1. Text mit Suchfunktionen, Hyperlinks zu anderen antiken Lexika und Möglichkeit
auszuwählen, welche Handschrift(en) sichtbar sein soll(en);
2. Darstellung der Struktur/Ontologie eines oder mehreren Wortfelder;
3. WordNet-ähnliche Darstellung und Suche.
Kontakt:
Die Präsentation als PDF:
http://www.akademienunion.de/fileadmin/redaktion/user_upload/Publikationen/Praesentation
_Workshop_EP/Chronopoulos__Pollux_Folien.pdf
Semantische Probleme in den Fragmenten der griechischen Komödie
Christian Orth (HAdW, Projekt „Kommentierung der Fragmente der griechischen Komödie“,
Universität Freiburg)
Bei der Kommentierung der Fragmente der griechischen Komödie spielen Fragen der
historischen Semantik eine wichtige Rolle. Die Vielfalt sprachlicher Register und die
sprachliche Kreativität der Gattung haben zur Folge, dass eine große Zahl von Wörtern
überhaupt nur oder erstmals in der Komödie bezeugt ist. Zugleich liefert die Komödie
wichtige Anhaltspunkte für die Bedeutungsentwicklung von auch in anderen Gattungen
bezeugten Wörtern. Das Verständnis eines Worts in einer bestimmten Passage einer Komödie
ist oft erst unter Berücksichtigung des weiteren Kontexts der sprachlichen Entwicklung, aber
auch kultureller Umstände möglich. Durch die Untersuchung der Entwicklung von Wörtern in
ihrem historisch-kulturellen Kontext leisten die Kommentare somit auch einen Beitrag zur
griechischen Lexikographie.
In meinem Beitrag soll (1) an ausgewählten Beispielen gezeigt werden, wie in unserem
Projekt die Bedeutung und Bedeutungsentwicklung einzelner Wörter untersucht wird, und (2)
die Frage gestellt werden, wie die dabei gewonnenen Ergebnisse in einer digitalen Publikation
zugänglich gemacht werden können.
Weitere Informationen unter:
http://www.haw.uni-heidelberg.de/forschung/forschungsstellen/kofrgrkom.de.html
IV. Sektion „Semantik und Wörterbuch“
Zur Symbiose zwischen „Zettelkasten“ und „Datenbank“ bei der Artikelherstellung im
Deutschen Rechtswörterbuch
Andreas Deutsch (HAdW, Deutsches Rechtswörterbuch)
Die Ermittlung der Semantik historischer Rechtswörter stellt oft genug eine Herausforderung
dar. Bisweilen scheinen Wörter noch heute geläufig, hatten aber bei genauerer Betrachtung in
der Vergangenheit eine völlig andere Bedeutung. Oft genug wandelt sich die Semantik eines
Wortes im Laufe der Geschichte mehrfach. In der Forschungsstelle des Deutschen
Rechtswörterbuchs (DRW, vgl. http://www.deutsches-rechtswoerterbuch.de/ueber.htm) an der
Heidelberger Akademie der Wissenschaften wird die Bedeutung historischer Rechtstermini im
Kern auf zwei Wegen eruiert: zum einen auf der Basis von rund 2,5 Millionen „Belegzetteln“,
also handschriftlich gefertigten und in Archivkästen sortierten Wortnachweisen, die in der
Anfangszeit des Wörterbuchs erstellt wurden, indem die zum Corpus des Rechtswörterbuchs
gehörigen mehreren tausend Quellen systematisch nach aussagekräftigen Belegstellen eines
Wortes durchforstet wurden, zum anderen auf der Basis einer stetig wachsenden Datenbank
mit elektronischen Volltexten ausgewählter, zum Corpus gehöriger Quellen.
Auf den ersten Blick erscheint eine möglichst breite Beleglage der beste Weg, um ein klares
Bild über die Entwicklung eines Wortes zu gewinnen. Extensiv angelegte elektronische
Textarchive können eine Materialgrundlage liefern, die weit über das hinaus geht, was ein
„Zettelkasten“ mit Belegexzerpten bieten kann. Bei häufig vorkommenden Wörtern (etwa
„schon/schön“ oder „Schuld“) ergeben sich bei einer Datenbankrecherche allerdings schnell
mehrere tausend Treffer, die hinsichtlich ihrer semantischen Ausdifferenzierung nicht mehr
überblickt werden können.
Beispiel „sein“: Verb oder Possessivpronomen?
Im Zettelkasten findet sich eine überschaubare Anzahl ausgewählter Belege. Sie sind auf rechtlich Relevantes beschränkt und bereits dem richtigen Wort zugeordnet:
● zum Pronomen alle Schreibformen komplett 77 Belege
● zum Verb alle Schreibformen komplett 121 Belege
Nicht mehr überschaubar ist demgegenüber die überhohe Anzahl von Treffern im elektronischen Textarchiv:
● allein für die Schreibform „sein“ (z.B. als Infinitiv): 85.116 Belege
● allein für die Schreibform „seyn“ (z.B. als Infinitiv): 11.822 Belege
Da viele Rechtswörter auch in der Allgemeinsprache vorkommen, bildet – auch bei einem
sorgfältig ausgewählten elektronischen Corpus – zudem ein großer Anteil der Treffer die (für
das DRW nur am Rande relevante) allgemeinsprachliche Wortverwendung ab, dies gilt
namentlich für Verben (etwa „setzen“ oder „sitzen“). In solchen Fällen bietet der
„Zettelkasten“ mit seinen mit Bedacht ausgewählten Belegstellennachweisen einen sehr viel
effizienteren Zugang.
Ähnliches gilt für Wörter, die in sehr verschiedenen Schreibformen vorkommen : Bevor diese
Schreibformen nicht eruiert sind (z.B. über den Zettelkasten) ist eine Datenbanksuche nur
eingeschränkt möglich. So muss bei einem Wort wie „Schultheiß“ zuvor bedacht werden, dass
etwa auch Formen wie „schulz“, „scout“ oder „skelta“ zu berücksichtigen sind.
Bei Wörtern wiederum, die nur selten vorkommen, die daher im Zettelkasten nur mit sehr
wenigen Belegzitaten nachgewiesen sind, kann die Datenbank eine sehr wichtige und
hilfreiche Ergänzung sein, um eine sichere Annäherung an die historische Semantik zu
ermöglichen.
Manch ein Wort, das gemäß Zettelkasten wie ein Hapaxlegomenon erscheint, lässt sich bei
Zugrundelegung einer weiteren Materialbasis – über das elektronische Textarchiv – noch
weitere Male nachweisen. Eine breitere Beleglage kann bei selten belegten Wörtern nicht nur
dazu beitragen, die Semantik sicherer zu erfassen und unterschiedliche Wortbedeutungen
präziser herauszuarbeiten. Nicht selten lassen sich mithilfe der Datenbank auch deutlich ältere
Belege finden. Ferner kann die verbesserte Beleglage dazu dienen, ein klareres Bild über die
regionale Verbreitung eines Wortes oder Wortfeldes zu bekommen.
Für die Erforschung der historischen Rechtssprache gilt daher: Die besten Ergebnisse werden
durch eine sinnvolle Kombination von „Zettelkasten“ und „Datenbank“ erzielt.
Das Deutsche Rechtswörterbuch bildet als großes Belegwörterbuch in seinen Wortartikeln
nach Möglichkeit nicht nur die semantische Bandbreite eines Wortes (im jeweiligen
rechtlichen Kontext) ab. Soweit möglich bieten die Belegzitate auch einen (je nach Größe des
Artikels unterschiedlich ausführlichen) Überblick über jeweils vorkommenden
Schreibformen. So sind bei Wörtern wie „Schultheiß“ oder „setzen“ jeweils über hundert
verschiedene Schreibweisen nachgewiesen. Über die Online-Version des Wörterbuchs (für
alle frei unter: www.deutsches-rechtswoerterbuch.de) sind diese besonders leicht auffindbar.
Die Artikel sind zwar stets neuhochdeutsch lemmatisiert. Wer aber nicht weiß, zu welchem
neuhochdeutschen Wort sein gesuchtes Wort in historischer Schreibung gehört, kann einfach
das Wort in der historischen Schreibweise eingeben. Die Suche liefert dann nicht nur die
verfügbaren Artikel mit Lemma in genau dieser Schreibweise, sondern unter anderem auch
alle Artikel, in denen ein Beleg mit entsprechender Schreibform vorkommt. Mehr Tipps und
Tricks zum Onlinewörterbuch bieten die Benutzungshinweise (unter Hilfe in DRW-Online
oder direkt hier: http://drw-www.adw.uni-heidelberg.de/drw-cgi/zeige?dok=benutz.htm).
Mehr Informationen über das Deutsche Rechtswörterbuch (DRW) bietet die
Projekthomepage: http://www.deutsches-rechtswoerterbuch.de/ueber.htm
Beispiel „Sohnstochter“: Selten belegt
Der einzige im Zettelkasten nachgewiesene Beleg zu diesem Wort stammt aus einem Jahr nach der Zeitgrenze, die für die Erstellung von DRW-Wortartikeln bei Komposita vorgegeben ist; gäbe es nur diesen späten Beleg, müsste der Artikel daher wegfallen, obwohl das Wort in Wirklichkeit deutlich älter ist:
„vorbehalt zu gunsten der sohns-töchter, in ansehung ihres großvatters säßhaus, gewehr, kleider und kleinodien“
BernStR. VII 2, S. 889, 1762.
Ein zusätzlicher elektronischer Beleg aus dem Textarchiv (hier aus dem online
verfügbaren Projekt DRQEdit, www.drqedit.de) hilft als neuer Erstbeleg:
„der vasall kan die lehen von der verlassen sonstochter nit empfahen“
Zasius,Lehnr.(Lauterbeck), Bl. Mv., 1553.
Das retrodigitalisierte Deutsche Wörterbuch als Quelle für die historische Semantik
Volker Harm (Göttingen)
Das von Jacob Grimm und Wilhelm Grimm begründete und 1960 in einer ersten Bearbeitung
von 32 Bänden abgeschlossene Deutsche Wörterbuch (1DWB) ist ein Grundlagenwerk der
historischen Sprachforschung und insbesondere der historischen Semantik. Dies gilt auch für
die seit 1960 an der Berlin-Brandenburgischen Akademie der Wissenschaften sowie der
Akademie der Wissenschaften zu Göttingen erarbeitete Neubearbeitung, die die am stärksten
veralteten Bände der Erstbearbeitung ersetzt. Die Erstbearbeitung liegt seit Längerem digital
vor, die Digitalisierung der Neubearbeitung wird zur Zeit beantragt. Da die Beschreibung der
Bedeutungsgeschichte des Wortschatzes das erklärte Hauptziel des 2DWB (wie in großen
Teilen auch des 1DWB) ist, sollte auch für die digitale Version des
2DWB ein erhebliches
Auswertungspotential für historisch-semantische Fragestellungen zu erwarten sein. Im
Gegensatz zu formbezogenen Informationspositionen, die relativ leicht verbindbar und
erschließbar sind, stellt die artikelübergreifende Abfrage semantischer Informationen eine
erhebliche Herausforderung dar. Dies zeigt sich vor allem am der Scheitern von Versuchen,
einzelne Bedeutungspositionen wörterbuchintern bzw. -extern zu verlinken. Trotz der
angedeuteten Schwierigkeiten, die auf die stark „einzelwortbiographische“ Anlage des Werkes
zurückzuführen sind, bietet das digitale 2DWB ein beträchtliches Potential für die
Beantwortung von artikelübergreifender Fragen der historischen Semantik. Als Vorteil des 2DWB erweist sich dabei u.a. die ausgeprägte Binnendifferenzierung der Artikel, die relativ
konsistente Strukturierung der lexikographischen Angaben sowie die vergleichsweise
reichhaltigen Metadaten zu den Belegstellen. In dem Referat soll an ausgewählten Beispielen
gezeigt werden, wie über eine Korrelierung unterschiedlicher lexikographischer
Informationstypen – z. B. die Verknüpfung von Wortbildungsangaben mit
Gliederungsübersichten, von bibliographischen Informationen mit wortgeschichtlichen
Angaben – neue Einsichten in die historische Semantik gewonnen werden können.
Gleichzeitig soll geprüft werden, inwiefern die Nutzbarkeit des digitalen 2DWB durch
weitergehende semantische Annotierungen sowie die Einbeziehung des bisher noch nicht
digital vorliegenden Quellenmaterials erhöht werden kann.
Weitere Informationen unter:
http://www.uni-goettingen.de/de/118878.html
https://de.wikipedia.org/wiki/Deutsches_W%C3%B6rterbuch
http://dwb.uni-trier.de/de/
Die Präsentation als PDF:
http://www.akademienunion.de/fileadmin/redaktion/user_upload/Publikationen/Praesentation
_Workshop_EP/Harm_DWB_als_Quelle_fuer_HistSem.pdf
Textdatenbank und Wörterbuch des klassischen Maya
Christian M. Prager (AWK-NRW, Projekt „Textdatenbank und Wörterbuch des Klassischen
Maya“, Universität Bonn)
Die an der Universität Bonn angesiedelte Arbeitsstelle „Textdatenbank und Wörterbuch des
Klassischen Maya“ der Nordrhein-Westfälischen Akademie der Wissenschaften und der
Künste erforscht Schrift und Sprache der Klassischen Mayakultur, deren Überreste in den
heutigen Staaten Mexiko, Guatemala, Belize und Honduras zu finden sind. Ziele des Projekts
sind die Erschließung des hieroglyphischen Ausgangsmaterials in einem digitalen Textkorpus
und die Erstellung eines Wörterbuchs des Klassischen Maya, das als Datenbank und in
gedruckter Form den gesamten Sprachschatz und dessen Verwendung in der Schrift abbildet.
Dies ist ein dringendes Desiderat, denn die Schrift und die zugrunde liegende Sprache sind
noch nicht vollständige entschlüsselt. Dabei werden Methoden und Werkzeuge aus dem
Bereich der Digital Humanities genutzt und weiterentwickelt, wie sie im Virtual Research
Environment von TextGrid zur Verfügung gestellt werden, um ein linguistisch annotiertes
Sprach- und Schriftkorpus mitsamt Metadaten zur Kultur- und Objektgeschichte und
Forschungsreferenzen zu erstellen und open access auf zwei Plattformen zur Verfügung zu
stellen.
In unserem Workshopbeitrag wollen wir nicht nur Einblicke in unsere Arbeit mit den
Hieroglyphentexten der Klassischen Maya geben, sondern auch die im Aufbau befindliche
virtuelle Forschungsumgebung für die epigraphische Arbeit vorstellen und die geplante
Publikation der Texte mitsamt ihrer Analysen in digitaler Form vorstellen. Abschließend
möchten wir auch rechtliche Fragen bei der Nutzung von urheberrechtlich geschützten
Werken in solchen virtuellen Plattformen ansprechen und unsere Strategien dazu vorstellen.
Weitere Informationen unter:
www.mayawoerterbuch.de
https://textgrid.de/
Semantische Wörterbuchstrukturen: Ein Erfahrungsbericht am Beispiel des
Bayerischen Wörterbuchs
Ursula Welsch (BAdW, IT: Digital Humanities)
Die semantische Erschließung von Quelleneditionen, digitalen Wörterbüchern und Katalogen
und Verzeichnissen beginnt mit der semantischen Auszeichnung der digitalen Bestände. Je
genauer und klarer die Bedeutung einer jeden Informationseinheit resp. Struktureinheit direkt
benannt wird, umso granularer und eindeutiger ist die so ausgezeichnete Datenbasis auf das
Generieren semantischer Verschlagwortung und die Umsetzung in Facettierungen bei der
Suche vorbereitet.
Gerade Wörterbücher mit ihrer potenziell hochkomplexen inhaltlichen Struktur bieten sich für
die semantische Strukturierung an. Zudem lässt sich auf diesem Weg die bisweilen recht
arbeitsaufwendige lexikografische Aufbereitung (z. B. Interpunktion, Abkürzung des
Lemmas, sonstige Abkürzungen) deutlich vereinfachen.
Der Vortrag beschreibt das Vorgehen bei der Strukturerstellung und berichtet von den
Erfahrungen bei der Retrodigitalisierung und bei der Neuerfassung weiterer Artikel beim
Bayerischen Wörterbuch. Dabei wird auch auf die Arbeitsumgebung eingegangen.
Weitere Informationen unter:
http://www.bwb.badw.de/
Die Präsentation als PDF:
http://www.akademienunion.de/fileadmin/redaktion/user_upload/Publikationen/Praesentation
_Workshop_EP/Welsch_SemantWBstrukturen_Folien.pdf
V. Sektion „Semantische Aspekte digitaler Editionen“
Editio Critica Maior Aperta: Zu einer offenen digitalen Edition des Neuen Testaments
Klaus Wachtel (Institut für neutestamentliche Textforschung, Münster)
In dem Beitrag werden am Beispiel des New Testament Virtual Manuscripts Room (NTVMR)
das Konzept einer offenen digitalen Edition des Neuen Testaments und Ansätze zu ihrer
Realisierung dargestellt. Eine offene digitale Edition ist die ultimative Weiterentwicklung des
Publikationsformats, das im Kontext des Buchdrucks als kritische Edition bekannt ist. Anders
als ein Druckwerk beschränkt sich eine offene digitale Edition nicht auf einen fixierten
Basistext und eine Liste der Überlieferungsvarianten, die mit der Herstellung der
Druckvorlage geschlossen wird. Aus dem herkömmlichen kritischen Apparat wird ein Portal,
das den Weg zu den Quellen eröffnet. Rezipienten sind zugleich Mitherausgeber, denn sie
werden ermutigt, neue Materialien hinzuzufügen, vorhandene Dokumente zu annotieren und
zu verbessern, nach den eigenen Bedürfnissen neu anzuordnen und eigene Forschungsprojekte
an die offene Edition anzuschließen.
Weitere Informationen unter:
http://ntvmr.uni-muenster.de/
http://egora.uni-muenster.de/intf/aecm/aecm.shtml
Die Präsentation als PDF:
http://www.akademienunion.de/fileadmin/redaktion/user_upload/Publikationen/Praesentation
_Workshop_EP/Wachtel_NT.pdf
Stand der Überlegungen für eine Digitale Edition der Uwe Johnson‐Werkausgabe
Fabian Kaßner, André Kischel (BBAW, Uwe Johnson-Werkausgabe; Universität Rostock)
Die Uwe Johnson‐Werkausgabe ist ein Vorhaben der Berlin‐Brandenburgischen Akademie der
Wissenschaften an der Universität Rostock. Erstmals wird mit Uwe Johnson ein Schriftsteller
des 20. Jahrhunderts in einem Akademienvorhaben ediert. Es handelt sich um eine auf
Vollständigkeit angelegte, historisch-kritische Edition in drei Abteilungen: Werke, Schriften
und Briefe. Die Ausgabe wird sowohl in gedruckter wie auch digitaler Form erscheinen.
Dabei bieten die 40 geplanten Bände der Buchedition philologisch gesicherte Texte,
angereichert um eine allgemeine Einführung in den jeweiligen Band, sinnstiftende
Kommentare, Korrekturen und Varianten in sprechender Auswahl sowie Erläuterungen zur
Entstehungs- und Überlieferungsgeschichte, exemplarisch dokumentiert an ausgewählte
Abbildungen, orientierende Register und Verzeichnisse schließen jeden Band ab.
Bindeglied zwischen Gedrucktem und Digitalem ist dabei eine seiten- und zeilenidentische
Darstellungsoption, die sich bei Bedarf um die vorhandenen Textvorstufen, Varianten und
weiterführende Erläuterungen ergänzen lässt. Wesentliche materielle Grundlage der Ausgabe
ist das Uwe Johnson-Archiv, das für die Werkausgabe in einem ersten Schritt vollständig
digitalisiert wird. Diese Digitalisate bilden, angereichert mit deskriptiven Metadaten, ein
zentrales Element der digitalen Edition.
Sämtliche Texte werden transkribiert und gemäß den TEI (P5)-Guidelines mit einem XML-
Markup versehen. Diese Auszeichnung dokumentiert einerseits die Textgenese und enthält
andererseits alle kommentierenden Bemerkungen der Herausgeber, sowie schließlich auch
Anknüpfungspunkte für Verbindungen über den einzelnen Text hinaus. Um eine doppelte
Datenhaltung zu vermeiden, wird das Markup so gestaltet, dass daraus – nach dem Prinzip: 1
Text = 1 Datei = X Darstellungen – sowohl die gedruckte wie auch die digitale Edition mittels
XSL-Transformation realisiert werden können. Die für den Druck vorgesehenen Annotationen
werden mit einem speziellen Set von Tags versehen, alle anderen Anmerkungen können so
von den Druckdaten unterschieden werden. Im Digitalen stehen dann die Druck- wie auch alle
weiteren, darüber hinausgehenden Informationen zur Verfügung. Je nach Interessenlage und
Fragestellung des Nutzers lassen sich diese Daten ein- oder ausblenden. Neben der
Vermeidung redundanter Datenhaltung spielen hier weitere Gründe hinein. Zum einen sollen
im Druck ›lesbare‹ Bücher entstehen, die ein Laien- wie auch ein Fachpublikum ansprechen.
Erreicht wird dies durch die Bereitstellung der gesicherten Textbasis sowie die sinnstiftende
Kommentarauswahl. Zum anderen erscheint – auch das eine Premiere für ein
Akademienvorhaben – die Buchedition in einem Publikumsverlag, dem Suhrkamp Verlag.
Dieser hält sämtliche Rechte an den Texten Uwe Johnsons und stellt sie für die Werkausgabe
zur Verfügung.
Bei einer Buchedition ist man an eine ›traditionelle‹ Gliederung eines Œuvres in Abteilungen
und Bände gebunden, allein schon zur Orientierung des Lesers wie auch zur Sortierung
unterschiedlicher Textsorten. Eine solche Ordnung ist aber stets von außen herangetragen und
wird häufig dem Schaffen eines Schriftstellerlebens nur bedingt gerecht. Besonders im Falle
Uwe Johnsons zeigen sich dabei Grenzen. Denn Johnsons Arbeitsweise greift über alle
philologischen Grenzziehungen hinweg: In Briefen werden Prosaversuche unternommen, in
seinen Reden und Schriften kommen Figuren seiner Romane zu Wort, öffentliche
Diskussionen werden Material für poetologische Erörterungen. Diesem Arbeiten wird die
digitale Edition gerecht, indem sie die strengen, von Buchdeckeln gezogenen Schranken
durchlässig werden lässt. So kann die historisch-kritische Kommentierung etwa die
Textgenese, unter Einbeziehung der Archiv-Digitalisate, in einem viel höheren Grad sichtbar
werden lassen, als das durch bloße kommentierende Erörterungen möglich ist. An diesem
Punkt kann dann auch eine semantische Auszeichnung ansetzen, und textinterne wie -externe
Beziehung funktional beschreiben. Das erlaubt schließlich, den von Johnson ausgelegten
Spuren über alle Textgrenzen hinweg zu folgen, etwa in Form graphischer Darstellungen von
Relationen, personellen wie thematischen Verbindungen oder auch historischen und
geographischen Gegebenheiten, seien sie nun im Text besprochen oder Begleitumstände
seiner Entstehung.
Weitere Informationen unter:
http://www.bbaw.de/forschung/johnson/projektdarstellung
http://www.germanistik.uni-rostock.de/forschung/uwe-johnson/werkausgabe/
Digitale Karl Jaspers-Gesamtausgabe
Oliver Immel (AdW-Goe, Jaspers-Edition; Universität Oldenburg)
Kontakt und weitere Informationen:
https://adw-goe.de/forschung/forschungsprojekte-akademienprogramm/jaspers-edition/
http://www.haw.uni-heidelberg.de/forschung/forschungsstellen/jaspers.de.html
Digitale Edition der Werke Grimmelshausens
Jörg Riecke (Germanistisches Seminar, Universität Heidelberg)
Vorgestellt wird die Heidelberger digitale Ausgabe der Schriften Grimmelshausens, die –
gefördert von der Thyssen-Stiftung – in Zusammenarbeit mit der Herzog August Bibliothek in
Wolfenbüttel erarbeitet wurde und kurz vor dem Abschluss steht. Die Bedeutung dieser
Ausgabe soll zunächst vor dem Hintergrund der Editionsgeschichte der Werke
Grimmelshausens erläutert werden, bevor in einem zweiten Teil Möglichkeiten der
semantischen und lexikographischen Erschließung der Ausgabe und deren Wert für die
Grimmelshausen-Philologie und die Sprachgeschichtsforschung insgesamt umrissen werden
können. Das Grimmelshausensche Textcorpus, das in der zweiten Hälfte des 17. Jahrhunderts
entstanden und daher nicht mehr Gegenstand des Sprachstadiums Frühneuhochdeutschen ist,
erweist sich als idealer Baustein für eine exemplarische Schließung der lexikographischen
Lücke zwischen dem Frühneuhochdeutschen Wörterbuch einerseits und – für die frühe
moderne Periode – z.B. des Goethe-Wörterbuchs andererseits. Eine mögliche Erweiterung der
für die digitale Edition verwendeten Erstausgaben um die späteren, stark veränderten
Nachdrucke würde zudem stärker als bisher die Dynamik des Sprachwandels im
17. Jahrhundert zum Ausdruck bringen.
Weitere Informationen unter:
http://www.gs.uni-heidelberg.de/personen/riecke_baer_grmhs.html
Referat als PDF:
http://www.akademienunion.de/fileadmin/redaktion/user_upload/Publikationen/Praesentation
_Workshop_EP/Riecke_GrimmelshausenAkademie.pdf