DHDL 2018 – Programm

Klicken Sie auf den Namen des Projekts, um das entsprechende Abstract angezeigt zu bekommen.

9:45-9:55      Begrüßung durch Ulrich Johannes Schneider (UBL, Direktor; FDHL, Vorstand)
9:55-10:00    Begrüßung durch Manuel Burghardt (UL, Computational Humanities; FDHL, Vorstand)

Block A, moderiert von Ulrich Johannes Schneider (UBL, FDHL)

10:00-10:15
Toninformationsträger – Der Code für die Maschine

Am Ende des 19. Jahrhunderts revolutionierten neue Übertragungs- und Reproduktionsmedien wie Phonographie, Film, Radio und das Selbstspielklavier nicht allein das Musikleben: Sie prägten die gesamte Kultur des 20. Jahrhunderts in einer Weise, die nur noch mit den gesellschaftlichen Entwicklungen nach der Einführung des Internets in den 90er Jahren des vergangenen Jahrhunderts zu vergleichen ist.
Am Musikinstrumentenmuseum der Universität Leipzig haben sich 3200 historische Toninformationsträger für selbstspielende Klaviere, Orgeln und Harmonien erhalten, die im vom BMBF geförderten Digitalisierungsprojekt „TASTEN“ erschlossen und digitalisiert werden.  Im Gegensatz zu Tonträgern, wie Tonband, Schallplatte oder CD speichert der Toninformationsträger keine analogen Audiosignale oder digitalen Audiodaten, sondern codierte Bewegungsimpulse, die auf ein Tasteninstrument zu übertragen sind.
Auf Papierrollen, sogenannten Notenrollen, sind die wesentlichen Informationen für die klingende Repräsentation eines Musikstücks – Tonlängen und Tonhöhen – als Lochcode gespeichert. Diese Notenrollen liegen in einer Vielfalt von Formaten vor, deswegen ist nur ein kleiner Teil dieser Notenrollen heute abspielbar. Hinzu kommt ein konservatorischer Aspekt, denn jeder Abspielvorgang bedeutet eine riskante Beanspruchung des historischen Objekts. Um die Toninformationsträger zu schonen und gleichzeitig die historischen Daten für verschiedenste Weiterverarbeitungen zugänglich zu machen, haben wir beschlossen, die Toninformationsträger vollständig zu digitalisieren. Das bedeutet nicht nur das Scannen der Notenrollen und eine Erhebung von Metadaten, sondern auch ein Festhalten der musikalischen Spezifika in Form von MIDI-Dateien. Die entstehenden digitalen Repräsentationen können beispielsweise für Restaurierungszwecke (Rekonstruktion der durch Beschädigungen verlorenen Töne), Recherchezwecke (Suchen und Vergleichen) oder Analysen (Untersuchung von Spielarten bedeutender Interpreten) genutzt werden.
Bald nach 1900 interessierten sich nämlich berühmte Pianisten der Zeit für ein spezielles Aufnahmeverfahren, bei welchem das Spiel dieser Virtuosen aufgezeichnet und auf Notenrollen übertragen werden konnte.  Die Bedeutung dieser Notenrollen liegt nicht allein darin, dass sie als einzige Quellen des musikalischen Vortrags berühmter Interpreten wie Carl Reinecke, Max Reger oder Arthur Nikisch, von denen keine weiteren Tonaufnahmen vorliegen, ein Desideratum darstellen.  Darüber hinaus ist ihre Bedeutung für die Aufführungs- und Interpretationsforschung immens.
Mittels Distant-Reading Verfahren lassen sich die digitalen Repräsentationen gegenüberstellen. So können Ähnlichkeiten und Besonderheiten der von verschiedenen Virtuosen gespielten Stücke ermittelt und visuell dargestellt werden. Auch ein Vergleich der Metadaten, wie die häufigsten Genres, lässt sich begutachten. Weitergehend lässt sich auch die Diskrepanz zwischen einzelnen Entitäten vergleichen (Stichwort Close-Reading). Dazu zählt die Untersuchung unterschiedlicher Versionen eines einzelnen Werkes oder aber auch die Abweichung eines eingespielten Stückes zu seiner in Druck oder Autograph überlieferten Fassung.

Heike Fricke
Richard Khulusi
10:15-10:30
Vom digitalen Zwilling klingender Knochen –
Computertomographie als Methode zur Untersuchung,
Digitalisierung und Visualisierung von ethnologischen
Muskinstrumenten

Musikinstrumente können als Objekte angesehen werden, die eine Brücke schlagen zwischen dem materiellen und immateriellen kulturellen Erbe. Gerade in ethnologischen Sammlungen europäischer Museen dienen sie oft als Repräsentanten einer kultischen Gruppe, einer Ethnie oder eines bestimmten Rituals und stehen im Zentrum vielfältiger Untersuchungen. Im kulturellen Kontext ihrer Herkunft sind sie fast immer Teil einer eigenen Aufführungspraxis. Der materielle Faktor des Instruments kann dabei eine bedeutende Rolle einnehmen, im Zusammenhang der musealen Präsentation aber durchaus problematisch sein, wie sich am Beispiel einer sog. Schädeltrommel (damaru) aus dem Besitz des Musikinstrumentenmuseums der Universität Leipzig zeigen lässt. Dabei handelt es sich um ein tibetanisches Schlaginstrument, das aus zwei menschlichen Schädelhälften zusammengesetzt ist. Die verwendeten Knochen müssen für die gewünschte spirituelle Wirksamkeit von Jugendlichen stammen, deren Leichen bei einer Luftbestattung aufbewahrt wurden. Der Umstand, dass es sich um menschliche Überreste handelt sowie die Tatsache, dass viele dieser Objekte zur Zeit der Kolonialisierung unter fragwürdigen Umständen gesammelt wurden, führt zu einer Reihe von Überlegungen. Diese betreffen Einschränkungen bei der Ausstellung, eine mögliche Rückführung der Gegenstände in den rituellen Kontext, aber auch die Möglichkeiten der Langzeit-Archivierung derartiger Gegenstände für den Fall einer Rückgabe. Die Schädeltrommel war Teil der Objektauswahl für das DFG-geförderte MUSICES-Projekt, bei dem Richtlinien für die Erstellung und Archivierung von hochauflösenden industriellen Computertomographien von Musikinstrumenten erarbeitet wurden. So existiert nun ein dreidimensionales Röntgenbild und damit ein digitaler Zwilling, der unabhängig vom Original vielfältige Möglichkeiten für Untersuchung und Präsentation bietet. Neben einer kurzen Einführung in die ethische Diskussion um die Behandlung von menschlichen Überresten und rituellen Objekten im Museumskontext erklärt der Vortrag die Grundlagen der industriellen Computertomographie als Untersuchungs- und Archivierungsmethode für Musikinstrumente. Schließlich werden interaktive Visualisierungsmethoden für Computertomographie-Daten mittels Augmented- und Virtual-Reality-Techniken präsentiert, die im Rahmen einer Masterarbeit am Lehrstuhl für Informatik (Abteilung für Bild- und Signalverarbeitung) erarbeitet wurden und ein modernes Konzept des musealen Wissenstransfers darstellen.

Sebastian Kirsch
Jakob Kusnick
10:30-10:45
Kinoorgel re-reloaded

Auch wenn wir von Stummfilm sprechen: Im Kino war es nie leise! Zu Beginn des vergangenen Jahrhunderts wurden Filmvorführungen meist von PianistInnen am Klavier begleitet, besonders luxuriöse Lichtspielhäuser waren sogar mit klanggewaltigen Kinoorgeln ausgestattet, so auch das Palast-Theater in Erfurt. Seine im Jahr 1931 eingeweihte Orgel verfügte nicht nur über Orgelpfeifen, sondern verbarg dazwischen auch akustische Instrumente wie Windmaschinen und Xylophone, Glocken und Trommeln, die von einem Spieltisch aus elektropneumatisch angesteuert werden konnten. Und auch für das Kinoerlebnis so unerlässliche Effekte wie Blitzschläge, Bahnschranken, Telefonklingeln, Autohupen oder Pistolenschüsse durften nicht fehlen. Mit der Erfindung des Tonfilms wurden solche Instrumente rasch obsolet und es ist beinahe ein Wunder, dass die Kinoorgel des Palast-Theaters erst 1960 demontiert wurde. In Hunderte von Einzelteilen zerlegt überdauerte sie im Depot des Musikinstrumentenmuseums der Universität Leipzig, bis sie Anfang unseres Jahrhunderts anlässlich der Bausanierung im Grassi restauriert und wieder aufgebaut wurde. Die einzige Kinoorgel in Sachsen spielte wieder, die MIDI-Schnittstelle, mit der sie anlässlich dieser Restaurierung ausgestattet worden war, fand allerdings zunächst keinen Einsatz. Erst kürzlich wurden in einem Digitalisierungsprojekt des Musikinstrumentenmuseums sämtliche elektrische und digitalen Signale mitsamt ihren zugehörigen pneumatischen Aktionen erfasst, kartographiert, identifiziert und reaktiviert: Mittels MIDI-Schnittstelle kann nun unabhängig vom Spieltisch jeder Klang gespielt, jedes Register gezogen und sogar die Jalousie hinter der Leinwand zur Regulierung der Lautstärke präzise gesteuert werden. Via digitaler Schnittstellen kann die Kinoorgel jetzt auch aus der Distanz gespielt werden, egal ob von einer KonzertorganistIn irgendwo auf der Welt übers Internet oder von ein Smartphone-BesitzerIn im Kinosaal mit einer simplen App. Umgekehrt fungiert der Spieltisch selbst als MIDI-Keyboard, mit dem man andere elektronische bzw. virtuelle Instrumente aus dem Musikinstrumentenmuseum ansteuern kann.

Josef Focht
Dominik Ukolov
10:45-11:00
Computational Film Studies – Computergestützte Ansätze für die Analyse von Filmen und Serien

Der Vortrag zeigt kurz die Geschichte und das Potenzial quantitativer und insbesondere computergestützter Ansätze für die Analyse von Filmen und Serien auf. Dabei wird anhand zweier Prototypen das Spektrum solcher Ansätze illustriert, die von empirischen Vergleichsstudien bishin zu explorativen Analysen im Sinne der Visual Movie Analytics reichen können.

Manuel Burghardt
11:00-11:30 Diskussion  

11.30-12:00    Kaffeepause

Block B, moderiert von Uwe Kretschmer (SAW)

12:00-12:15
Das Projekt „Digital Rosetta Stone“: Erfahrungen und Resultate

The goal of this paper is to present the Digital Rosetta Stone, which is a project developed at the University of Leipzig by the Digital Humanities Chair and the Institute of Egyptology in collaboration with the British Museum and the Digital Epigraphy and Archaeology Project. The Rosetta Stone preserves a decree issued at Memphis in Egypt in 196 BC and its importance is due to the fact that it is written in two languages (ancient Egyptian and Greek) and three scripts (Hieroglyphic, Demotic, and Greek). The goal of the project is to produce a collaborative digital edition of the Rosetta Stone, to address standardization and customization issues as for example the transcription of the Demotic text, and to create data that can be used by students to understand the document in terms of language and content and to read all three scripts in the original. The project is an experiment from a scholarly and a didactic point of view. The results are then used in different courses in Digital Humanities, Digital Philology, and Egyptology. The project has been producing a complete transcription of the three versions of the text and an XML output according to the EpiDoc guidelines. The three versions of the text have been aligned with the iAligner tool “Ugarit” that has also allowed the alignment of the ancient text with modern languages like English and German. The morphology and the syntax of the Greek text have been annotated with the Arethusa Treebanking Editor and have been exported in an XML format. Part of the project was also devoted to taking new pictures of the Rosetta Stone in the British Museum, to produce a 3D model, and annotate the text on high resolution images of the inscription. In the paper, we wish to share experiences in using these digital methods in teaching, show its benefits for Egyptology and comment on the scanning procedure “shape from shading” which we used in the British Museum to create the 3D model.

Monica Berti
Franziska Naether
12:15-12:30
Datenbasierte Erforschung japanischer Videospiele – das Kooperationsprojekt diggr

Im Rahmen des DFG-geförderten Forschungsprojekts diggr (Data-based Infrastructure for Global Game Culture Research) erarbeiten Universitätsbibliothek und Japanologie der Universität Leipzig gemeinsam neue, datenbasierte Perspektiven auf japanische Videospiele im Kontext globaler Videospielkultur. Anhand einschlägiger medien- und kulturwissenschaftlicher Fragestellungen erprobt das interdisziplinäre, sechsköpfige Projektteam im Zeitraum von 2017 bis Ende 2019 Methoden und Prozesse zur datenbasierten Forschung. Im Mittelpunkt steht dabei das Management von Forschungsdaten an Bibliotheken sowie deren erfolgreiche Nutzung durch Forschende. Ziel des Projekts ist der Aufbau einer datengetriebenen Forschungsinfrastruktur, die u.a. Linked Open Data Technologien nutzt. Der Vortrag wird über den aktuellen Stand des Projekts berichten und Einblick in die Erkenntnisse und Herausforderungen bei der Bereitstellung von Forschungsdaten aus Social Media Plattformen zum Zwecke der qualitativen Datenanalyse geben.

Konstantin Freybe
12:30-12:45
Buchstadt Leipzig 1912

Aus dem „Leipziger Adreßbuch 1913“ (92. Jahrgang. Leipzig : August Scherl) wurden die historischen Adressdaten von knapp 2.200 Unternehmen des Leipziger Buchgewerbes in eine Datenbank übertragen und dabei klassifiziert. Die Daten liegen auf GitHub unter dem Account des Deutschen Buch- und Schriftmuseums (https://github.com/buchmuseum/leipzig1912). Das Amt für Geoinformation und Bodenordnung recherchierte die heutigen Äquivalente zu den historischen Adressen und ergänzte Geokoordinaten. In kleineren Projekten werden die Daten um weitere Links und Informationen angereichert. Zusammen mit dem historischen Stadtplan in den offiziellen Themenstadtplan der Stadt Leipzig eingespielt, stehen die Daten für Anreicherungen oder die Anlage weiterer Zeitschnitte zur Verfügung. Zum 75. Jahrestag der Zerstörung des Leipziger Graphischen Viertels im Zweiten Weltkrieg in der Nacht vom 3. auf den 4. Dezember 1943 wird die Karte auf www.leipzig.de freigeschaltet. Die Kartendarstellung speist sich direkt aus den Daten des GitHub-Accounts. Werden die Daten dort von Interessierten weiter ergänzt oder korrigiert, findet das seinen Niederschlag in der Kartendarstellung. Es soll damit ein partizipativer und kooperativer Zugang zur Forschung rund um die Buchstadt Leipzig angestoßen werden. Der jetzt präsentierte Stand ist ein Blick auf einen gerade erst begonnenen Work in Progress. Er zeigt, wie neue Formen der digitalen Zusammenarbeit die musealen Arbeitsweisen verändern können.

André Wendler
12:45-13:00
Digitales Kultur- und Sammlungsmanagement in 3D

Die serielle Erfassung von Kulturgütern in 3D, die neben der Form- auch die Farbinformation abbildet, ist Ziel des Projektes cultur3D, welches an der Schnittstelle zwischen Kulturerbeeinrichtungen (Bibliotheken, Museen, Archive, Sammlungen) und universitären sowie außeruniversitären Wissenschaftsinstitutionen angesiedelt ist. Diese Form der Kulturgutdokumentation und ihrer virtuellen Erschließung ist in den bestandshaltenden und bestandssichernden Institutionen bislang ein Desiderat. Neben der 3D-Dokumentation steht die multimediale Aufbereitung der zugehörigen Metadaten und die virtuelle Präsentation der 3D-Modelle im Fokus. Dazu soll ein Workflow etabliert werden, der nicht nur die Datenspeicherung sondern auch die Informationsvisualisierung erlaubt. Im Anschluss an die Erprobungsphase der zur Verfügung stehenden 3D-Scansysteme wird das 3D-Toolkit für verschiedene Fragestellungen der materiell-objektbezogenen Forschung, der damit verbundenen Rekonstruktion historisch-epistemischer Ordnungsstrukturen und deren Aufnahme, Vernetzung und Repräsentation im digitalen Raum zur Verfügung stehen. Damit wird einzigartiges kulturelles Erbe durch eine neuartige digitale Präsentationsform und multimediale Revitalisierung nachhaltig zugänglich gemacht.

Andreas Christoph
13:00-13:30 Diskussion  

13:30-14:30    Mittagspause

Block C, moderiert von Ulrich Johannes Schneider (UBL, FDHL)

14:30-14:45 Posterslam  
14:45-15:15 Posterpräsentationen  
 
Zedlers fehlende Seite: Von digitaler Quellenkritik zu analogen Erkenntnissen

Das Poster stellt die Ergebnisse einer digitalen Quellenkritik von „Zedler-Lexikon.de“ und die daraus resultierenden Rückschlüsse auf das „analoge“ Universal-Lexicon von Johann Heinrich Zedler (1731-1754) vor. Eine quellenkritische Untersuchung des Webauftritts, in Hinblick auf Vollständigkeit und Korrektheit, zeigte auf, dass entsprechend der Seitenzählung zahlreiche Seiten „doppelt“ vorhanden waren oder „fehlten“. Die Diskrepanz zwischen der Anzahl der Scanbilder und der Seitenzählung stellte sich jedoch bei näherer Untersuchung als ein bereits im analogen Werk bestehender Fehler heraus.Die Abweichung der Seitenzählung in der Frühphase des Lexikons, das über 20 Jahre lang erschien, wies damit auf Schwierigkeiten im zeitgenössischen Buchdruck hin. Eine Untersuchung weiterer Metadaten, die über das Portal Zedler-Lexikon.de ausgelesen wurden, attestierte nicht nur dem Onlineauftritt eine gute Qualität, sondern machte eine Zunahme der durchschnittlichen Artikellänge sichtbar. Diese geht offenbar mit einem Wandlungsprozess des Werkes von einem knappen „Konversationslexikon“ zu einer umfangreichen „Enzyklopädie“ einher.Ausgehend von diesen Metadaten zeigten sich wesentliche Unterschiede sowohl formaler als auch inhaltlicher Natur, zwischen dem „Frühwerk“ (etwa 1731-1738) und dem „Spätwerk“ (1744-1750) sowie bei den Supplementbänden (1751-1752).Damit führte die digitale Quellenkritik und die Auswertung digitaler Metadaten auf eine Spur, die wichtige Erkenntnisse für die Interpretation und Verwendung des Zedlerschen Universal-Lexicons erbrachte.Diese und weitere Ergebnisse werden in der Posterpräsentation detailliert dargestellt und betonen die Wichtigkeit einer engen Verknüpfung von „analoger“ und „digitaler“ Quellenkritik.

Andreas Müller
 
Erkennung von ägyptischen Hieroglyphen in historischen Büchern mit neuronalen Netzen

Schrifterkennung in Bildern ist keine neue Technik. Mit Hieroglyphen sieht man allerdings alt aus. In dieser Arbeit soll ein künstliches neuronales Netz lernen ägyptische Hieroglyphen auf eingescannten Buchseiten zu erkennen. Die Schwierigkeit liegt hierbei wie so oft in den fehlenden Trainingsdaten. Aus einer Bildersammlung von ca. 1200 Hieroglyphen in jeweils 3-6 Varianten werden deshalb Pseudobuchseiten generiert. Als Netzarchitektur dient das 2015 von Ronneberger, Fischer und Brox vorgestellte U-Net, welches gestaltet wurde, um mit wenigen Trainingsdaten umgehen zu können.

Philipp Lang
 
Generierung von Trainingsdaten für die Handschriftenerkennung aus TEI-annotierten Dokumenten

Zum Trainieren maschineller Lernverfahren zur Erkennung von Handschriften werden Textdaten mit korrespondierenden Bildern benötigt. Die Textdaten liegen häufig im TEI-Format das diverse Möglichkeiten eröffnet, um textuelle und semantische Phänomene auszuzeichnen, weiter können gar eigene Tags oder Auszeichnungsarten eingeführt werden. In diesem Beitrag wird ein im EU-Projekt READ entwickeltes parametrisierbares Tool beschrieben, das mit unterschiedlichen Auszeichnungsstilen in TEI umgehen kann und Textdateien auf Seitenbasis liefert, die zur Zuordnung von Text zu Bilddaten (text-to-image) genutzt werden können und somit zur Aufbereitung von Trainingsdaten für Modelle der Handschriftenerkennung dienen. Die gezeigten Beispiele und Anwendungen stammen alle aus Projekten, die ihre Daten für READ zur Verfügung stellten.

Maximilian Bryan
 
Objdetect: Eine Plattform zur Visualisierung von Vorhersagen objekterkennender neuronaler Netze

Im Rahmen unterschiedlicher Projekte und Qualifizierungsarbeiten entstanden und entstehen eine Reihe neuronaler Netze. Diese Netze dienen entweder der Klassifizierung von Bildern oder dem Auffinden von Objekten in Bildern. Um diese neuronalen Netze besser miteinander hinsichtlich unterschiedlicher Architekturen, unterschiedlicher Hyperparameter oder unterschiedlicher Trainingsdaten zu vergleichen und sie einem breiteren Personenkreis verfügbar zu machen, wurde eine Webseite entwickelt, auf der man trainierte neuronale Netze und Bilder hochladen, eine Objekterkennung starten und die Ergebnisse einheitlich visualisieren kann. Die Webseite soll sowohl für Entwickler neuronaler Netze sein, die Ihre Netze vergleichen wollen, als auch für Forscher, die auf ihren Bildern eine Objekterkennung durchführen wollen.

J. Nathanael Philipp
 
Bilderwelten zur Belehrung und Unterhaltung. Die Analyse von Sachillustrationen im Distant Viewing Verfahren

Entwicklung der Bildikonographie in Wissen vermittelnder Kinder- und Jugendliteratur und Schullehrbüchern des 19. Jahrhunderts: ein Distant Viewing AnsatzIn dem von der Fritz Thyssen Stiftung geförderten Kooperationsprojekt der Universitäten Hildesheim (IWIST) und Leipzig (Grundschuldidaktik Deutsch) wird das Spektrum an Illustrationen erfasst, das die Wissen vermittelnde Kinder- und Jugendliteratur des langen 19. Jahrhunderts auszeichnet. Erstmals wird dabei der Versuch unternommen, diese Abbildungen im Distant Viewing Verfahren zu analysieren, wobei deren Reproduktionstechnik, Verbreitung, Häufigkeit und Kompositionsweise genauer in den Blick genommen werden. Auch stilistische und motivische Übernahmen des Bildmaterials werden in den Erfassungsprozess einbezogen. Auf diese Weise sollen Entwicklungen, Tendenzen und innovative Leistungen in der Ikonographie der historischen Kinder- und Jugendliteratur herausgearbeitet und visualisiert werden.Die Grundlage der CNN-basierten Datenanalyse bildet ein 600 Titel umfassender Korpus, der sich aus verschiedenen Typen des illustrierten Kinder- und Jugendsachbuches des 19. Jahrhunderts zusammensetzt und bereits in digitalisierter Form zur Verfügung steht. Hierbei wird auf Digitalisate der Staatsbibliothek zu Berlin (Wegehaupt digital), der Universitätsbibliothek der TU Braunschweig (Sammlung Hobrecker) sowie der Bibliothek für Bildungsgeschichtliche Forschung (pictura paedagogica online) zurückgegriffen. Vergleichend werden Digitalisate historischer Schullehrbücher aus den Beständen des Georg-Eckert-Instituts Braunschweig (GEI-Digital) hinzugezogen.

Wiebke Helm
 
Interaktionale Sprache bei Andreas Gryphius – datenbankbasiertes Arbeiten zum Dramenwerk aus linguistisch-literaturwissenschaftlicher Perspektive

Das Ziel des Forschungsprojekts besteht darin, mit Hilfe einer annotierten Datenbank (auf der Basis der Datenbankarchitektur ANNIS3; http://annis-tools.org/), die das vollständige Dramenwerk von Andreas Gryphius enthält, korpusbasiert Fragen aus literatur- und sprachwissenschaftlich übergreifender Sicht zu klären. Das Projektkorpus besteht aus sämtlichen Dramen von Andreas Gryphius (1616-1664). Die Verschriftlichung folgt der historisch-kritischen Dramen-Ausgabe Eberhard Mannacks in der ‚Bibliothek deutscher Klassiker‘ (1991). Die Texte werden mit Hilfe des Annotationstools WebAnno so aufbereitet, dass in der späteren Projektphase die Datenbank nach den entsprechenden Tags oder einer Kombination aus mehreren Tags beforscht werden kann.Das linguistisch-literaturwissenschaftliche Projekt untersucht seinen Gegenstand im Hinblick auf die Erkenntnisinteressen der beiden Disziplinen mit Hilfe der Möglichkeiten digitaler Geisteswissenschaften und der Korpusanalyse. Dabei erhält das Projekt einen besonderen Mehrwert durch seine Interdisziplinarität und die konsequente und enge Verzahnung beider Fachrichtungen. Hier ergeben sich folgende mögliche Fragestellungen: (i) Welche aus der synchron orientierten Forschung zur konzeptionell mündlichen Sprachverwendung bekannten Phänomene lassen sich in den Dramentexten überhaupt lokalisieren? (ii) Welche tauchen dagegen nicht auf? Welche Gründe lassen sich für das Auftreten bzw. Ausbleiben der Phänomene finden? (iii) Wie korrelieren v.a. im hoch normierten Bereich des Trauerspiels konzeptionelle Mündlichkeit und artifizielle Versifikation? Einzelbefunde aus der Gryphiusforschung sind gezielt mit Blick auf Mündlichkeitseffekte der interaktionalen Sprache in Gryphius’ Dramen weiterzudenken, um die Spezifik seines theatralen Versgebrauchs – auch im Vergleich zur Gestaltung des Alexandriners in vorwiegend nichtdialogischen Kleinformen bei Gryphius (bes. Epigramm, Ode Sonett) – genauer zu bestimmen.Auf dem Poster werden die drei Projektphasen (Texterfassung, Annotation, Analyse) beispielhaft insbesondere mit Blick auf die Annotation der beiden Disziplinen dargestellt. Es soll dabei gezeigt werden, wie mögliche linguistische und literaturwissenschaftliche Annotationen eines historischen Dramentextes aussehen und wie einzelne Fragestellungen mit Hilfe späterer quantitativer Analysen bearbeitet werden können

Lisa Eggert
 
Nicht nur Werkzeuge und Methoden – Die Europäische Sommeruniversität «Kulturen & Technologien»

Die Europäische Sommeruniversität in Digital Humanities «Kulturen & Technologien» fand im Jahr des 600jährigen Jubiläums der Universität Leipzig zum ersten Mal statt. Über die Jahre hinweg hat sie sich nicht nur als einzige Institution dieser Art in einem nicht englischsprachigen Land fest neben dem Digital Humanities Summer Institute (University of Victoria, Canada) und der Digital Humanities at Oxford Summer School (Großbritannien) etabliert, sondern sie gilt mittlerweile auch als die beste Sommeruniversität in den Digital Humanities.Seit 2009 hat sie 500 Personen aller Alters- und Karrierestufen sowie unterschiedlichster fachlicher Provenienzen aus 60 Ländern der ganzen Welt in Digital Humanities aus- oder weitergebildet. Dabei richtet sie den Fokus gerade nicht nur auf Werkzeuge und Methoden, die in den Digital Humanities eine Rolle spielen, oder auf deren Anwendung im Rahmen von Projekten, sondern ordnet diese mittels von Vorlesungen in die Transdisziplin oder besser Epistemologie „Digital Humanities“ ein und diskutiert auch deren sozio- und bildungspolitische Relevanz.Im Unterschied zu anderen Sommerschulen in den Digital Humanities setzt sie gerade nicht auf quantitatives Wachstum, stattdessen will sie ihren 60 Teilnehmerinnen und Teilnehmern und den etwa 25 Lehrenden ermöglichen, fachliche und freundschaftliche Netzwerke zu schaffen, die die Sommeruniversität über Jahre hinweg überdauern. Sie fördert diese Netzwerkbildung dezidiert durch ein reichhaltiges Rahmenprogramm, bei dem sie daraufsetzt, ihrem Titel „Kulturen & Technologien“ durch die Wahl der in Leipzig und Umgebung zu besuchenden Orte gerecht zu werden, sowie durch den entspannten Austausch über Kulturen und Sprachen hinweg bei zahlreichen gemeinsamen Abendessen.Dass all dies nicht ohne Förderung möglich ist, zeigt die Auswahl von Logos auf dem Poster.

Marie Annisius
Elisabeth Burr
Ulrike Fußbahn
Charlotte Hartungen
     
15:15-16:00
Aufbau einer projektübergreifenden Citizen-Science-Plattform für die Geisteswissenschaften, Projektvorstellung mit anschließender Diskussion

Der Einsatz digitaler Technologien ist mittlerweile fester Bestandteil in Citizen-Science- oder Crowdsourcing-Projekten. Sie werden dabei zunehmend in einen Ansatz eingebunden, der im Sinne einer weiten Definition von Public Science den Dialog mit einer interessierten Öffentlichkeit als integralen Bestandteil des Forschungsprozesses realisiert. Dies entspricht der wachsenden Bedeutung des Konzepts einer Public Science in der heutigen Wissensgesellschaft. Wissenschaft und Öffentlichkeit werden dabei in einem engen Bezug zueinander verstanden, der weit über eine unilaterale gesellschaftliche Informations- und Bildungsfunktion von Forschung hinausreicht.Sind in den naturwissenschaftlichen Disziplinen digitale Citizen Science-Methoden fest verankert, werden nun verstärkt auch in den Geisteswissenschaften – etwa im Rahmen von Transkriptionsplattformen wie Transcribathon oder Projekte zur Identifikation von Sammlungsgegenständen – digitale Methoden eingesetzt, um gezielt eine interessierte Öffentlichkeit anzusprechen und am wissenschaftlichen Erkenntnisprozess zu beteiligen. Dies geschieht jedoch nach wie vor und nahezu ausschließlich im Rahmen von Crowdsourcing-Ansätzen und ist in der Regel auf ein ganz konkretes Vorhaben bezogen. So sind europäische Forschungsumgebungen wie Transkribus oder das virtuelle Urkundenarchiv Monasterium.net als Transkriptionsplattformen in der Regel lediglich auf eine einzelne Möglichkeit der Datenerhebung fokussiert.Das an der Universität Erfurt angesiedelte interdisziplinäre Projekt verschiedener fachwissenschaftlicher und -didaktischer Forschungsbereiche setzt hier an und zielt auf den Aufbau einer projektübergreifenden Citizen Science-Plattform zur strategischen Verankerung dialogorientierter Wissenstransferaktivitäten (laufender Projektantrag Dr. Hendrikje Carius/ Forschungsbibliothek Gotha, Prof. Christiane Kuller/Zeitgeschichte, Prof. Patrick Rössler/Kommunikationswissenschaft, René Smolarski/Zeitgeschichte). In diesem Rahmen soll eine modulare Infrastruktur aufgebaut werden, die einen Einsatz in unterschiedlichen Projektkontexten und für jeweils ganz spezifische Fragestellungen erlaubt. Wesentlicher Bestandteil ist die Entwicklung und Erprobung passender Konzepte für die Integration von Citizen Science in die Wissenschaft (Gamification, E-Learning, Kommunikationsstrategie) und deren wissenschaftliche Reflexion aus informations-, geschichts- sowie kommunikationswissenschaftlicher Perspektive. Es gilt darüber hinaus, die spezifischen Funktionsbedingungen interdisziplinärer Citizen Science-Kommunikation theoretisch und empirisch zu erschließen sowie Spannungen zwischen den unterschiedlichen Kommunikationsräumen von (Fach)Wissenschaft und Öffentlichkeit auszuloten. Dieser multiperspektivische Ansatz soll dem Aufbau einer virtuellen Forschungsumgebung für die Geisteswissenschaften zuarbeiten, bei der BürgerInnen an einem breiten Spektrum von Bild- und Textklassifizierungen sowie Auswertungsprozessen historischer Sammlungen und Daten in unterschiedlichen Formen partizipieren können. Erklärtes Ziel der Plattform ist es, das in der Öffentlichkeit vorhandene Interesse an Geistes- und Sozialwissenschaften mit Instrumenten einer digitalisierten Welt für die Forschung zu aktivieren, zu kanalisieren und produktiv in den wissenschaftlichen Arbeitsprozess einzubinden.

Hendrikje Carius
René Smolarski

16:00-16:30    Kaffeepause

Block D, moderiert von Uwe Kretschmer (SAW)

16:30-16:45
Digital Humanities – eine Propädeutik

Was sind die Gegenstandsbereiche von „Digital Humanities“? Handelt es sich um ein Forschungsgebiet, einen inter-, infra- oder gar transdisziplinären Forschungsansatz oder gar ein neues Forschungsparadigma? Wie lässt sich eine derart breite Thematik angehenden Forscherinnen und Forschern nahe bringen? Ist eine Propädeutik sinnvoll, wünschenswert oder überhaupt möglich? Die Potenziale und Entwicklungslinien von „Digital Humanities“ – insbesondere, wenn man diese Potenziale nicht auf Kontexte von Textkritik reduziert – lassen sich nur auf dem Hintergrund eines allgemeinen Verständnisses der Prozesse des „Digitalen Wandels“ angemessen reflektieren.In einem Interdisziplinären Lehrangebot des Instituts für Informatik, das einerseits im Wahlbereich Bachelor GSO und andererseits in der Ausbildung von Informatikern und im Lehramt Informatik verankert ist, führen wir seit dem Sommersemester 2013 Studierende in einem infradisziplinären Diskurs propädeutisch an diese Thematik heran. Dabei wurde eine größere Menge von studentischen Vorträgen gehalten, diese ausführlich diskutiert, Projektarbeiten in diesem Bereich durchgeführt und Seminararbeiten geschrieben. Im Sinne von Open Culture sind alle diese Materialien im Netz verfügbar und erlauben Querbezüge zu früheren Diskussionen sowohl innerhalb des Seminars als auch darüber hinaus. Integraler Bestandteil des Lehrkonzepts sind unsere Interdisziplinären Gespräche, die wir als Semesterhöhepunkt in Form eines Tagesseminars mit weiteren Partnern organisieren.  Am 8.2.2019 wird das bereits 14. derartige Gespräch stattfinden. Das Projekt wurde im Rahmen der 4. Projektkohorte der Labor-Universität Leipzig gefördert.In unserem Beitrag werden wir das Modulkonzept näher vorstellen. Außerdem bieten wir ein Poster für die Ausstellung an.

Hans-Gert Gräbe
Ken Pierre Kleemann
16:45-17:00
Social Hypertext als Medium in Lehre und Forschung

Neben dem Kernprojekt SHRIMP, einem digitalen Seminarreader für ein Einführungsseminar im BA Amerikastudien, haben wir in diesem Jahr die zugrundeliegende Technologie des Social Hypertext auch für peer-feedback im Master und bei der inhaltlichen Weiterentwicklung des Einführungsseminars eingesetzt. Außerdem nutzen wir die Technologie mittlerweile in einem DFGgeförderten wissenschaftlichen Netzwerk zur gemeinsamen konzeptionellen Arbeit, Begriffserschließung und Theorieentwicklung.

Sebastian Herrmann
17:00-17:15 tech4comp – Personalisierte Kompetenzentwicklung durch skalierbare Mentoringprozesse Heinz-Werner Wollersheim
Caroline Mehner
Norbert Pengel
17:15-17:45 Diskussion  

17:45-18:45    Offen für Gespräche