- Auf dem Weg zu einem umfassenden visuellen MusicXML-Werkzeug (Klaus Rettinghaus)
- Biografische Studien zu Mitgliedern der Leopoldina im Nationalsozialismus (Lucy Betke, Petra Rentrop-Koch, Lisa Stolz)
- Das Buchkind im SUCHKIND. Inhaltsbasierte Suche und interaktive Ergebnisexploration von visuellen Kulturdaten (Wiebke Helm, Janos Borst-Graetz, Manuel Burghardt)
- Die UB Leipzig als Datenlieferantin für die DH-Forschung (Helge Perplies, Rico Himpan)
- Die Zukunft von Sammlungs-Repositorien (Michael Becker, Jens Kupferschmidt, Moritz Engelmann)
- Digital Technologies in Archives: A Scoping Review (Vera Piontkowitz, Thomas Efer, Manuel Burghardt)
- From Word to Web – Let’s vibe and code! Ein Selbstversuch. (Margrit Glaser)
- Ist das nicht NERvig? Herausforderungen bei der automatischen Annotation von Eigennamen in Goethes Biographica. (Felix Helfer, Uwe Kretschmer)
- Kafka in Play – Zur computergestützten Spurensuche nach intertextuellen Referenzen in digitalen Spielen (Dîlan Canan Çakir, Manuel Burghardt, Mark Schwindt)
- Kulturdaten als Forschungsdaten: Die Datenbank CARLA – Personen im Kontext des Leipziger Konservatoriums der Musik zwischen 1843-1918 (Anke Hofmann, Elisa Klar)
- Modeling the Canon: Ideas from Computational Canon Studies (Luisa Ripoll-Alberola, Manuel Burghardt)
- Referencing the Immaterial – Normdaten für die Tanz- und Theaterwissenschaften (Philipp Sauer, Melanie Gruß, Caroline Helm, Uwe Kretschmer, Franziska Naether, Patrick Primavesi)
- Tracing Stories of Migration. Jüdische Fluchtschicksale zwischen Wien und Shanghai (Peter Kannewitz, Martin Schlenk)
- VINDA – Visual Interface for Networked Digitized Archives (Marius Behret, Peter Mühleder, Ewa Tomicka-Krumrey, Jannis Klähn, Klaus Schmidt, Willi Hameister, Franziska Naether, Dirk Goldhahn)
- Vom Issue zur Edition: Der Workflow im Forschungsportal BACH (Magdalena Auenmüller, Christine Blanken, Wolfram Enßlin, Nikolas Georgiades, Christiane Hausmann, Bernd Koska, Michael Maul, J. Nathanael Philipp, Nadine Quenouille, Till Reininghaus, Gregor Richter, Sophie Weber, Peter Wollny, Markus Zepf)
Auf dem Weg zu einem umfassenden visuellen MusicXML-Werkzeug
Klaus Rettinghaus (Sächsische Landesbibliothek – Staats- und Universitätsbibliothek Dresden)
Das De-facto-Standardformat für den Austausch von symbolischer Musiknotation ist heute MusicXML. Seit der Veröffentlichung der ersten Version Anfang 2004 sind über zwanzig Jahre vergangen, und das Format hat sich seither erheblich weiterentwickelt. Insbesondere in der neuesten Version 4.0 ist es unter anderem möglich, nahezu die gesamte Palette der im SMuFL-Standard definierten Symbole zu kodieren.
In einer ersten Studie im Jahr 2023 wurden die Exportmöglichkeiten von MusicXML von verschiedenen Notensatzprogrammen untersucht und verglichen. Bis dato war das Programm mit der breitesten Unterstützung MuseScore Studio. Obwohl auch hier Schwächen auftraten, zeigte die untersuchte Funktionalität einen deutlichen Vorsprung gegenüber der Konkurrenz.
In einer erweiterten Untersuchung des Potentials von MusicXML zeigten sich vielversprechende Möglichkeiten die Unterstützung in MuseScore Studio weiter auszubauen. Da letzteres Open Source ist, wurde beschlossen, den Import und Export von MusicXML-Elementen, der bislang nicht oder falsch implementiert war, zu adressieren. Dies ist relativ einfach, da die Entwicklung von MuseScore auf GitHub stattfindet. Bis heute sind zahlreiche Änderungen und Ergänzungen vorgenommen worden, von denen einige bereits in die neuesten Versionen von MuseScore Studio eingeflossen sind.
Die verbesserte Unterstützung von MusicXML verspricht den Musikwissenschaften signifikante neue Impulse für das Erkenntnispotenzial datengetriebener Projekte, denn je mehr musikalische Informationen in exportierten Dateien erhalten werden können, desto mehr Sachverhalte können in großen Repertoires untersucht werden. Aber auch die höchst wünschenswerte Vereinheitlichung von Notenbeispielen in musikwissenschaftlichen Publikationen (inklusive deren einfacher Nachnutzung) liegt damit zum Greifen nah. Das ultimative Ziel wäre es also, mit MuseScore Studio ein umfassendes visuelles MusicXML-Werkzeug zu haben, das in der Lage ist, alle Details im Umgang mit MusicXML-Dateien zu bewahren.
Das Poster möchte einen Einblick in die bislang beigesteuerten Erweiterungen, den aktuellen Funktionsumfang geben. Digital Humanists sollen eingeladen sein, sich an der weiteren Entwicklung von MuseScore Studio zu beteiligen.
Website: https://github.com/rettinghaus/musescore-musicxml/
Biografische Studien zu Mitgliedern der Leopoldina im Nationalsozialismus
Lucy Betke (Nationale Akademie der Wissenschaften Leopoldina), Petra Rentrop-Koch (Leopoldina), Lisa Stolz (Leopoldina)
Auf welcher Karte finde ich ein Land, das es nicht mehr gibt?
Kartenvisualisierungen gehören zu den Standards der Digital History. Sie erlauben einen Einstieg in komplexe Daten und machen – vor allem in erinnerungskulturellen Kontexten – ein Identifikationsangebot. Zwar ist uns die Darstellung spezifischer Orte auf Karten mehr als vertraut, die Umsetzung solcher Visualisierung auf Basis historischer Daten ist jedoch alles andere als trivial. Gerade für die erste Hälfte des 20. Jahrhunderts, das in Europa von ständigen Verschiebungen in der politischen Geografie geprägt ist, ergeben sich eine ganze Reihe von Problemen: Wie verfährt man mit sich über die Zeit mehrfach ändernden Namen für Städte und Orte? Legt man eine politische Karte zu Grunde und wenn ja, welche? Wie lässt sich den Komplexitäten von Verortung im historischen Wandel pragmatisch begegnen? Wie muss die Nutzung von Normdaten, die zwar eindeutig referenzieren aber eben auch auf modernen politischen Karten basieren, reflektiert werden? Und was ist, wenn die Quellenlage keine genaue Ortsangabe zulassen?
Das Poster zeigt, wie im Projekt „Biografische Studien zu Mitgliedern der Leopoldina im Nationalsozialismus“ diesen Herausforderungen begegnet wird. Gerade die von imperialen Bestrebungen geprägte Zeit zwischen 1933 und 1945 erfordert eine besondere Sensibilität im Umgang mit Fragen der politischen und geografischen Zugehörigkeit von Städten und Regionen. Ziel des Projektes ist es gleichwohl die Lebenswege und damit auch die geografischen Stationen der Akademiemitglieder nachzuvollziehen. Karten helfen hier sowohl regionale Netzwerke zu erkennen als auch Geschichten von Verfolgung und Vertreibung von Wissenschaftler:innen im NS sichtbar zu machen. In einem iterativen Aushandlungsprozess zwischen historischer Genauigkeit, technischer Umsetzbarkeit und Arbeitspragmatik hat das Projekt hier eigene Lösungen gefunden, die im Rahmen der Posterpräsentation vorgestellt werden.
Website: https://www.leopoldina.org/ueber-uns/zentrum-fuer-wissenschaftsforschung/projekte/biographische-studien-zu-den-leopoldina-mitgliedern-im-nationalsozialismus/
Das Buchkind im SUCHKIND. Inhaltsbasierte Suche und interaktive Ergebnisexploration von visuellen Kulturdaten
Wiebke Helm (Erziehungswissenschaftliche Fakultät, Universität Leipzig), Janos Borst-Graetz (Computational Humanities Gruppe, Universität Leipzig), Manuel Burghardt (CH-Gruppe, UL)
Das Spiel und die Kinderbuchlektüre gelten neben dem Schulbesuch als Marker von Kindheit. Sie unterliegen jedoch gesellschaftlichen Konventionen und deren Transformationen. Das Forschungsprojekt „Buchkindheiten digital“ widmet sich den Vorstellungen von Kindheit im Verlauf des langen 19. Jahrhunderts und untersucht ihren Wandel anhand von visuellen Darstellungen des spielenden, lernenden und lesenden Kindes im historischen Kinderbuch. Dafür wurden zunächst über 300.000 Buchillustrationen aus der Sammlung COLIBRI mit KI-gestützten Methoden herausgelöst. Sie werden derzeit über die Suchmaschine SUCHKIND inhaltlich erschlossen.
Die vorzustellende Suchmaschine kombiniert auf der Grundlage eines CLIP-Modells multimodale Bild-Text-embeddings mit verschiedenen Klassen von semi-automatisch annotierten Szenenkategorien (bspw. Spiel-, Lehr- und Leseszenen). Letztere können für die gezielte Suche auf der web-basierten Nutzeroberfläche logisch miteinander verknüpft und zusätzlich durch beliebige Keywords aus dem CLIP-Modell eingeschränkt werden. Darüber hinaus erlauben Filter- und Sortieroptionen eine weitere Eingrenzung der jeweiligen Suchmenge. Auf diese Weise können Subkorpora gebildet und durch die Selektionsfunktion samt Metadaten für die weitere Auswertung exportiert werden. Außerdem ist es möglich, ausgehend von einem bestimmten Bild, weitere ähnliche Abbildungen anzuzeigen. Damit können nicht nur Aussagen zur Bedeutung und Relevanz eines Motivs zu einer bestimmten Zeit, sondern auch zu dessen Verbreitung abgeleitet werden, was wiederum Aufschluss über den zeitgenössischen Bildhandel und die verlegerische Praxis gibt.
SUCHKIND steht sinnbildlich für eine g[AI]steswissenschaftliche Praxis, die algorithmische Präzision mit hermeneutischer Offenheit verbindet und damit die Diltheysche Trennung von Erklären und Verstehen neu austariert. Im Zusammenspiel von KI-gestützter Analyse und geisteswissenschaftlicher Interpretation zeigt sich, dass Künstliche Intelligenz das Denken nicht ersetzt, sondern im Sinne explorativer Zugänge alternative Verstehensperspektiven eröffnet.
Die UB Leipzig als Datenlieferantin für die DH-Forschung
Helge Perplies (Universitätsbibliothek Leipzig), Rico Himpan (UBL)
Die UB Leipzig macht es sich zur Aufgabe, vorhandene und kontinuierlich erzeugte Daten für Forschungsfragen der DH-Community bereitzustellen. Das betrifft insbesondere – aber nicht exklusiv – die herausragenden und unikalen Sonderbestände, die an der UB Leipzig erschlossen und digitalisiert werden. Dabei entstehen bibliographische und technische Metadaten, Strukturdaten zu Werken und Objekten, textuelle Erschließungsdaten wie Handschriftenbeschreibungen sowie Normdaten; außerdem Bilddaten in Form von Digitalisaten von Texten und Bildern. Künftig werden auch Volltextdaten von Handschriften, Drucken und Nachlassmaterialien stärker in den Blick genommen und zusammen mit Ground Truth-Daten und Text Recognition-Modellen als Forschungsdaten der DH-Community zur Verfügung gestellt. Das Poster stellt die verschiedenen Datentypen und die Transferwege für die Daten vor, und lädt zum offenen Austausch darüber ein, welche Daten darüber hinaus für die DH-Forschung von Interesse wären.
Die Zukunft von Sammlungs-Repositorien
Michael Becker (Universitätsrechenzentrum, Universität Leipzig), Jens Kupferschmidt (URZ), Moritz Engelmann (URZ)
Das URZ der Universität Leipzig betreibt verschiedene Anwendungen zur Verwaltung von Metadaten für Sammlungen, z.B. die Sammlungs-Plattform, Bach digital und das Handschriftenportal Qalamos. Zur Aufnahme der Metadaten wird das Repository-Framework MyCoRe verwendet. Bisher lag der Fokus auf der Verwaltung der Metadaten. In Zukunft sind Fragen bezüglich der Zugänglichkeit, Visualisierung und KI-basierten Verarbeitung der Daten zu beantworten. Folgende Aspekte werden u.a. adressiert:
* Ansätze zur Visualisierung und zur Suche in ortsbezogenen Daten: Insbesondere in Anwendungen mit historischen Daten (wie z.B. historische Ortsnamen) ist es oftmals einfacher, eine kartengestützte Such-Funktion zu verwenden. Dazu sind Metadaten möglichst automatisiert um Koordinaten anzureichern und visuelle Suchmöglichkeiten bereitzustellen.
* Nutzung LLM-basierter Ansätze zur Anreicherung und Verbesserung von Metadaten: Die händische Eingabe neuer sowie die Kontrolle existierender Metadaten ist mit großem Arbeitsaufwand und auch Fehlerpotential verbunden. In den Sammlungs-Anwendungen des URZ werden derzeit verschiedene Validierungen genutzt, um die Metadaten-Qualität zu gewährleisten. Wir testen Ansätze, mit denen einfacher Duplikate und Inkonsistenzen in den Daten gefunden werden können. Herausforderungen sind hier insbesondere die große Heterogenität der Daten.
* natürlich-sprachliche Suche in Repositorien unter Verwendung von LLMs: Eine Repository-Suche erfolgt derzeit in der Regel über Volltext-Suchen sowie die anschließende Facettierung zur weiteren Eingrenzung von Ergebnissen. Insbesondere bei großen Repositorien und komplexen Klassifikationen ist das für Außenstehende mit großen Hürden verbunden. Wir untersuchen neue Herangehensweisen, um einerseits die Suche zu vereinfachen und mittels des Einsatz‘ von LLMs natürlich-sprachliche Suchanfragen zu unterstützen, z.B. durch den Einsatz von Synonymen. Andererseits ist zu klären, ob eine Rückgabe einzelner Suchergebnisse noch zeitgemäß ist und stattdessen eher automatisch erzeugte Zusammenfassungen der Ergebnisse sinnvoll sind. Hier ist zu prüfen, ob allgemeine LLMs nutzbar sind oder ob Repository-spezifische LLMs genutzt werden müssen.
Websites: https://www.qalamos.net/; https://sammlungen.uni-leipzig.de/; https://www.bach-digital.de/
Digital Technologies in Archives: A Scoping Review
Vera Piontkowitz (Computational Humanities Gruppe, Universität Leipzig), Thomas Efer (CH-Gruppe, UL), Manuel Burghardt (CH-Gruppe, UL)
This poster presents a scoping review of digital technologies applied in archival practice between 2015 and early 2025. While archives face increasing pressure to provide access, preserve authenticity, and adapt to rapidly changing digital environments, no systematic overview of technology adoption has yet been undertaken. Using a corpus of 302 publications retrieved from six major databases, this review maps the current landscape across five guiding research questions. We identify the technologies discussed in archival contexts, examine how they relate to core archival tasks, and explore emerging trends, paradigms, and required resources. The findings provide a broad picture of the current state of digital technologies in archives and highlight both persistent gaps and future directions for research and practice.
From Word to Web – Let’s vibe and code! Ein Selbstversuch.
Margrit Glaser (Klassik Stiftung Weimar)
Was passiert, wenn eine Editorin ihre eigene gedruckte Edition digitalisiert – ohne Programmierkenntnisse, aber mit viel #vibecoding-Energie?
Das Projekt erprobt am Beispiel der zweibändigen Edition „Carl Ludwig Fernow: Rom ist eine Welt in sich. Briefe 1789–1808“ (Göttingen 2013) die Transformation traditioneller Editionsarbeit in semantisch vernetzte, maschinenlesbare Daten.
Ausgangspunkt ist ein klassisches editorisches Szenario: Die wissenschaftliche Edition entstand in MS Word, erschien gedruckt und bleibt aber digital völlig unsichtbar. Nach einer Summer School bei Christopher Pollin im September 2025 begann mein Selbstversuch: Kann eine Geisteswissenschaftlerin ihre eigenen Forschungsdaten mit KI-assistierten Werkzeugen ins digitale Zeitalter überführen?
Proof of Concept
In nur zwei Arbeitstagen entstand eine TEI-basierte Demoversion mit elf Briefen – ein Prinzipnachweis, kein Endprodukt. KI-gestützte Tools, von automatischer Struktur- und Metadatenerkennung bis zu Prompt-Engineering-gestützter Codierungshilfe, wurden experimentell eingesetzt.
Die Erkenntnis: Gute Philologie bleibt das Fundament einer guten digitalen Edition – KI kann sie unterstützen, aber nicht ersetzen. Ebenso wichtig ist aber Neugier und eine Affinität zu neuen Arbeitsweisen!
Bezug zum Konferenzthema
Das Projekt steht exemplarisch für die neue Rolle von Editor:innen als „Promptotypist:innen“ zwischen Hype und Handwerk:
• Promptotyping und Vibe Coding dienen als niedrigschwellige Brückentechnologien für Geisteswissenschaftler:innen ohne Programmierhintergrund.
• KI-gestützte Text- und Strukturvorschläge erleichtern den Einstieg in XML-basierte Standards wie TEI.
• Der Prozess verdeutlicht, dass Digital Humanities mit gutem Handwerk beginnen – und durch KI-Methoden erweitert werden können.
Ausblick
Die erprobten Strukturen lassen sich auf alle 300 Briefe der Fernow-Edition übertragen. Langfristiges Ziel ist eine offene, semantisch vernetzte digitale Edition, die klassische editorische Qualität mit modernen, KI-unterstützten Arbeitsweisen verbindet.
Ist das nicht NERvig? Herausforderungen bei der automatischen Annotation von Eigennamen in Goethes Biographica.
Felix Helfer (Sächsische Akademie der Wissenschaften zu Leipzig), Uwe Kretschmer (SAW Leipzig)
Die automatische Erkennung von Eigennamen (Named Entity Recognition, NER) ist eigentlich ein gelöstes Problem. So war zumindest unsere Annahme, als wir Goethes Biographica mithilfe von Entity Linking anreichern wollten, also der Verlinkung von Eigennamen mit passenden Einträgen in einer Wissensbasis. Schnell stellte sich aber heraus, dass bei diesem ersten Schritt, also die Eigennamen überhaupt erst zu annotieren, gängige Tools und Software-Bibliotheken nur unzureichende Ergebnisse lieferten. Das vermutete Problem? Etablierte Modelle sind vor allem für die Anwendung auf Quellen in deutscher Gegenwartssprache ausgelegt und trainiert. Bei unseren Textquellen, Briefe und Tagebucheinträge aus dem 18. und 19. Jahrhundert, kommen sie jedoch schnell an ihre Grenzen.
Unser Poster bespricht zunächst einige Fehlerquellen existierender Werkzeuge. Dabei werden False Positives (Textspanne fälschlich als Eigennamen ausgezeichnet) und False Negatives (nicht erkannte Eigennamen) gleichermaßen betrachtet. Auch die Tücken der Formatierung digitaler Quellen und deren Einfluss auf die NER soll kurz beleuchtet werden.
Dann präsentieren wir laufende und geplante Experimente zur Verbesserung der Eigennamenerkennung. Wir vergleichen mehrere Out-of-the-box-Lösungsansätze wie spaCy, flair, GLiNER und Llama3 miteinander, sowie mehrere durch Finetuning weiter trainierte Modelle. Unsere primäre Forschungsfrage: Können mit einem solchen Nachtrainieren bestehende Modelle besser auf historische Quellen in den betreffenden Zeiträumen spezialisiert werden? Und: sind existierende Datensätze dafür überhaupt ausreichend? Denn auch die verwendeten Daten und deren Effekt auf das Finetuning soll beleuchtet werden. So sind ein Zeitungsartikel aus dem 17. Jahrhundert und ein Ministerratsprotokoll von 1918 zwei sehr unterschiedliche Quellen – in vielerlei Hinsicht!
Die vergleichsweise geringe Anzahl annotierter Daten für spezifische historische Zeiträume stellt dabei eine ganz eigene Herausforderung dar, zeigt gleichzeitig jedoch auch dessen große Relevanz. Gerade in digitalen Kulturdaten ist eine tiefe Erschließung von hoher Relevanz für deren weitere Beforschbarkeit in den Digital Humanities. Man muss eben nur die NERven behalten…
Kafka in Play – Zur computergestützten Spurensuche nach intertextuellen Referenzen in digitalen Spielen
Dîlan Canan Çakir (Freie Universität Berlin), Manuel Burghardt (Computational Humanities Gruppe, Universität Leipzig), Mark Schwindt (FU Berlin)
Game Studies und Digital Humanities sind zwei Felder, die in besonderer Weise Interdisziplinarität verkörpern und aus unterschiedlichen Perspektiven untersuchen, wie digitale Medien neue Formen kultureller Ausdrucks- und Erkenntnisprozesse ermöglichen. Im Zentrum des Leipziger Projekts Kafka in Play steht das Phänomen Franz Kafka und seine intertextuelle und intermediale Präsenz in digitalen Spielen. Ziel ist es, die vielfältigen Verweise auf Werk und Person Kafkas in Spielen zu erfassen, zu klassifizieren und in ihrer medialen Ausprägung zu analysieren.
Dazu erfolgt zunächst ein entscheidender Übersetzungsschritt: Das multimodale Phänomen Spiel wird in eine sprachliche Repräsentation (vgl. „the language of gaming“; Ensslin, 2017) überführt. Dabei handelt es sich um textuelle Beschreibungen von Spielen, wie sie in großer Zahl online verfügbar sind – etwa in Spieleforen, Reviews oder Walkthroughs (vgl. Burghardt & Tiepmar, 2021). Mit Methoden des Text Mining wird in solchen Dokumenten nach Spuren Kafkas im digitalen Spiel gesucht. Die im Rahmen des Posters vorgestellten ersten Experimente konzentrieren sich auf eine explorative Typologie dieser Referenzen. Sie reichen von expliziten Verweisen auf die Person Franz Kafka (vgl. The Franz Kafka Videogame) über Anspielungen auf sein Werk (vgl. Metamorphosis oder Playing Kafka) bis hin zu subtilen, indirekten Anspielungen (vgl. Resident Evil 2, ATOM RPG). Dabei werden verschiedene Modi der Bezugnahme – textuelle, visuelle und ludologische, d.h. in der Spielmechanik verankerte – unterschieden, um das Spektrum der intermedialen Kafka-Rezeption im Medium Spiel sichtbar zu machen. Die Analyse solcher Referenzen eröffnet nicht nur neue Einblicke in die digital-vermittelte Rezeption kanonischer Literatur, sondern legt zugleich Rezeptionsspuren bei den Spielenden frei – etwa, was als Kafka-Referenz wahrgenommen oder gar als kafkaesk empfunden wird. Erste Befunde deuten hier auf eine zunehmende Verselbständigung kafkaesker Bilder hin, wie sie in der Literatur bereits als „popkafkaeske“ Umdeutungen beschrieben wurden (Krauß, 2022).
Mit dem Poster wird exemplarisch aufgezeigt, wie digitale Medien, computergestützte Verfahren und geisteswissenschaftliche Interpretation in produktiven Austausch treten können um so Phänomene der Intertextualität und der Remediatisierung im digitalen Zeitalter zu untersuchen.
Literatur:
– Burghardt, M., & Tiepmar, J. (2021). The Game Walkthrough Corpus (GWTC)–A Resource for the Analysis of Textual Game Descriptions. Journal of Open Humanities Data, 7.
– Ensslin, A. (2017). The language of gaming. Bloomsbury Publishing.
– Krauß, F. (2022). Kafka und das Kafkaeske. Lektüren aus rezeptionstheoretischer Sicht (Die Sorge des Hausvaters; Der Proceß; Das Schloß; Der Verschollene) (Doctoral dissertation, Dissertation, Erlangen, Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU), 2022).
Kulturdaten als Forschungsdaten: Die Datenbank CARLA – Personen im Kontext des Leipziger Konservatoriums der Musik zwischen 1843-1918
Anke Hofmann (Hochschule für Musik und Theater „Felix Mendelssohn Bartholdy“ Leipzig, Bibliothek und Archiv), Elisa Klar (HMT Leipzig, Bibliothek und Archiv)
Im Archiv der Hochschule für Musik und Theater „Felix Mendelssohn Bartholdy“ Leipzig befinden sich für die Forschung relevante Quellenmaterialien zur Geschichte des Leipziger Konservatoriums, die lange Zeit weder ausreichend erschlossen noch online verfügbar waren. Aus den seit der Gründung des Hauses 1843 aufbewahrten Studienunterlagen lassen sich viele Informationen zu den Personen gewinnen, die am Konservatorium wirkten. Mit CARLA haben Bibliothek und Archiv der HMT Leipzig eine digitale Forschungsumgebung zur Geschichte des Leipziger Konservatoriums für Musik entwickelt, die für den Zeitraum 1843-1918 biografische Daten der internationalen Studierendenschaft, ihre Lehrenden sowie deren unterrichteten Fächer nachweist. Das Poster gibt einen Überblick zur Datenbank CARLA, wobei insbesondere Ansätze zur Schaffung und Wahrung von Datenqualität in CARLA anhand der FAIR-Prinzipien beleuchtet werden. Zudem werden partizipative Vorhaben, die die gewonnenen Daten über die Anbindung an das Wikiversum einer größeren Wissensgemeinschaft zur Verfügung stellen, vorgestellt.
Website: https://carla.hmt-leipzig.de
Modeling the Canon: Ideas from Computational Canon Studies
Luisa Ripoll-Alberola (Computational Humanities Gruppe, Universität Leipzig), Manuel Burghardt (CH-Gruppe, UL)
The historical process of selection of authoritative authors and works (what we refer as „canonisation process“) is too wide to study only through close reading. Before the computational turn, models of canonisation remained largely hypothetical. Now, Digital Humanities offer a new perspective and enable quantitative investigation of these processes.
This study examines references to ancient authors and works in academic discourse in both sciences and humanities. Analysis of citation data (extracted from dictionary string-matching methods as well as LLM-supported search) supports two theoretical models: (1) the idea that canon is more than the binary contraposition of important vs non-important authors, but could be otherwise defined as a three-tier structure, and (2) a model of language-mediated canonisation, developed through the comparative analysis of two scientific communities in different languages. In the former model, we highlight the existence of a hypercanon–body of authors whose presence persists over time and whose citation functions performatively to project scholarly authority. In the second model, language differences create and consolidate scientific communities, determining the community’s general research topics and, more specifically, how those relate to canonical authors.
Our research, part of the European project MECANO, has the ultimate goal of understanding canon in different genres and historical periods, providing a general model of canonisation processes.
Referencing the Immaterial – Normdaten für die Tanz- und Theaterwissenschaften
Philipp Sauer (Sächsische Akademie der Wissenschaften zu Leipzig), Melanie Gruß (Universität Leipzig), Caroline Helm (UL), Uwe Kretschmer (SAW Leipzig), Franziska Naether (SAW Leipzig), Patrick Primavesi (UL)
Zur eindeutigen Referenzierung von Personen, Institutionen oder Objekten sind Normdatenquellen unverzichtbarer Teil der Linked Open Data Welt. Für die Forschung zu immateriellem Kulturerbe – vor allem in den darstellenden Künsten, aber auch zu Brauchtümern und Handwerkspraktiken – gibt es dagegen kaum Quellen für eindeutige und persistente Identifier. Einerseits sind deren Forschungsgegenstände, anders als materielle Objekte, weniger präzise greif- und abgrenzbar, andererseits haben sie in der bibliothekarischen und musealen Sammlungspraktik historisch eher Nebenrollen gespielt.
Die Gemeinsame Normdatei (GND) der Deutschen Nationalbibliothek erfasst zwar theoretisch auch Werke der darstellenden Künste, diese Datensätze sind aber meist nur rudimentär ausgestaltet und lassen wichtige Informationen wie die Premierendaten der Stücke und Inszenierungen vermissen. Um verschiedene Datenquellen zu Tanz- und Theater zu verbinden und einen gemeinsamen Referenzrahmen für die Forschung schaffen zu können, soll deshalb im Kooperationsnetzwerk NFDI4Culture ein Service entstehen, der ereignisbezogene Aufführungs- und Produktionsdatensätze zusammenführt. Dabei sollen Quellen wie aktuelle Spielplan-Daten aus dem „Datenraum Kultur“ oder vom Deutschen Bühnenverein und Datensätze einzelner Forschungsprojekte wie dem an der Sächsischen Akademie der Wissenschaften und der Universität Leipzig durchgeführten Projekt „Tanz in der DDR“ in einer WikiBase-Instanz verbunden und als LOD-Ressource verfügbar gemacht werden. Im Zentrum stehen dabei Inszenierungen und ihre Aufführungsereignisse.
Tracing Stories of Migration. Jüdische Fluchtschicksale zwischen Wien und Shanghai
Peter Kannewitz (Computational Humanities Gruppe, Universität Leipzig), Martin Schlenk (CH-Gruppe, UL)
Zwischen 1938 und 1941 flohen etwa 17.000–18.000 europäische Jüdinnen und Juden vor der nationalsozialistischen Verfolgung nach Shanghai, eine der wenigen Städte weltweit, die seinerzeit zur Einreise kein Visum verlangte. Das im Rahmen des Moduls „Computational Spatial Humanities“ bei Dr. Thomas Efer entstandene Projekt macht diese Fluchtbewegung über eine interaktive Kartenanwendung digital erkundbar und legt dabei den Fokus auf die räumliche Verteilung der Geflüchteten in Shanghai.
Die Herausforderung lag in der Zusammenführung heterogener historischer Quellen: Der 1944 von den japanischen Besatzern durchgeführte Zensus erfasst nahezu vollständig die europäischen Flüchtlinge in Shanghai (14.794 Personen), jedoch ohne maschinenlesbare Georeferenzierung. Die sogenannten Wiener Auswanderungsfragebögen (1938–1940) enthalten detaillierte biographische Informationen, liegen aber nur als digitalisierte Scans bei MyHeritage.com vor. Hinzu kommen Listen des Joint Distribution Committee sowie historische Stadtpläne und Adressverzeichnisse von Virtual Shanghai.
Das Projekt leistet einen methodischen Beitrag zur Spatial Digital History, indem es zeigt, wie durch Geocoding historischer Adressen (90,89% exakte Matches, 7,79% Fuzzy-Matches) räumliche Muster sichtbar gemacht werden können. Die innerstädtische Verteilung einer ganzen Bevölkerungsgruppe über zwei geografisch weit entfernte Städte hinweg ist historisch selten dokumentiert. Die Anwendung richtet sich sowohl an Forscher:innen (quantitative Analysen zu Segregation, Netzwerken, soziodemographischen Faktoren) als auch an Genealog:innen und die interessierte Öffentlichkeit. Die reproduzierbare Entwicklungsumgebung mit Nix gewährleistet Nachhaltigkeit und Erweiterbarkeit des Projekts.
VINDA – Visual Interface for Networked Digitized Archives
Marius Behret (Sächsische Akademie der Wissenschaften zu Leipzig), Peter Mühleder (SAW Leipzig), Ewa Tomicka-Krumrey (SAW Leipzig), Jannis Klähn (SAW Leipzig), Klaus Schmidt (SAW Leipzig), Willi Hameister (SAW Leipzig), Franziska Naether (SAW Leipzig), Dirk Goldhahn (SAW Leipzig)
Auf diesem Poster präsentieren wir ein webbasiertes Tool zur Visualisierung und Exploration digitaler Sammlungen sowie ihrer Metadaten und Forschungsdaten. Es wurde im Frühjahr 2025 im Rahmen eines Forschungsprojekts an der Sächsischen Akademie der Wissenschaften zu Leipzig über die deutsch-polnische Wissenschaftsgesellschaft Societas Jablonoviana (1774–1992) entwickelt.
Die Datengrundlage bildet der mehrsprachige Nachlass der Societas Jablonoviana (über 35.000 Seiten), angereichert durch Normdaten und erschlossen in einer Forschungsdatenbank. Auf dieser Basis entstand ein erster Prototyp der Visualisierungs-App, der im Juni 2025 im Rahmen der „Langen Nacht der Wissenschaften“ in Leipzig öffentlich vorgestellt wurde.
Das Interface besteht aus zwei gleichwertigen Komponenten:
1. Einem kontinuierlich scrollbaren „Stream“ durch die Objekte des Nachlasses, organisiert als interaktives Mosaik – eine immersive Sammlungserfahrung im Sinne eines „generous interface“ (Whitelaw 2015), die Exploration und Kontextualisierung ermöglicht.
2. Einer datenbasierten Ansicht mit einer interaktiven Visualisierung des Korrespondenznetzwerks.
Theoretisch inspiriert ist das Interface-Design an Bruno Latours (1993) Konzept der Irreduktion: Die Datenansicht strukturiert nicht vor, sondern erzeugt Bedeutung durch Nutzung. Jede Interaktion aktiviert eine neue semantische Zusammensetzung – der Erkenntnisraum entsteht im Zusammenspiel von Objekt und Nutzer:in. Dabei werden weder die Objekte auf ihre Metadaten reduziert, noch die Daten auf die Objekte. Bedeutung entsteht relational, durch das fortlaufende Verknüpfen, Navigieren und Kontextualisieren in der Nutzung.
Technisch basiert der Prototyp auf modernen Webtechnologien, insbesondere TypeScript und SvelteKit. Für die Bereitstellung der Digitalisate wird ein IIIF-Bildserver verwendet, der Objektstream wurde mit PixiJS (WebGL) umgesetzt und die Netzwerkvisualisierung mit Sigma.js.
Im Zusammenspiel von technischer Umsetzung und theoretischen Überlegungen wird so ein experimenteller Umgang mit digitalen Sammlungen erprobt. Damit leistet das Projekt einen Beitrag zur Erforschung und Gestaltung interaktiver Zugänge zu digitalen Archivbeständen.
Bibliographie:
Latour, Bruno: The Pasteurization of France. Harvard University Press 1993.
Whitelaw, Mitchel: Generous Interfaces for Digital Cultural Collections, DHQ 9/1. 2015.
Website: https://www.saw-leipzig.de/de/projekte/societas-jablonoviana
Vom Issue zur Edition: Der Workflow im Forschungsportal BACH
Magdalena Auenmüller (Sächsische Akademie der Wissenschaften zu Leipzig), Christine Blanken (Bach-Archiv Leipzig), Wolfram Enßlin (SAW Leipzig), Nikolas Georgiades (Bach Archiv), Christiane Hausmann (Bach Archiv), Bernd Koska (Bach Archiv), Michael Maul (Bach Archiv), J. Nathanael Philipp (SAW Leipzig), Nadine Quenouille (SAW Leipzig), Till Reininghaus (SAW Leipzig), Gregor Richter (SAW Leipzig), Sophie Weber (SAW Leipzig), Peter Wollny (Bach Archiv), Markus Zepf (Bach Archiv)
Im Rahmen des Langzeitvorhabens ‚Forschungsportal BACH‘ wurde ein strukturierter Workflow entwickelt, der die Vielzahl an Arbeitsschritten von der Archivrecherche bis zur Veröffentlichung einer digitalen Edition systematisch abbildet und koordiniert. Dieser Workflow integriert automatisierte Prozesse, manuelle Bearbeitungsschritte sowie qualitätssichernde Kontrollphasen, um in einem interdisziplinären Team mit unterschiedlichen Kompetenzniveaus eine konsistent hohe Editionsqualität sicherzustellen.
Zur technischen Umsetzung wurde eine GitLab-basierte Infrastruktur etabliert, in der die einzelnen Arbeitsschritte mit Hilfe von Issues modelliert und mit den jeweils eingesetzten Werkzeugen (Forschungsportal, Darktable, Transkribus, TEI Publisher Annotationstool) verknüpft wurden. Das zugrunde liegende GitLab-Repository fungiert dabei nicht nur als zentrale Koordinationsplattform, sondern zugleich als redundantes Datensicherungssystem.
