DHDL 2019 – Projekte

Dies ist eine alphabetisch sortierte Liste der Projekte, die am Digital Humanities Day Leipzig 2019 präsentiert werden. Um weitere Informationen zu den Projekten angezeigt zu bekommen, klicken Sie einfach auf den jeweiligen Titel.

Aktuelle Trends in den Digital Humanities und Curricula an der Universität Leipzig
Manuel Burghardt

„All the World’s a Vector“ – Experimente zur Detektion von intertextuellen Shakespeare-Referenzen mithilfe von word embeddings
Manuel Burghardt, Bernhard Liebl

“All the world’s a stage” – so lautet eine vielzitierte Zeile aus William Shakespeares “As You Like It”. Aus Perspektive der Intertextualitätsforschung mag man diese Zeile weiterdenken hin zu „die ganze literarische Welt ist Shakespeares Bühne“, denn kein Dichter wurde und wird so viel zitiert wie William Shakespeare. Über die Jahrhunderte hinweg finden sich Referenzen auf Shakespeares Werk, die bislang aber fast ausschließlich in idiographischen close reading-Studien untersucht wurden. In unserem Digital Humanities-Projekt erproben wir computergestützte Ansätze für ein distant reading von intertextuellen Shakespeare-Phänomenen, die perspektivisch nicht nur auf Buchwerke, sondern auch auf andere Kulturartefakte wie bspw. Lieder (Songtexte), Filme (Untertitel/Transkripte) und Videospiele (Wikis, Foren) angewandt werden sollen, um semi-automatisch Shakespeare- Referenzen zu detektieren. Wir setzen dabei insbesondere auf den Einsatz word embeddings, die als automatisiertes Verfahren im Sinne einer distributionalen Semantik verstanden werden können. Konkret wird hier für jedes Wort eines Texts ein Kollokationsprofil als Vektor modelliert, d.h. für jedes Wort wird festgehalten, wie häufig es mit den anderen Wörtern im Text gemeinsam vorkommt. Das Ziel eines solchen Vorgehens ist es, jenseits wortwörtlicher Zitate auch Varianten zu identifizieren, die mithilfe der erwähnten word embeddings errechnet werden können. Die folgende Variante eines bekannten Zitats aus Macbeth (Shakespeares Ursprungsvariante steht jeweils in eckigen Klammern) würde mit unserem Ansatz etwa problemlos erkannt werden:

By the stinking [pricking] of my nose [thumbs], something evil [wicked] this way goes [comes]. (Terry Pratchett: „I Shall Wear Midnight“).

Download

Ba[sic?] – Better Authorities [Search, Identify, Connect]
Uwe Kretschmer (Sächsische Akademie der Wissenschaften zu Leipzig)

Download

Breitkopf digital
Klaus Rettinghaus

Der Musikalienhandel wird im 18. Jahrhundert von Leipzig aus durch den Handel mit Abschriften revolutioniert, die ab 1761 per Katalog bei der Firma Breitkopf bestellbar sind. Ende des 18. Jahrhunderts waren ca. 20.000 Werke im Umlauf (heute meist verschollen) aus Sammlungen, die von Breitkopf aufgekauft wurden. Wer waren diese Sammler, welche Repertoires überliefern sie, und was hat die Bach-Rezeption damit zu tun gehabt, die in den 1980er Jahren den Anstoß zur Forschung nach Breitkopf-Quellen gab? Ein mehrteiliges Konzept im Sinne musikwissenschaftlicher Grundlagenforschung soll nun gezielt weitere Forschungen zur Musik zwischen Bach und Mozart initiieren:

1. a) Intensivierung der Forschungen zu Breitkopfs „write on demand“-Methode: Erwerb kompletter Sammlungen von Musikern (Provenienz- und Repertoireforschung)
b) Identifizierung von Komponisten und Werken (Generierung von Forschungsdaten)
c) Anlage von Schreiber-Profilen/Identifizierung von Kopisten (oft bislang nicht identifizierter sächsischer Musiker), die für Breitkopf Verkaufskopien anfertigten.

2. a) Digitale Edition der frühen Breitkopf-Kataloge mit modernen Methoden der Digital Humanities
b) Auflistung der durch Forschung ermittelten Daten zu jedem Werk in Open-Source-Austauschformaten mit Notenincipits und Normdaten
c) Catalogue-Enrichment bei Quellennachweisen im RISM OPAC (Referenz auf Breitkopf-Kataloge, Datierungen, Schreiber-Nachweise, Provenienzen etc.) bzw. Datenerstellung bei noch nicht durch RISM erfassten Quellen.

Potenzial und Perspektive: Ausbau zu einem allgemeinen Portal zur individuellen digitalen Dokumentation von Musikalienkatalogen.

Download

CLARIN-D
Thomas Eckhart, Dirk Goldhahn

Forschungsdaten anderer Forschender auffinden, eigene Daten auswerten, die zugrundeliegenden Daten eigener Forschungen aufbereiten und aufbewahren – als forschungsbegleitende Infrastruktur ist CLARIN-D ein Partner der Geistes- und Sozialwissenschaften, die sich im weitesten Sinne mit Sprache beschäftigen. Von syntaktisch annotierten Textkorpora bis zu psycholinguistischen Experimenten und von historischen Texten bis zu lexikalischen Ressourcen hat CLARIN-D besonders auch für die Philologien relevante Ressourcen im Fokus. Daneben findet man in CLARIN-D auch Expertise für allgemeine Fragen, die die Erstellung und Durchführung von Forschungsprojekten betreffen. Darunter fallen rechtliche und ethische Fragestellungen oder die Planung des Datenmanagements, wie es von Drittmittelgebenden zunehmen verlangt wird. Dazu kommen technische Werkzeuge und der Austausch von Expertisen.

Computermusikologie – Distant Reading in der Musikwissenschaftliche Forschung
Josef Focht, Heike Fricke

Die im Digitalisierungsprojekt TASTEN erhobenen Daten bieten Forschungsperspektiven für Interpretationsforschung, Aufführungspraxis und Stilometrie. Dort lassen sich Methoden und Werkzeuge des Distant Reading auf musikwissenschaftliche Forschungsfragen anwenden.

Download

CTS-R: Connecting Canonical Text Services with the Statistical Analytics Environment R
Jochen Tiepmar

This poster describes a software library for the statistical programming language R that builds an interface to the large scale implementation of the Canonical Text Service (CTS) protocol (Jochen Tiepmar, 2019). This way the vast amount of textual data that has been and will be collected in the Canonical Text Infrastructure is opened up to all the analytics frameworks and workflows that are available in R. Since the data sets should be usable for any process that is built in R, this drastically increases the reach that these can gain. On the other hand this also increases the amount of textual data that is available in R for textual analysis.

Download

Das digitale Personen-Register der PROPYLÄEN
Christian Hain, Yvonne Pietsch

Das Akademienprojekt „PROPYLÄEN. Forschungsplattform zu Goethes Biographica“ umfasst vier editorische Großunternehmen, die im Goethe- und Schiller-Archiv entstehen: die historisch-kritischen Editionen der Tagebücher und der Briefe von Goethe, die Ausgabe der Briefe an Goethe in Regestform sowie die Fortsetzung der ‚Begegnungen und Gespräche‘. Auf Basis umfangreicher, heterogener und vielschichtig erschlossener Quellenbestände entsteht eine Forschungsplattform zu Goethes Leben, Wirken und Werk für die freie Nutzung im Internet.

Wie aber lassen sich die Buchregister der vier Ausgaben mit ihren unterschiedlichen Ansetzungen so zusammenführen und transformieren, dass eine übersichtliche und für den Benutzer praktikable Darstellung im Internet gelingt? Welche Herausforderungen müssen dabei bewältigt werden? Was erwartet der User? Ist ein Grundeintrag mit möglichst umfassenden Informationen über eine Person wünschenswerter als ein auf die jeweils vorliegende Quelle abgestimmter Eintrag?

Anhand des Posters wird die im PROPYLÄEN-Projekt angestrebte Lösung, die auf der Grundlage einer in der Klassik Stiftung Weimar entwickelten Personen-Normdatenbank erarbeitet wird, präsentiert und zur Diskussion gestellt.

Download

Digital Fragmenta Historicorum Graecorum (DFHG)
Monica Berti

The Digital Fragmenta Historicorum Graecorum (DFHG) project is the digital version of the five volumes of the Fragmenta Historicorum Graecorum (FHG), which is the first big collection of ancient Greek historical fragments published by Karl Müller (1841-1873). The FHG is a corpus of quotations and text reuses (fragmenta) of 636 ancient Greek fragmentary historians preserved by Classical sources. Fragmentary authors date from the 6th century BC through the 7th century CE and, except for the first volume, are chronologically distributed. The DFHG is a new digital resource to provide textual, philological, and computational methods for representing fragmentary authors and works in a digital environment. The poster presents tools and services that have been developed by the project, not only for accessing the entire collection of the FHG, but also for providing a new model that can be applied to other collections of fragmentary authors in order to visualize and explore their complex data and connect it with external resources for further developments.

Download

Digital Humanities als Stammtisch-Science? Der Hallenser DH-Stammtisch als informelle Vergesellschaftungsform eines jungen Fachs
Andreas Müller, Torsten Roeder

Das tendenziell altbacken anmutende Format des „Stammtischs“ hat in dem jungen Bereich der sogenannten Digital Humanities als dynamischer Ort der Vergesellschaftung eine kleine Renaissance erlebt. Auf den vielerorts regelmäßigen Treffen in Kneipen, Bars und Restaurants findet oft ein ungewöhnlich reger Austausch über die Grenzen von Fächern, Disziplinen und Spezialisierungen hinweg statt – und trägt so nicht nur zur Gemeinschaftsbildung, sondern auch zur Verbreitung von Fachwissen und zur Bündelung von Expertise im Bereich der digitalen Geisteswissenschaften bei.

Dieses Poster skizziert das aktuelle Landschaftsbild der DH-Stammtische im deutschsprachigen Raum und fragt nach unterschiedlichen Implementierungen des Formats. Den Schwerpunkt bilden dabei die Erfahrungen aus bereits 22 Treffen des DH-Stammtisches in Halle/Saale (kurz: #DHAL), der mittlerweile nicht nur lokale, sondern auch regionale Reichweite entfalten konnte. Der dort verfolgte „grassroots“-Ansatz stellt möglicherweise einen Komplementäransatz zu institutionalisierten und top-down-organisierten DH-Zusammenkünften dar: Lediglich Termin und Ort werden vorher festgelegt. Der komplette Verzicht auf Voranmeldung, fachliche Expertise, Themensetzung, Verwaltung und Protokollierung motivierte Teilnehmerinnen und Teilnehmer, sich dem Bereich der Digital Humanities aus ihrer Perspektive anzunähern, dabei eigene Fragestellungen einzubringen, über Methoden zu debattieren und gemeinsam neue Ideen zu entwickeln. Niederschwelligkeit gilt insofern als Basisrezept des #DHAL. Andernorts werden DH-Stammtische, sofern sie denn stärker institutionalisiert sind, mit Vortragsreihen gebündelt, mit Vorstellungsrunden gepaart oder Themenschwerpunkte vorselektiert, was wiederum andere gewünschte Effekte, z.B. Standortprofilierung, mit sich bringen kann.

Warum aber erfreut sich das Stammtisch-Format im Feld der Digital Humanities einer so hohen Beliebtheit? Das „Hallenser Modell“ positioniert sich bewusst im Graubereich zwischen Freizeitgestaltung und akademischem Networking. Ist die Niederschwelligkeit aufgrund des hohen Interdisziplinaritätsgrades eine Voraussetzung für die Kommunikation auf Augenhöhe? Sind die dabei entstandenen und entstehenden Synergieeffekte, wie gemeinsame Forschungsprojekte oder Events natürliche Konsequenzen dieser Treffen? Erlaubt vielleicht gerade erst der informelle Austausch, das vielbeschworene Innovationspotenzial der DH auszuloten? Sollte dies ein Beleg dafür sein, dass die DH genuin auf Kommunikations-räume angewiesen sind, dürfte man sie wohl im besten Sinne als „Stammtisch-Disziplin“ begreifen.

Neben diesen Fragen behandelt das Poster die digitalmediale Dimension der „analogen“ Treffen. Über Kommunikationskanäle wie Twitter oder Telegram kann ein virtueller „Parallelstammtisch“ entstehen, der Diskussion und Austausch über den physischen Treffpunkt hinaus, im digitalen Raum ermöglicht, und dabei die Sichtbarkeit eines Standorts in überraschendem Maße steigern kann. Auch im virtuellen Raum oszilliert die Stammtisch-Kommunikation zwischen seriösen Debatten, spontanem Brainstorming und humorvoller Unterhaltung.

Mit dem Poster möchten die Vorsteller über bestehende Formate informieren, zur Nachahmung oder Adaption anregen und vor Ort am 3. Digital Humanities Day in Leipzig mit Kolleginnen und Kollegen über Ihre Erfahrungen, Formate und Ideen ins Gespräch kommen, um die informelle Netzwerkbildung in den Digital Humanities weiter zu befördern.

Download

Discourse Analysis as an Information Retrieval Problem
Tim Gollub, Franziska Klemstein

The aim of the currently conducted DFG funded project „Process-Oriented Discourse Analysis“ at Bauhaus-Universität Weimar and Regensburg University is the establishment of a virtual research environment for conducting discourse analysis in the social sciences and humanities, especially history.

To support the systematic analysis of discourses, we propose an analytical layer on top of a keyword-based fulltext search engine that indexes a discourse corpus. The analytical layer communicates with the search engine via ordinary search queries and result lists, while itself providing extended search and analysis functionality to the user via a so called discourse query language. Beyond keywords, the discourse query language supports the use of semantic units in search queries, namely concepts, facets, and frames. For query processing, an extensible semantic knowledge base is used to translate semantic units into keyword-based queries that are ‚understood‘ by the underlying search engine. Users have the possibility to add and actively train semantic units that are specific to the underlying discourse or their research question.

The discourse query language further facilitates analytical operations on search results. In addition to ‚find‘ as default request operation, discourse related operations such as ‚characterize‘, ‚compare‘, ‚contrast‘, ‚cluster‘, and ‚connect‘ are available. Each operation refers to a data analysis task that is performed on the semantic bipartite graph that spans between the relevant documents of a discourse query and the semantic units contained in them.

By building our work on top of a search engine, we pick up on a piece of technology that is exceptionally well accepted in humanities research. In doing so, we want to examine on the one hand to what extent the use of these advanced data analysis technologies, such as those proposed here, has a reasonable chance of finding an application in the humanities. On the other hand, we want to stress a critical exploration of the scope of using such a search engine within the scientific research process in fields of humanities. What impact do search engines have on the scientific process? What impact does the restriction have on request operations like ‚find‘, ‚characterize‘, ‚compare‘, ‚contrast‘, ‚cluster‘, and ‚connect‘ on the evaluation of individual sources within a specific corpus? Or do these request operations already form the core of analysis and search practice in the humanities?

Download

More than a Feeling: Media Sentiment as a Mirror of Investors’ Expectations at the Berlin Stock Exchange, 1872-1930
Manuel Burghardt, Bernhard Liebl, Lino Wehrheim

Investors’ behaviour is not only influenced by information on fundamentals, such as future cash flows, but also by soft parameters, such as moods, emotions, or feelings. Accordingly, stock returns and trading volume are only partially determined by fundamentals. Recently, the notion of “investor sentiment” has attracted the attention of scholars in finance and financial economics. Although the understanding of the nature of sentiment is still far from being complete, there is considerable empirical evidence that sentiment plays a crucial role for financial markets. In this project, we follow the idea that sentiment is a belief about future developments that is not built upon facts and rational reasoning. Accordingly, sentiment can be regarded as being equivalent to investors’ (non-fundamental) expectations. In this project, we aim to investigate the influence of sentiment for the case of the Berlin stock exchange between 1872 and 1930. We will use different computational sentiment analysis techniques (dictionaries, machine learning) to automatically extract sentiment from a daily column in the Berliner Börsen-Zeitung, which was the most important financial newspaper at the time. We will create a daily sentiment index which can be used to measure investors’ expectations as defined above. In combination with content analysis methods such as topic modelling and stock market data, we will investigate the impact of expectations and the accompanying narratives on the Berlin stock market, both quantitatively and qualitatively. As we will apply different text mining methods on a large scale, we build this project on an interdisciplinary cooperation between digital humanities and economic history to address the following questions: How did historical experiences, such as wars and political or economic shocks, change investor sentiment, i.e. investors’ expectations, and how did sentiment influence financial markets? Has this influence changed over time? Which role did sentiment play in the development of financial and economic crises, and which were the narratives that accompanied high stock market fluctuations?

Download

Musical Instruments in Virtual Acoustic Reality
Josef Focht, Dominik Ukolov

Phoenix – Scientific Authorship in Flux
Lukas Gienapp, Martin Potthast

The PHOENIX project is a cooperative project funded by the German Federal Ministry of Education and Research (BMBF). The aim of the project is to reflect on the practice of scientific authorship and scientific writing in the context of the changing function of authorship, diverging disciplinary writing practices as well as the changed cooperation and production conditions resulting from digitalisation. It will examine in detail how scientific texts are produced today and what the changed processes of producing scientific texts mean for quality assurance mechanisms in universities and non-university R&D institutions.

Studying the reuse of text is of central importance for this task. Citing, paraphrasing, summarizing – and plagiarizing – are fundamental techniques in the creation of knowledge. However, it is still largely unknown how widespread the reuse of text is in current scientific writing. This is primarily due to the fact that the required technologies and sufficient data in digital form have only recently become available. Compiling a corpus of over millions of scientific articles, the first quantitative foray into the practices of scientific text reuse is provided by developing and applying state-of-the-art reuse detection techniques and an accompanying large-scale analysis, resulting in a discipline-specific, time-dependent typology of actual text reuse occurring in science.

Download

Relationen zwischen Musikinstrumenten und Kompositionen finden und visualisieren
Josef Focht, Jakob Kusnick

Digitalisierungsprojekte machen Informationen über Kulturgüter weithin verfügbar. Obwohl digitale Bibliotheken unterschiedliche Aspekte beleuchten, sind dennoch Relationen zwischen ihnen kaum festgehalten. Ein interdisziplinäres Projekt der Informatik und Musikwissenschaft sucht Relationen zwischen Musikinstrumenten (MIMO) und Kompositionen (RISM). Mit einer facettierten Ähnlichkeitsanalyse werden hypothetische Aussagen über Relationen zwischen diesen Objekten hergestellt. Für die explorative Darstellung der Ergebnisse werden u. a. eine Zeitleiste und eine geografische Karte benutzt.

Schlüsseltechnologie DH? Raumsemantiken der Geographie im 19. und 20. Jahrhundert
Thomas Efer, Dirk Hänsgen, Ninja Steinbach-Hüther

Das Poster dokumentiert den Forschungsgang des Projektes von seinen Anfängen über die Projektausführung während der ersten Projektlaufzeit hin zu der geplanten Projektausführung für die zweite Projektlaufzeit. Zwischen 2016 und 2019 haben wir die interdisziplinäre Zusammenarbeit zwischen Informatik, Geographie und Global Studies bereits in unserem Forschungskontext erfolgreich begonnen. Die überzeugenden Erfahrungen1 dieser Kooperation führten zu der Entscheidung, das Projekt vertieft in dieser Forschungsrichtung auszubauen. So soll fortan methodisch eine auf der umfangreichen Datensammlung der ersten Phase aufbauende tiefergehende Konzentration auf computergestützte Verfahren der Digital Humanities einen deutlichen Schwerpunkt in der Fortführung des Projektes bilden.

Die Posterpräsentation zeigt zunächst die für die globalhistorische Forschungsfrage notwendige Herstellung einer annähernden Vergleichbarkeit des Datenmaterials. Eine besondere Herausforderung stellt dabei ein heterogener Datenkorpus in unterschiedlichen Sprachen dar, der auf Basis der Kommunikationsartefakte geographischer Gesellschaften zwischen 1821 und 1914 in der ersten Förderphase aufgebaut wurde. Der Datenkorpus sollte verschiedenen Anforderungen gerecht werden: Er sollte sowohl Verflechtungen verschiedener geographischer Gesellschaften weltweit abbilden als auch deren strukturellen Besonderheiten und ihre thematischen und räumlichen Interessenprofile/-gebiete wiedergeben.

Das Poster beinhaltet außerdem Informationen zur Materialfindung (Auswahlkriterien, Identifikation geeigneter Geographischer Gesellschaften, entsprechendes Quellenmaterial) sowie Informationen zur Methodenentwicklung (kollaborativer Aufbau, Fortentwicklung und Test des Kodierschemas sowie der Erfassungsmodi).

Die Analysen bilden einen weiteren Bestandteil der Posterpräsentation. Sie bestehen bisher u. a. aus DH-basierten Visualisierungen und klassischen typologischen Beschreibungen von Geographischen Gesellschaften, die die Ergebnisse der ersten Projektlaufzeit wiedergeben (z. Bsp. Geographische Gesellschaften als als wirkmächtige Raumentrepreneurinnen mit eigenem Globalisierungsprojekt, robuste Raumordnungen von Mensch/Natur-Verhältnissen, intensive vertikale und horizontale Vernetzungen, Zeitschriften als „blog“). Die Posterpräsentation schließt mit einem Ausblick auf die methodischen Neuerungen im Fortsetzungsprojekt ab (Datenverarbeitung mit Methoden der Digital Humanities, Analysen geographischer Raumsemantiken 1821 bis heute, Wandel von Raumsemantiken als Indikator für (Neu-)Verräumlichungsprozesse unter Globalisierungsbedingungen).

Wir beabsichtigen, Anwendungen der Digital Humanities in der Erforschung von Raumsemantiken als „Schlüsseltechnologie“ einzusetzen, um diese auch für andere Projekte des SFB und darüber hinaus fruchtbar zu machen.

Download

SHRIMP Learning Analytics & Machine Learning
Sebastian M. Herrmann, Franz Wendt

SHRIMP, kurz für Social Hypertext Reader & Interactive Mapping Platform, ist ein seit 2015 laufendes Projekt, in dem wir versuchen, die Potenziale von ELearning in den textbasierten Geisteswissenschaften zu erproben. Aufbauend auf früheren Projektphase n mit dem Schwerpunkt ‚Learning Analytics‘ experimentieren wir derzeit mit Machine Learning Algorithmen, um die Lernneigungen von Studierenden zu identifizieren und die Lernplattform entsprechend zu personalisieren. Hierzu möchten wir gerne work-in-progress und erste Ergebnisse und Problemstellungen präsentieren und diskutieren. Bisher zeichnet sich ab, dass die in vielen anderen Kontexten (pattern recognition, prediction) erfolgreich eingesetzten Machine-Learning-Verfahren in unserem Fall offenbar keinen unmittelbar ersichtlichen Vorteil gegenüber einfacheren statistischen Verfahren bieten. Insbesondere diesen Aspekt hoffen wir auch mit anderen DH-Akteurinnen und Akteuren beim DH-Day diskutieren zu können.

Download

Software zur computergestützten Tiefenerschließungen von digitalen Faksimiles von Büchern
Hannes Kahl, Marcel Mernitz, Jens Wittig

Im vorzustellenden Projekt geht es um Software zur computergestützten Tiefenerschließungen von digitalen Faksimiles von Büchern. Die Software ist auf die materielle Natur des Abgebildeten und die räumlichen Beziehungen dieser Materialien ausgerichtet. Zielfaksimiles der Software sind Abbildungen der Drucke der Inkunabelzeit, der Handschriften, der Papyri und der Inschriften. Die Software setzt einem Bildverarbeitungs-KI-Programmkern eine Ausgabe für strukturierte und angereicherte Dokumente auf, um die wissenschaftliche oder archivarische Tätigkeit zu unterstützen oder um ebook Formate anzureichern.

Vorgestellt wird die Software anhand eines Beispiels der Typographie/vergleichenden Buchgeschichte. Zu zeigen ist, wie die Software vergleichende Methoden in der Beschreibung des frühen Druckens und der Erörterung der Arbeitsweise der Frühdrucker unterstützen kann. Besonderes Gewicht bekommen solche der historischen Materialität und Tätigkeit verpflichteten Ausführungen, weil sie eine Überlieferungslücke schließen, da keine Dokumentation der Frühdrucker bisher vorliegt. Das vorzustellende Beispiel bezieht sich auf drei untersuchte klassische Frühdrucke der Aldinen Druckerei.

Download

Topological properties of music collaboration networks
Lukas Gienapp, Clara Kruckenberg

Typically, music is the product of a creative process that is often shared by multiple people. However, different musical genres utilize quite different ways of collaboration.The network formed by such collaborations has been the subject of numerous publications. Yet, the focus primarily lies on the genre of jazz, where collaboration data can be easily obtained. Other genres have only received marginal attention by the research community thus far. We present the first large-scale cross-genre analysis of collaboration patterns in music.

Deriving a network dataset based on the exhaustive Discogs database including millions of musicians, for the first time multiple genres on this can be analyzed simultaneously, allowing for comparisons to be drawn between them and providing novel insight into how musicians work together.

Download