Workshop INF-DH - 2018
GI-Workshop: "Im Spannungsfeld zwischen Tool-Building und Forschung auf Augenhöhe – Informatik und die Digital Humanities" (25.9.2018, Berlin)
Autor*innen mit den meisten Dokumenten
Neueste Veröffentlichungen
- WorkshopbeitragAnalysis and Classification of Prosodic Styles in Post-modern Spoken Poetry(INF-DH-2018, 2018) Meyer-Sickendiek, Burkhard; Hussein, Hussein; Baumann, TimoWe present our research on computer-supported analysis of prosodic styles in post-modern poetry. Our project is unique in making use of both the written as well as the spoken form of the poem as read by the original author. In particular, we use speech and natural language processing technology to align speech and text and to perform textual analyses. We then explore, based on literary theory, the quantitative value of various types of features in dierentiating various prosodic classes of post-modern poetry using machine-learning techniques. We contrast this feature-driven approach with a theoretically less informed neural networks-based approach and explore the relative strengths of both models, as well as how to integrate higher-level knowledge into the NN. In this paper, we give an overview of our project, our approach, and particularly focus on the challenges encountered and lessons learned in our interdisciplinary endeavour. The classification results of the rhythmical patterns (six classes) using NN-based approaches are better than by feature-based approaches.
- WorkshopbeitragCorpus2Wiki: A MediaWiki based Annotation & Visualisation Tool for the Digital Humanities(INF-DH-2018, 2018) Rutherford, Eleanor; Hemati, Wahed; Mehler, AlexanderIn this paper, we present WikiExporter, a tool which automatically creates a MediaWiki site for a given corpus of texts. The texts, along with automatically generated annotations and visualisations associated with them, are displayed on this MediaWiki site, locally hosted on the users’ own machine. Several different software components are used to this end - Docker for ease and consistency of deployment, MediaWiki for the core engine, TextImager Client for the generation of annotations and a number of existing, and as well as extended, MediaWiki extensions for the visualisations. This tool was specifically designed for use within the interdisciplinary field of the Digital Humanities, as it provides a visual analysis and representation of texts via a tool which require no programming or advanced computational knowledge and uses an interface already well-known within the Digital Humanities Community, namely MediaWiki.
- WorkshopbeitragBorderlands of text mapping: Experiments on Fontane's Brandenburg(INF-DH-2018, 2018) Barbaresi, AdrienThis article deals with the detection and projection of spatial patterns in text collections. Especially for historical corpora, researchers face a lack of general-purpose tooling. In these experiments, different maps focusing on Brandenburg at the second half of the 19th century are created based on literary works by Theodor Fontane. Using a common ground for hypothesis testing and visualization, issues related to data curation and preparation, text processing and geocoding are presented and discussed: the abstract, static nature of the results should be made up for by particular scrutiny and contextualization, by critical machine reading and by adding depth through visual cues.
- WorkshopbeitragDigital Humanities: An Explication(INF-DH-2018, 2018) Piotrowski, MichaelThe relationship between computer science and digital humanities and the potential contributions of computer science to digital humanities cannot be reasonably discussed without defining what we mean by “digital humanities.” With a view to enabling this important discussion, we propose a concise definition of digital humanities centered around the construction of formal models.
- WorkshopbeitragComputergestützte Methoden der Interpretation. Perspektiven einer digitalen Medienwissenschaft(INF-DH-2018, 2018) Klimczak, Peter; Hofstedt, Petra; Schmitt, Ingo; Petersen, ChristerZwar hat sich die elektronische Datenverarbeitung etwa im Rahmen der Archivierung, der Kategorisierung und der Suche von bzw. in Texten allgemein durchgesetzt, allerdings können deren Verfahren bisher nur bedingt auf eine Ebene des Textverständnisses vordringen. Es existieren keine Algorithmen, die menschliche Interpretation auf Subtextebene zufriedenstellend imitieren könnten. Unter Subtext wird hier eine Bedeutungsebene verstanden, die der expliziten Aussage eines Textes als zusätzliche Ausdrucksdimension unterlegt ist. Von Seiten der Computerphilologie sind bisher einzig Textanalyse und -interpretation unterstützende Verfahren entwickelt worden, die lediglich auf der Sprachoberfläche Anwendung finden (Jannidis, 2010). Von Seiten der Computerlinguistik und der Informatik existieren hingegen Text-Retrieval-Systeme, die den groben Inhalt von Texten erfassen (Manning et al., 2008). Dabei erfolgt jedoch keine ‚echte‘ Interpretation, die die impliziten Aussagen des Textes erfassen und damit die Ableitung neuen Wissens ermöglichen könnte. Aufbauend auf der 2016 vorgestellten formalen Subtextanalyse (Klimczak, 2016) erscheint aber ein algorithmisiertes Verfahren zur Rekonstruktion von komplexen Semantiken narrativer Gebrauchstexte möglich, welches die bestehenden Verfahren sowohl der Computerphilologie als auch der Computerlinguistik qualitativ übertreffen könnte, indem es hermeneutische Zugänge für informationstechnische Forschung erschließt.
- WorkshopbeitragTowards Scientific Workflows and Computer Simulation as a Method in Digital Humanities(INF-DH-2018, 2018) Lebherz, Daniel S.; Zeyen, Christian; Hess, Jan; Bergmann, Ralph; Timm, Ingo J.; Burch, Thomas; Hildenbrandt, Vera; Moulin, ClaudineThis paper presents ongoing work on investigating text mining by scientific workflows and hypotheses testing by computer simulation as new digital methods in the digital humanities and particularly in the literary studies. In the course of the eXplore! project, the methods are developed for analyzing autobiographic texts and particularly for investigating the diaries of Klaus Mann, a famous German writer, with regards to the influences on the writer’s literary productivity. Text mining is used to build up a data basis for an agent-based model that can be used in simulation studies to answer what-if-questions about a writer’s creative writing processes. A further focus is put on the reusability of these methods to facilitate an application beyond the project’s pilot study. For this purpose, we model and apply scientific workflows, populate a repository of proven workflows, and investigate an approach to reuse assistance by case-based reasoning.
- WorkshopbeitragStadtgeschichtliche Forschung anhand räumlich- und zeitlich verorteter Photographien(INF-DH-2018, 2018) Niebling, Florian; Münster, Sander; Bruschke, Jonas; Maiwald, Ferdinand; Friedrichs, KristinaForschung in den Digital Humanities (DH) erfordert die Zusammenarbeit verschiedener Disziplinen aus Geistes- und Kultur-, Ingenieur- und Informationswissenschaften. Die Fragestellungen die sich dabei aus geisteswissenschaftlicher Perspektive stellen, werfen dabei auch neue Forschungsfragen gerade für die eher angewandten Teilgebiete der Informatik auf. Wir präsentieren Ergebnisse einer interdisziplinären Nachwuchsforschergruppe, die Medienrepositorien historischer Photographien, Zeichnungen und Plänen um räumlich-zeitliche Zugänge erweitert. Es werden Methoden entwickelt um historische Abbildungen von Gebäuden in ein räumliches und zeitliches Modell einzubringen und dieses für architekturwissenschaftliche Forschung zugänglich zu machen. Am Beispiel Dresdner Stadtgeschichte werden Forschungsfragen der Geschichtswissenschaften, Photogrammetrie, Bildungswissenschaften und verschiedenen Bereichen der Informatik bearbeitet.
- WorkshopbeitragIterative Bearbeitung von Forschungsfragen(INF-DH-2018, 2018) Freybe, Konstantin; Hoffman, Tracym Rückgriff auf Erfahrungen aus der Forschungspraxis unseres Teams stellen wir den Aushandlungscharakter interdisziplinärer Zusammenarbeit heraus. Deshalb schenken wir der Kommunikationsstruktur im Projekt besondere Aufmerksamkeit, denn die Zirkulation von Wissen im Team und das Erarbeiten eines wechselseitigen Verständnisses unter den Forschenden hängen stark davon ab. Damit wird das Gewicht von Forschungsergebnissen auf die Prozesse verlagert.
- WorkshopbeitragVisualisierungswerkzeuge zur Erklärung historischer Ereignisse: geschichtstheoretische Anforderungsanalyse und zeichentheoretisches Rahmenwerk(INF-DH-2018, 2018) Frank, IngoIn vielen Digital Humanities-Projekten scheint die Informatik nur als eine Art IT-Dienstleister für die Werkzeugentwicklung zu dienen. Anhand von ausgewählten Beispielprojekten und einer eigenen Fallstudie im Bereich der Digital History wird das Potential von Geschichtstheorie und Zeichentheorie als Vermittler und Übersetzer zwischen Informatik und Geisteswissenschaft demonstriert. Ein wissenschaftstheoretischer Blick auf die Geschichtsforschung zeigt, wie Historiker historische Ereignisse erklären und welche Anforderungen dabei an unterstützende Werkzeuge bestehen. Die Zeichentheorie liefert mit den Konzepten des diagrammatischen Denkens und des abduktiven Schließens das explanatorische Rahmenwerk für die Entwicklung und den Einsatz von Visualisierungswerkzeugen zur Unterstützung der Erklärung historischer Ereignisse. Über den Ansatz der formalen Modellierung kann die Informatik einen wesentlichen Beitrag zur Entwicklung von Methoden und Visualisierungswerkzeugen zum diagrammatischen Denken in den digitalen Geisteswissenschaften leisten, indem sie etwa Formalismen wie die Modallogik oder Fuzzylogik für die kontrafaktische Exploration und multiperspektivische Analyse historischer Ereignisse nutzbar macht oder auf ihre Erfahrung und lange Praxis mit graphischen Modellierungssprachen zurückgreift, um neue Diagrammtypen für Visualisierungswerkzeuge zu konstruieren.
- WorkshopbeitragData Modelling for Historical Corpus Annotation(INF-DH-2018, 2018) Vertan, CristinaIn this article we discuss the problem of annotation of historical languages for which less, up to no resources are available, and which do not follow the standard paradigm of Indo-European languages. We show that the development of a tool adequate to the data model (and not the adaptation of data to given tools) has to be considered in particular cases.