Auflistung nach Schlagwort "Annotation"
1 - 10 von 17
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragAnnotator-Centered Design: Towards a Tool for Sentiment and Emotion Annotation(INFORMATIK 2019: 50 Jahre Gesellschaft für Informatik – Informatik für Gesellschaft (Workshop-Beiträge), 2019) Schmidt, Thomas; Jakob, Marco; Wolff, ChristianWe present a first prototype of the tool SentiAnno, which is an annotation tool specifically designed for sentiment and emotion annotation in structured written texts. To design this tool, we employ the user-centered design (UCD) framework and adapt it by focusing on the annotator, thus phrasing our development approach annotator-centered design. In iterative steps, we gather requirements and feedback from annotators as soon as possible in the development process via various usability engineering methods. We propose that this design process is especially beneficial for challenging and subjective annotation tasks like sentiment and emotion annotation of literary texts. We describe our first iterations and present results of the current prototype. We show how we were able to create functionalities facilitating the annotation process by applying this annotator-centered design approach.
- KonferenzbeitragEin Assistenzsystem zur Annotation von Learning Analytics Reports(21. Fachtagung Bildungstechnologien (DELFI), 2023) Judel, Sven; Nitzke, Paul; Schroeder, UlrikDie verschiedenen Reports, die in Learning Analytics Dashboards aufbereitet werden, sollen Nutzende befähigen lehr- und lernbezogene Entscheidungen zu treffen. Dazu müssen diese Reports gelesen, verstanden und interpretiert werden. Wissen über die Lehr- und Lernsituationen, in denen Daten erhoben und analysiert wurden, kann dabei essenziell sein. Es kann eine zusätzliche kognitive Last bedeuten dieses Wissen während der Arbeit mit den Reports im Kopf oder anderweitig außerhalb des Dashboards präsent haben zu müssen. Diese Demo stellt ein Assistenzsystem vor, das Nutzenden erlaubt durch direkte Interaktionen mit Visualisierungen zusätzliche Informationen einzubinden. Das System ist in ein Learning Analytics Dashboard in Moodle integriert und erlaubt datumsbasierte Diagramme mit Daten oder Zeitspannen zu annotieren. Zusätzlich zu eigenem Wissen kann das System, basierend auf u. a. dem Moodle Kalender, eigene Vorschläge für Annotationen machen und auf potentiell relevante Ergebnisse hinweisen. Annotationen können mit anderen Nutzenden geteilt werden um eigenes Wissen oder eigene Erkenntnisse zu kommunizieren.
- ZeitschriftenartikelBausteine des personalisierten Video Publishing(i-com: Vol. 10, No. 1, 2011) Berger, Arne; Eibl, Maximilian; Knauf, Robert; Kürsten, Jens; Kurze, Albrecht; Ritter, MarcDie zunehmende Menge an Quellen audiovisueller Medien vor allem jenseits des klassischen TV erfordert schon allein aus Quantitätsgründen eine auf die Interessen der Zuschauer adaptierbare Präsentationsform. Hinzu kommen Kriterien wie Zeit- und Ortsunabhängigkeit sowie natürlich inhaltliche Gesichtspunkte. Bedenkt man ein Gesamtsystem zur personalisierten Veröffentlichung audiovisueller Medien, so muss es aus verschiedenen technologischen Bausteinen bestehen, die innerhalb der Informatik meist in unterschiedlichen fachlichen Bereichen beheimatet sind. Es werden zwei solcher Bausteine vorgestellt: Die semi-automatische Annotation sowie Produktion und Playout unterschiedlicher Medienströme.
- WorkshopbeitragCorpus2Wiki: A MediaWiki based Annotation & Visualisation Tool for the Digital Humanities(INF-DH-2018, 2018) Rutherford, Eleanor; Hemati, Wahed; Mehler, AlexanderIn this paper, we present WikiExporter, a tool which automatically creates a MediaWiki site for a given corpus of texts. The texts, along with automatically generated annotations and visualisations associated with them, are displayed on this MediaWiki site, locally hosted on the users’ own machine. Several different software components are used to this end - Docker for ease and consistency of deployment, MediaWiki for the core engine, TextImager Client for the generation of annotations and a number of existing, and as well as extended, MediaWiki extensions for the visualisations. This tool was specifically designed for use within the interdisciplinary field of the Digital Humanities, as it provides a visual analysis and representation of texts via a tool which require no programming or advanced computational knowledge and uses an interface already well-known within the Digital Humanities Community, namely MediaWiki.
- KonferenzbeitragCorpus2Wiki: A MediaWiki-based Tool for Automatically Generating Wikiditions in Digital Humanities(INFORMATIK 2019: 50 Jahre Gesellschaft für Informatik – Informatik für Gesellschaft (Workshop-Beiträge), 2019) Hunziker, Alex; Mammadov, Hasanagha; Hemati, Wahed; Mehler, AlexanderWe describe current developments of Corpus2Wiki. Corpus2Wiki is a tool for generating so-calledWikiditions out of text corpora. It provides text analyses, annotations and their visualizations without requiring programming or advanced computer skills. By using TextImager as a back-end, Corpus2Wiki can automatically analyze input documents at different linguistic levels. Currently, it automatically annotates information regarding lemmatization, parts of speech, morphological information, named entities, geolocations and topic labels based on the Dewey Decimal Classification (DDC). Any results are stored and displayed by means of a modified and extended MediaWiki which makes it easy to further process texts and their annotations. The aim of this paper is to present the capabilities of Corpus2wiki, to point out the improvements made and to make suggestions for further development.
- ZeitschriftenartikeleXplainable Cooperative Machine Learning with NOVA(KI - Künstliche Intelligenz: Vol. 34, No. 2, 2020) Baur, Tobias; Heimerl, Alexander; Lingenfelser, Florian; Wagner, Johannes; Valstar, Michel F.; Schuller, Björn; André, ElisabethIn the following article, we introduce a novel workflow, which we subsume under the term “explainable cooperative machine learning” and show its practical application in a data annotation and model training tool called NOVA . The main idea of our approach is to interactively incorporate the ‘human in the loop’ when training classification models from annotated data. In particular, NOVA offers a collaborative annotation backend where multiple annotators join their workforce. A main aspect is the possibility of applying semi-supervised active learning techniques already during the annotation process by giving the possibility to pre-label data automatically, resulting in a drastic acceleration of the annotation process. Furthermore, the user-interface implements recent eXplainable AI techniques to provide users with both, a confidence value of the automatically predicted annotations, as well as visual explanation. We show in an use-case evaluation that our workflow is able to speed up the annotation process, and further argue that by providing additional visual explanations annotators get to understand the decision making process as well as the trustworthiness of their trained machine learning models.
- WorkshopbeitragHerausforderungen für Sentiment Analysis-Verfahren bei literarischen Texten(INF-DH-2018, 2018) Schmidt, Thomas; Burghardt, Manuel; Wolff, ChristianIn diesem Beitrag wird über die Ergebnisse eines laufenden Digital Humanities-Projekt zur Sentiment Analysis in literarischen Texten berichtet und die Implikation von diesem diskutiert. In dem Projekt werden verschiedene Methoden der Sentiment Analysis auf Texte historischer Dramen des 18. Jahrhunderts von G. E. Lessing implementiert und gegeneinander evaluiert. Zur Evaluation wurde ein von Menschen bezüglich Sentiment annotiertes Testkorpus erstellt. Basierend auf den ersten Erfahrungen des Projekts diskutieren wir über Probleme und Herausforderungen, die sich aus der Perspektive der Informatik zur Sentiment Analysis historischer Dramen ergaben. Es wird deut-lich, dass bestehende Standardlösungen der Sentiment Analysis für dieses spezifische Szenario nicht ohne Weiteres anwendbar sind. Vielmehr ist die Informatik gefordert, die bestehenden Methoden anzupassen, weiterzuentwickeln und sich mit besonderen Eigenheiten der Textform historischer literarischer Texte auseinanderzusetzen.
- KonferenzbeitragInter-Rater Agreement and Usability: A Comparative Evaluation of Annotation Tools for Sentiment Annotation(INFORMATIK 2019: 50 Jahre Gesellschaft für Informatik – Informatik für Gesellschaft (Workshop-Beiträge), 2019) Schmidt, Thomas; Winterl, Brigitte; Maul, Milena; Schark, Alina; Vlad, Andrea; Wolff, ChristianWe present the results of a comparative evaluation study of five annotation tools with 50 participants in the context of sentiment and emotion annotation of literary texts. Ten participants per tool annotated 50 speeches of the play Emilia Galotti by G. E. Lessing. We evaluate the tools via standard usability and user experience questionnaires, by measuring the time needed for the annotation, and via semi-structured interviews. Based on the results we formulate a recommendation. In addition, we discuss and compare the usability metrics and methods to develop best practices for tool selection in similar contexts. Furthermore, we also highlight the relationship between inter-rater agreement and usability metrics as well as the effect of the chosen tool on annotation behavior.
- TextdokumentKonzept und Klassifikation literarischer Raumentitäten(INFORMATIK 2020, 2021) Barth, FlorianInnerhalb der “Computational Narratology” werden literaturwissenschaftlich-textuelle Konzepte formalisiert, um sie anschließend mit algorithmischen und maschinellen Verfahren automatisch identifizieren zu können. Dieser Prozess, der eine enge Verknüpfung theoretischer Grundlagen und computationeller Umsetzung erfordert, wird in diesem Beitrag am Beispiel narratologischer Raumkategorien vorgestellt. Eine Pilotannotation demonstriert konzeptuelle Grundlagen der Kategorien und deren intersubjektives Verständnis anhand des Inter-Annotator-Agreements. Anschließend werden Features zur Erkennung jener Ortsreferenzen entwickelt, an denen die diegetische Handlung eines literarischen Textes angesiedelt ist, und prototypische Machine-Learning-Modelle zur Klassifikation präsentiert.
- ZeitschriftenartikelMenschen und das Datenweb: Semantische Textverarbeitung für Nicht-ExpertenHumans and the Web of Data: Semantic Text Authoring for the non-Expert(i-com: Vol. 8, No. 3, 2009) Luczak-Rösch, Markus; Heese, Ralf; Paschke, AdrianDurch die vielversprechende Linked Data Initiative ist das World Wide Web als ein Web das aus (HTML-)Dokumenten besteht, die mittels Hyperlinks vernetzt sind und dessen Informationen nur für die menschlichen Nutzer erschließbar sind, im Wandel zu einem so genannten Datenweb begriffen. Dennoch ist der Wert eines Datenwebs für Benutzer, die ohne technische Intention und Vorbildung das Web nutzen, bis heute kaum bekannt. Einige Merkmale semantischer Daten sind überdies nahezu unvereinbar mit dem etablierten Umgang mit Inhalten für das Web und der menschlichen Denk- und Arbeitsweise. Mit loomp präsentieren wir einen Ansatz für direkte semantische Textverarbeitung und die Verwaltung von Linked Data durch Nicht-Experten. Ziel ist es, der semantischen Annotation von Inhalten einen Vorrang vor der autorengetriebenen Formatierung zu geben und so den Zusatzaufwand, den manuelle Annotation bisher erzeugt, zu minimieren. Ferner wird eine Benutzerschnittstelle vorgestellt, die das Erzeugen, Verwalten u...