Auflistung nach Schlagwort "NLP"
1 - 10 von 13
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragAutomatisierte Analyse Radikaler Inhalte im Internet(INFORMATIK 2019: 50 Jahre Gesellschaft für Informatik – Informatik für Gesellschaft, 2019) Vogel, Inna; Regev, Roey; Steinebach, MartinRassismus, Antisemitismus, Sexismus und andere Diskriminierungs- und Radikalisierungsformen zeigen sich auf unterschiedliche Arten im Internet. Es kann als Satire verpackt sein oder als menschenverachtende Parolen. Sogenannte Hassrede ist für die Kommunikationskultur ein Problem, dem die betroffenen Personen oder Personengruppen ausgesetzt sind. Zwar gibt es den Volksverhetzungsparagraphen (§ 130 StGB), Hassrede liegt allerdings nicht selten außerhalb des justiziablen Bereichs. Dennoch sind hasserfüllte Aussagen problematisch, da sie mit falschen Fakten Gruppierungen radikalisieren und Betroffene in ihrer Würde verletzen. 2017 stellte die Bundesregierung das Netzwerkdurchsetzungsgesetz vor, welches die sozialen Netzwerke dazu zwingt, Hassrede konsequent zu entfernen. Ohne eine automatisierte Erkennung ist dieses aber nur schwer möglich. In unserer Arbeit stellen wir einen Ansatz vor, wie solche Inhalte mithilfe des maschinellen Lernens erkannt werden können. Hierfür werden zunächst die Begriffe Radikalisierung und Hate Speech sprachlich eingeordnet. In diesem Zusammenhang wird darauf eingegangen wie Textdaten bereinigt und strukturiert werden. Anschließend wird der k-Nearest-Neighbor-Algorithmus eingesetzt, um Hate Speech in Tweets zu erkennen und zu klassifizieren. Mit unserem Vorgehen konnten wir einen Genauigkeitswert von 0,82 (Accuracy) erreichen - dieser zeigt die Effektivität des KNN-Klassifikationsansatzes.
- KonferenzbeitragAutomatisierte Generierung fachlicher Prozessmodelle basierend auf natürlichsprachlichen Prozessbeschreibungen(Modellierung 2024, 2024) von Olberg, Pauline; Strey, LukasDie manuelle Erstellung von Prozessmodellen ist eine gängige Tätigkeit im Rahmen der Softwareentwicklung. Die Erstellung der Modelle stellt allerdings eine zeitintensive Aufgabe für IT-Fachkräfte dar. Mit dem Ziel, die Fachkräfte zu entlasten, stellen wir die Methode NL2BPMN und einen Prototyp vor, durch welche natürlichsprachliche sowie fachspezifische Prozessbeschreibungen automatisiert in BPMN-Prozessmodelle transformiert werden können. Die Methode basiert auf Natural Language Processing (NLP) und bedient sich unter anderem dem Part-of-Speech-Tagging sowie dem Dependency Parsing. Ein Bestandteil der Methode ist die Verwendung einer Fachbegriffe-Liste als zusätzlicher Input neben Prozessbeschreibungen, um Fachbegriffe, die aus mehreren Wörtern bestehen, als zusammengehörige Begriffe zu verarbeiten. Ein Vergleich von automatisiert generierten Modellen mit manuell erstellten Modellen zeigt Erfolgsquoten von über 90 \% in allen Bewertungskategorien, sofern eine Fachbegriffe-Liste verwendet wird.
- WorkshopbeitragCorpus2Wiki: A MediaWiki based Annotation & Visualisation Tool for the Digital Humanities(INF-DH-2018, 2018) Rutherford, Eleanor; Hemati, Wahed; Mehler, AlexanderIn this paper, we present WikiExporter, a tool which automatically creates a MediaWiki site for a given corpus of texts. The texts, along with automatically generated annotations and visualisations associated with them, are displayed on this MediaWiki site, locally hosted on the users’ own machine. Several different software components are used to this end - Docker for ease and consistency of deployment, MediaWiki for the core engine, TextImager Client for the generation of annotations and a number of existing, and as well as extended, MediaWiki extensions for the visualisations. This tool was specifically designed for use within the interdisciplinary field of the Digital Humanities, as it provides a visual analysis and representation of texts via a tool which require no programming or advanced computational knowledge and uses an interface already well-known within the Digital Humanities Community, namely MediaWiki.
- KonferenzbeitragCorpus2Wiki: A MediaWiki-based Tool for Automatically Generating Wikiditions in Digital Humanities(INFORMATIK 2019: 50 Jahre Gesellschaft für Informatik – Informatik für Gesellschaft (Workshop-Beiträge), 2019) Hunziker, Alex; Mammadov, Hasanagha; Hemati, Wahed; Mehler, AlexanderWe describe current developments of Corpus2Wiki. Corpus2Wiki is a tool for generating so-calledWikiditions out of text corpora. It provides text analyses, annotations and their visualizations without requiring programming or advanced computer skills. By using TextImager as a back-end, Corpus2Wiki can automatically analyze input documents at different linguistic levels. Currently, it automatically annotates information regarding lemmatization, parts of speech, morphological information, named entities, geolocations and topic labels based on the Dewey Decimal Classification (DDC). Any results are stored and displayed by means of a modified and extended MediaWiki which makes it easy to further process texts and their annotations. The aim of this paper is to present the capabilities of Corpus2wiki, to point out the improvements made and to make suggestions for further development.
- TextdokumentA Demonstration System towards NLP and Knowledge Driven Data Platforms for Civil Engineering(INFORMATIK 2022, 2022) Borst,Janos; Meinecke,Christofer; Wiegreffe,Daniel; Niekler,AndreasWe present a demonstrator that shows a concept towards a smart document platform for Civil Engineering. It demonstrates NLP-supported organisation of documents included into a graphical user interface. The demonstrator addresses the fundamental problem of data structure that includes the internal project logic of a planning project in Civil Engineering. To this end, we build a knowledge graph that includes not only domain-specific knowledge but also standardised project structures. So far included functionalities are a navigation that allows filtering according to a logic familiar to engineers and a simplified data import via automatic classification and tagging using language technologies.
- KonferenzbeitragEntwicklung eines Werkzeugs zur onlinebasierten Bestimmung typenspezifischer Lernpräferenzen(Workshop Gemeinschaften in Neuen Medien (GeNeMe) 2013, 2013) Wortmann, Frank; Frießem, Martina; Zülch, JoachimDie multimediale Aufbereitung von Lerninhalten zu E-Learning Einheiten ist heute in der Aus- und Weiterbildung allgegenwärtig. Häufig wird dabei jedoch die Perspektive der Nutzer der virtuellen Lehr-/Lernsysteme vernachlässigt [1]. In der Regel erfolgt eine standardisierte Aufbereitung der Lerninhalte, welche während der Konzeptionsphase die späteren Konsumenten der E-Learning Einheiten weitestgehend außer Acht lässt. Entsprechend werden meistens weder die Potenziale zur Kostenersparnis durch Teilstandardisierung von Weiterbildungsmodulen noch zur Qualitätssteigerung durch verstärkte Individualisierung annähernd ausgeschöpft. [2] Dabei bleiben individuellen Lernpräferenzen der Teilnehmer unberücksichtigt und Potenziale zur Verbesserung der Lernergebnisse werden nicht genutzt. Um diese Lücke zu schließen, wird basierend auf der Theorie der neurolinguistischen Programmierung ein Online-Werkzeug entwickelt, welches die zur Informationsaufnahme präferierten Sinneskanäle der einzelnen Teilnehmer analysiert und auswertet. Mit diesem Wissen kann die zukünftige Entwicklung und Aufbereitung von E-Learning Inhalten individueller auf die jeweiligen Konsumenten zugeschnitten werden. Zusätzlich soll das Online-Werkzeug den Nutzern Empfehlungen geben, wie sie ihren Lernerfolg verbessern können.
- WorkshopbeitragEvidenzbasierte Definition von Spiel-Design-Elementen durch automatisierte Regelextraktion aus Spielanleitungen(Mensch und Computer 2022 - Workshopband, 2022) Schneider, AlexanderDie Anwendung von Entwurfsmustern zur Lösung wiederkehrender Probleme hat sich in der Praxis bewährt. Auch in der Gamification werden Muster in Form von Spielelementen eingesetzt, um Prozesse motivierender zu gestalten. Die dafür genutzten Muster müssen jedoch gefunden und definiert werden. Es gibt zwar bereits Sammlungen von Spiel-Design-Elementen, aber die Forschung kann nicht als abgeschlossen betrachtet werden, da jedes Jahr neue Spiele entwickelt werden, in denen es möglicherweise neue Elemente zu entdecken gibt. Ein empirischer Ansatz wird vom Projekt EMPAMOS verfolgt, das Spielanleitungen von Gesellschaftsspielen nach Spiel-Design-Elementen durchsucht.Werden in verschiedenen Spielen Kandidaten für Muster gefunden, werden die Textstellen gesammelt und von Fachkräften diskutiert. Am Ende des Prozesses steht die Definition eines Spiel-Design-Elementes. Diese Arbeit stellt einen Ansatz vor, der Fachkräfte für Spiel-Design-Elemente bei der Suche nach neuen Elementen unterstützt, in dem aus den gefunden Textstellen eine möglichst allgemeingültige Definition für das jeweilige Spiel-Design-Element generiert werden soll.
- KonferenzbeitragGeneration of Multiple True False Questions(20. Fachtagung Bildungstechnologien (DELFI), 2022) Kasakowskij,Regina; Kasakowskij, Thomas; Seidel, NielsAssessments are an important part of the learning cycle and enable the development and promotion of competencies. However, the manual creation of assessments is very time-consuming. Therefore, the number of tasks in learning systems is often relatively small. In this paper, we present an algorithm that can automatically generate an arbitrary number of German True False statements from a textbook using the GPT-2 model. The algorithm was evaluated with a selection of textbook chapters from four different academic disciplines and rated by domain experts. One-third of the generated MTF Questions are suitable for learning. The algorithm provides instructors with an easier way to create assessments on chapters of textbooks to test factual knowledge.
- ConferencePaperProgramming in Natural Language with fuSE: Synthesizing Methods from Spoken Utterances Using Deep Natural Language Understanding(Software Engineering 2021, 2021) Weigelt, Sebastian; Steurer, Vanessa; Hey, Tobias; Tichy, WalterWith fuSE laypeople can create simple programs: one can teach intelligent systems new functions using plain English. fuSE uses deep learning to synthesize source code: it creates method signatures (for newly learned functions) and generates API calls (to form the body). In an evaluation on an unseen dataset fuSE synthesized 84.6% of the signatures and 66.9% of the API calls correctly.
- KonferenzbeitragPrototyping a Virtual Tutor with Modular Teaching Styles(21. Fachtagung Bildungstechnologien (DELFI), 2023) Linxen, Andrea; Opel, Simone; Ebbing, Stephanie; Beecks, ChristianDigitization and artificial intelligence (AI) have entered education in several different ways. While the current development of large language models enables students to access vast knowledge, virtual tutors offer a more tailored approach and better support for time-independent and individualized learning. As several AI systems have become more common in higher education, we developed a concept to implement a virtual tutor with different teaching styles, using the conversational AI plat-form Rasa. This tutor teaches students basic Exploratory Data Analysis in linear, free, and modular learning phases. In the future, we will conduct comprehensive studies to determine the ability of the virtual tutor to support successful learning.