Auflistung nach Schlagwort "NLP"
1 - 10 von 15
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragAutomatisierte Analyse Radikaler Inhalte im Internet(INFORMATIK 2019: 50 Jahre Gesellschaft für Informatik – Informatik für Gesellschaft, 2019) Vogel, Inna; Regev, Roey; Steinebach, MartinRassismus, Antisemitismus, Sexismus und andere Diskriminierungs- und Radikalisierungsformen zeigen sich auf unterschiedliche Arten im Internet. Es kann als Satire verpackt sein oder als menschenverachtende Parolen. Sogenannte Hassrede ist für die Kommunikationskultur ein Problem, dem die betroffenen Personen oder Personengruppen ausgesetzt sind. Zwar gibt es den Volksverhetzungsparagraphen (§ 130 StGB), Hassrede liegt allerdings nicht selten außerhalb des justiziablen Bereichs. Dennoch sind hasserfüllte Aussagen problematisch, da sie mit falschen Fakten Gruppierungen radikalisieren und Betroffene in ihrer Würde verletzen. 2017 stellte die Bundesregierung das Netzwerkdurchsetzungsgesetz vor, welches die sozialen Netzwerke dazu zwingt, Hassrede konsequent zu entfernen. Ohne eine automatisierte Erkennung ist dieses aber nur schwer möglich. In unserer Arbeit stellen wir einen Ansatz vor, wie solche Inhalte mithilfe des maschinellen Lernens erkannt werden können. Hierfür werden zunächst die Begriffe Radikalisierung und Hate Speech sprachlich eingeordnet. In diesem Zusammenhang wird darauf eingegangen wie Textdaten bereinigt und strukturiert werden. Anschließend wird der k-Nearest-Neighbor-Algorithmus eingesetzt, um Hate Speech in Tweets zu erkennen und zu klassifizieren. Mit unserem Vorgehen konnten wir einen Genauigkeitswert von 0,82 (Accuracy) erreichen - dieser zeigt die Effektivität des KNN-Klassifikationsansatzes.
- KonferenzbeitragAutomatisierte Generierung fachlicher Prozessmodelle basierend auf natürlichsprachlichen Prozessbeschreibungen(Modellierung 2024, 2024) von Olberg, Pauline; Strey, LukasDie manuelle Erstellung von Prozessmodellen ist eine gängige Tätigkeit im Rahmen der Softwareentwicklung. Die Erstellung der Modelle stellt allerdings eine zeitintensive Aufgabe für IT-Fachkräfte dar. Mit dem Ziel, die Fachkräfte zu entlasten, stellen wir die Methode NL2BPMN und einen Prototyp vor, durch welche natürlichsprachliche sowie fachspezifische Prozessbeschreibungen automatisiert in BPMN-Prozessmodelle transformiert werden können. Die Methode basiert auf Natural Language Processing (NLP) und bedient sich unter anderem dem Part-of-Speech-Tagging sowie dem Dependency Parsing. Ein Bestandteil der Methode ist die Verwendung einer Fachbegriffe-Liste als zusätzlicher Input neben Prozessbeschreibungen, um Fachbegriffe, die aus mehreren Wörtern bestehen, als zusammengehörige Begriffe zu verarbeiten. Ein Vergleich von automatisiert generierten Modellen mit manuell erstellten Modellen zeigt Erfolgsquoten von über 90 \% in allen Bewertungskategorien, sofern eine Fachbegriffe-Liste verwendet wird.
- WorkshopbeitragCorpus2Wiki: A MediaWiki based Annotation & Visualisation Tool for the Digital Humanities(INF-DH-2018, 2018) Rutherford, Eleanor; Hemati, Wahed; Mehler, AlexanderIn this paper, we present WikiExporter, a tool which automatically creates a MediaWiki site for a given corpus of texts. The texts, along with automatically generated annotations and visualisations associated with them, are displayed on this MediaWiki site, locally hosted on the users’ own machine. Several different software components are used to this end - Docker for ease and consistency of deployment, MediaWiki for the core engine, TextImager Client for the generation of annotations and a number of existing, and as well as extended, MediaWiki extensions for the visualisations. This tool was specifically designed for use within the interdisciplinary field of the Digital Humanities, as it provides a visual analysis and representation of texts via a tool which require no programming or advanced computational knowledge and uses an interface already well-known within the Digital Humanities Community, namely MediaWiki.
- KonferenzbeitragCorpus2Wiki: A MediaWiki-based Tool for Automatically Generating Wikiditions in Digital Humanities(INFORMATIK 2019: 50 Jahre Gesellschaft für Informatik – Informatik für Gesellschaft (Workshop-Beiträge), 2019) Hunziker, Alex; Mammadov, Hasanagha; Hemati, Wahed; Mehler, AlexanderWe describe current developments of Corpus2Wiki. Corpus2Wiki is a tool for generating so-calledWikiditions out of text corpora. It provides text analyses, annotations and their visualizations without requiring programming or advanced computer skills. By using TextImager as a back-end, Corpus2Wiki can automatically analyze input documents at different linguistic levels. Currently, it automatically annotates information regarding lemmatization, parts of speech, morphological information, named entities, geolocations and topic labels based on the Dewey Decimal Classification (DDC). Any results are stored and displayed by means of a modified and extended MediaWiki which makes it easy to further process texts and their annotations. The aim of this paper is to present the capabilities of Corpus2wiki, to point out the improvements made and to make suggestions for further development.
- TextdokumentA Demonstration System towards NLP and Knowledge Driven Data Platforms for Civil Engineering(INFORMATIK 2022, 2022) Borst,Janos; Meinecke,Christofer; Wiegreffe,Daniel; Niekler,AndreasWe present a demonstrator that shows a concept towards a smart document platform for Civil Engineering. It demonstrates NLP-supported organisation of documents included into a graphical user interface. The demonstrator addresses the fundamental problem of data structure that includes the internal project logic of a planning project in Civil Engineering. To this end, we build a knowledge graph that includes not only domain-specific knowledge but also standardised project structures. So far included functionalities are a navigation that allows filtering according to a logic familiar to engineers and a simplified data import via automatic classification and tagging using language technologies.
- KonferenzbeitragDeveloping a Personalized Study Program Recommender(Proceedings of DELFI Workshops 2024, 2024) Scheffler, Marc; Dieing, Thilo I.; Cohausz, LeaThis paper presents a recommender system designed to match prospective students with study programs in Baden-Württemberg, Germany, streamlining the selection process by providing personalized recommendations based on user queries. Utilizing data from approximately 1,500 study programs and employing natural language processing and machine learning techniques, specifically the German fastText model for word embeddings, our system captures the semantic relationships between user queries and program descriptions. We evaluated the system’s performance using both manual test cases and automated validation methods. The manual evaluation involved subjective assessments by multiple raters, while the automated approach utilized self-supervised keyword-based approaches. The results demonstrate the system’s effectiveness in enhancing the study program selection process.
- KonferenzbeitragEntwicklung eines Werkzeugs zur onlinebasierten Bestimmung typenspezifischer Lernpräferenzen(Workshop Gemeinschaften in Neuen Medien (GeNeMe) 2013, 2013) Wortmann, Frank; Frießem, Martina; Zülch, JoachimDie multimediale Aufbereitung von Lerninhalten zu E-Learning Einheiten ist heute in der Aus- und Weiterbildung allgegenwärtig. Häufig wird dabei jedoch die Perspektive der Nutzer der virtuellen Lehr-/Lernsysteme vernachlässigt [1]. In der Regel erfolgt eine standardisierte Aufbereitung der Lerninhalte, welche während der Konzeptionsphase die späteren Konsumenten der E-Learning Einheiten weitestgehend außer Acht lässt. Entsprechend werden meistens weder die Potenziale zur Kostenersparnis durch Teilstandardisierung von Weiterbildungsmodulen noch zur Qualitätssteigerung durch verstärkte Individualisierung annähernd ausgeschöpft. [2] Dabei bleiben individuellen Lernpräferenzen der Teilnehmer unberücksichtigt und Potenziale zur Verbesserung der Lernergebnisse werden nicht genutzt. Um diese Lücke zu schließen, wird basierend auf der Theorie der neurolinguistischen Programmierung ein Online-Werkzeug entwickelt, welches die zur Informationsaufnahme präferierten Sinneskanäle der einzelnen Teilnehmer analysiert und auswertet. Mit diesem Wissen kann die zukünftige Entwicklung und Aufbereitung von E-Learning Inhalten individueller auf die jeweiligen Konsumenten zugeschnitten werden. Zusätzlich soll das Online-Werkzeug den Nutzern Empfehlungen geben, wie sie ihren Lernerfolg verbessern können.
- WorkshopbeitragEvidenzbasierte Definition von Spiel-Design-Elementen durch automatisierte Regelextraktion aus Spielanleitungen(Mensch und Computer 2022 - Workshopband, 2022) Schneider, AlexanderDie Anwendung von Entwurfsmustern zur Lösung wiederkehrender Probleme hat sich in der Praxis bewährt. Auch in der Gamification werden Muster in Form von Spielelementen eingesetzt, um Prozesse motivierender zu gestalten. Die dafür genutzten Muster müssen jedoch gefunden und definiert werden. Es gibt zwar bereits Sammlungen von Spiel-Design-Elementen, aber die Forschung kann nicht als abgeschlossen betrachtet werden, da jedes Jahr neue Spiele entwickelt werden, in denen es möglicherweise neue Elemente zu entdecken gibt. Ein empirischer Ansatz wird vom Projekt EMPAMOS verfolgt, das Spielanleitungen von Gesellschaftsspielen nach Spiel-Design-Elementen durchsucht.Werden in verschiedenen Spielen Kandidaten für Muster gefunden, werden die Textstellen gesammelt und von Fachkräften diskutiert. Am Ende des Prozesses steht die Definition eines Spiel-Design-Elementes. Diese Arbeit stellt einen Ansatz vor, der Fachkräfte für Spiel-Design-Elemente bei der Suche nach neuen Elementen unterstützt, in dem aus den gefunden Textstellen eine möglichst allgemeingültige Definition für das jeweilige Spiel-Design-Element generiert werden soll.
- KonferenzbeitragGeneration of Multiple True False Questions(20. Fachtagung Bildungstechnologien (DELFI), 2022) Kasakowskij,Regina; Kasakowskij, Thomas; Seidel, NielsAssessments are an important part of the learning cycle and enable the development and promotion of competencies. However, the manual creation of assessments is very time-consuming. Therefore, the number of tasks in learning systems is often relatively small. In this paper, we present an algorithm that can automatically generate an arbitrary number of German True False statements from a textbook using the GPT-2 model. The algorithm was evaluated with a selection of textbook chapters from four different academic disciplines and rated by domain experts. One-third of the generated MTF Questions are suitable for learning. The algorithm provides instructors with an easier way to create assessments on chapters of textbooks to test factual knowledge.
- KonferenzbeitragNatural Language Processing und RE in der Praxis – Erfahrungen aus unterschiedlichen Anwendungskontexten(Softwaretechnik-Trends Band 40, Heft 1, 2020) Morais Ferreira, David; van Zwamen, Patric; Schmitt, Max; Becker, MartinIn den frühen Phasen von Engineering Projekten müssen viele Informationen aus unterschiedlichsten Quellen erfasst, inspiziert und im aktuellen Projektkontext bewertet werden. Zumeist handelt es sich hierbei um Spezifikationen, Use-Cases, Benutzerdokumentation sowie sonstige Dokumente in natürlicher Sprache. Diese können entweder frei oder mit Hilfe von Satzschablonen formuliert sein. Die besondere Herausforderung besteht darin, relevante Informationen aus den frei formulierten Texten möglichst effizient zu extrahieren und zu interpretieren. Im Zuge der Digitalisierung gewinnt darüber hinaus der Aufbau von expliziten Domänenmodellen massiv an Bedeutung. Dies geht auch mit einer Zunahme an firmeninternen Artefakten und Verknüpfungen zwischen diesen einher. Die erforderlichen Inspektions-Arbeiten an den Dokumenten wurden bisher von Experten durchgeführt, die sowohl Erfahrung im Projektmanagement, RE und in der Domäne haben und damit für die Firmen relativ teuer sind. Dieser Artikel diskutiert Erfahrungen im Einsatz von NLP (Natural Language Processing) für die Qualitätsprüfung von Anforderungen, Aufbau von Domänenmodellen, Aufbau von Wiederverwendungsdatenbanken und Feature Extraktion.