Auflistung nach Schlagwort "Textanalyse"
1 - 3 von 3
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragDie Gratwanderung zwischen qualitativ hochwertigen und einfach zu erstellenden domänenspezifischen Textanalysen(Datenbanksysteme für Business, Technologie und Web (BTW 2017) - Workshopband, 2017) Kiefer, CorneliaDie Textanalyse ist zu einem entscheidenden Werkzeug in verschiedenen Domänen wie den Geisteswissenschaften, Naturwissenschaften sowie auch in der Industrie geworden. Eine der größten Herausforderungen bei domänenspezifischen Textanalyseprojekten besteht darin, das Wissen aus den Bereichen IT und Text Mining mit dem Wissen aus der Domäne zusammenzubringen. Viele Textanalysetoolkits werden deshalb speziell für den Gebrauch durch Domänenexperten ohne oder mit wenig IT und Textanalysewissen vereinfacht. In diesem Beitrag diskutieren wir, inwiefern diese Vereinfachungen zu Qualitätsproblemen bei der Analyse von unsauberen Daten führen können.
- ZeitschriftenartikelQUALM: Ganzheitliche Messung und Verbesserung der Datenqualität in der Textanalyse(Datenbank-Spektrum: Vol. 19, No. 2, 2019) Kiefer, Cornelia; Reimann, Peter; Mitschang, BernhardBestehende Ansätze zur Messung und Verbesserung der Qualität von Textdaten in der Textanalyse bringen drei große Nachteile mit sich. Evaluationsmetriken wie zum Beispiel Accuracy messen die Qualität zwar verlässlich, sie (1) sind jedoch auf aufwändig händisch zu erstellende Goldannotationen angewiesen und (2) geben keine Ansatzpunkte für die Verbesserung der Qualität. Erste domänenspezifische Datenqualitätsmethoden für unstrukturierte Textdaten kommen zwar ohne Goldannotationen aus und geben Ansatzpunkte zur Verbesserung der Datenqualität. Diese Methoden wurden jedoch nur für begrenzte Anwendungsgebiete entwickelt und (3) berücksichtigen deshalb nicht die Spezifika vieler Analysetools in Textanalyseprozessen. In dieser Arbeit präsentieren wir hierzu das QUALM-Konzept zum qual itativ hochwertigen M ining von Textdaten (QUALity Mining), das die drei o.g. Nachteile adressiert. Das Ziel von QUALM ist es, die Qualität der Analyseergebnisse, z. B. bzgl. der Accuracy einer Textklassifikation, auf Basis einer Messung und Verbesserung der Datenqualität zu erhöhen. QUALM bietet hierzu eine Menge an QUALM-Datenqualitätsmethoden. QUALM- Indikatoren erfassen die Datenqualität ganzheitlich auf Basis der Passung zwischen den Eingabedaten und den Spezifika der Analysetools, wie den verwendeten Features, Trainingsdaten und semantischen Ressourcen (wie zum Beispiel Wörterbüchern oder Taxonomien). Zu jedem Indikator gehört ein passender Modifikator , mit dem sowohl die Daten als auch die Spezifika der Analysetools verändert werden können, um die Datenqualität zu erhöhen. In einer ersten Evaluation von QUALM zeigen wir für konkrete Analysetools und Datensätze, dass die Anwendung der QUALM-Datenqualitätsmethoden auch mit einer Erhöhung der Qualität der Analyseergebnisse im Sinne der Evaluationsmetrik Accuracy einhergeht. Die Passung zwischen Eingabedaten und Spezifika der Analysetools wird hierzu mit konkreten QUALM-Modifikatoren erhöht, die zum Beispiel Abkürzungen auflösen oder automatisch auf Basis von Textähnlichkeitsmetriken passende Trainingsdaten vorschlagen.
- ZeitschriftenartikelSearching-Tool für Compliance(HMD Praxis der Wirtschaftsinformatik: Vol. 56, No. 5, 2019) Hengartner, UrsText ist immer noch die vorherrschende Kommunikationsform der heutigen Geschäftswelt. Techniken des Textverstehens erschliessen vielfältiges Wissen zur Verbesserung der Kommunikation zwischen Menschen und Maschinen. In der letzten Zeit haben das automatische Textverstehen und die Extraktion von Semantik bedeutende Fortschritte gemacht. Der Vorteil der Nutzung eines Textanalysesystems für die Überprüfung der Regelkonformität in der Finanzbranche, ist angesichts des Wachstums der Online-Informationen wichtiger denn je. Es ist eine Herausforderung, aktuelle Informationen über Kunden, Unternehmen und Lieferanten zu verfolgen und zu interpretieren. Bei fehlerhaftem Verhalten sind die Auswirkungen auf ein Unternehmen unter Umständen drastisch. Zum Beispiel sind Kundeneröffnungen wegen verordneten Abklärungen für Finanzinstitute oft komplex und kostenintensiv. Um zum Beispiel Missbräuche (Geldwäsche) aufzudecken müssen grosse Mengen an textueller Daten interpretiert werden. Vorgestellt wird ein Anwendungsfall aus der Praxis mit dem Analysewerkzeug Person-Check und den dabei angewandten Textanalysen. Person-Check ermöglicht deutlich effizientere Abklärungen in Compliance-Prüfprozessen unter Berücksichtigung internationaler, lokaler und firmeninternen Richtlinien. Text is still the predominant form of communication in today’s business world. Techniques of text comprehension open up a wide range of knowledge for improving communication between people and machines. Recently, automatic text comprehension and the extraction of semantics have made significant progress. The advantage of using a text analysis system to verify compliance in the financial industry is more important than ever given the growths of online information. It is a challenge to track and interpret current information about customers, companies and suppliers. If an organization behaves incorrectly, the impact can be very drastic. For example, customer openings today are often complex and costly for financial institutions due to mandated clarifications. In order to detect abuses (money laundering), large amounts of textual data must be interpreted. A case study from practice with the textual analysis tool Person-Check and the applied text analytics, will be presented. Person-Check enables significantly more efficient clarifications in compliance audit processes, taking into account international, local and internal company guidelines.