Auflistung nach Schlagwort "Kausalanalyse"
1 - 2 von 2
Treffer pro Seite
Sortieroptionen
- ZeitschriftenartikelKausalanalyse mit maschinellem Lernen(HMD Praxis der Wirtschaftsinformatik: Vol. 57, No. 1, 2020) Huber, MartinDie datenbasierte Kausalanalyse versucht, den kausalen Effekt einer Intervention auf ein interessierendes Ergebnis zu messen, häufig unter Kontrolle beobachtbarer Charakteristiken, die ebenfalls das Ergebnis beeinflussen. Beispiele für kausale Fragestellungen sind: Was ist der Effekt einer Marketingkampagne (Intervention) auf die Verkaufszahlen (Ergebnis) unter ansonsten identischen Marktbedingungen? Was ist der Effekt einer Zinsveränderung (Intervention) auf den Aktienkurs (Ergebnis) unter ansonsten identischen wirtschaftlichen Rahmenbedingungen? Die Kausalanalyse unterscheidet sich deshalb konzeptionell von der statistischen Vorhersage. Letztere versucht aus Kombinationen von Charakteristiken (zum Beispiel Zinssatz, Wirtschaftswachstum, Unternehmensgewinn) möglichst genau das Ergebnis (zum Beispiel Aktienkurs) vorherzusagen, ohne die kausalen Effekte der einzelnen Charakteristiken zu bestimmen. Im Zeitalter von „Big Data“ erfährt die Vorhersage in vielen Bereichen einen qualitativen Quantensprung aufgrund des Einsatzes von maschinellem Lernen. Letzteres vermag in großen Datensätzen jene Kombinationen von Charakteristiken zu lernen, die für die Vorhersage des Ergebnisses entscheidend sind. Dieser Beitrag diskutiert, wie die Vorzüge des maschinellen Lernens auch für die Kausalanalyse in großen Daten genutzt werden können. Die Messung eines kausalen Effektes ist möglich, wenn für Charakteristiken, welche die Intervention und das Ergebnis bedeutend beeinflussen, kontrolliert werden kann. Dies lässt sich durch sogenanntes „doppeltes maschinelles Lernen“ implementieren. Dabei werden sowohl die Intervention, als auch das Ergebnis als Funktion der anderen Charakteristiken vorhergesagt um letztendlich den Effekt der Intervention auf das Ergebnis zu schätzen. Der Beitrag diskutiert diesen Ansatz beispielhaft anhand eines bestimmten statistischen Modells und verweist auf mehrere Praxisbeispiele. Data-based causal analysis aims at evaluating the causal effect of some intervention on an outcome of interest, frequently by controlling for observed characteristics also affecting the outcome. Examples for causal questions are: What is the effect of a marketing campaign (intervention) on sales (outcome) under otherwise identical market conditions? What is the effect of a change in interest rates (intervention) on stock prices (outcome) under otherwise identical economic conditions? Therefore, causal analysis conceptually differs from statistical prediction. The latter aims at predicting an outcome (e.g. stock prices) from a combination of characteristics (e.g. interest rates, economic growth, profits), however, without determining the causal effects of the various characteristics. In the age of “big data”, the use of machine learning has entailed a boost in the quality of predictions in many domains. In sufficiently large data, machine learning is capable of learning those combinations of characteristics that are crucial for the prediction of the outcome. This article discusses how the benefits of machine learning can also be used for causal analysis in big data. Evaluating a causal effect is feasible if any characteristics that importantly affect both the intervention and the outcome can be controlled for. So-called “double machine learning” may achieve this goal. It consists of predicting both the intervention and the outcome as functions of the other characteristics to ultimately estimate the effect of the intervention on the outcome. The article discusses this approach based on a particular statistical model and refers the reader to several empirical examples.
- ZeitschriftenartikelOutsourcing der Informationsverarbeitung im Mittelstand: Test eines multitheoretischen Kausalmodells(Wirtschaftsinformatik: Vol. 51, No. 1, 2009) Dibbern, Jens; Heinzl, ArminIn dem vorliegenden Beitrag wird die Situation des Outsourcings der Informationsverarbeitung (IV) in einer für den Mittelstand spezifischen Branche beleuchtet. Auf Basis theoretischer Überlegungen werden die wesentlichen Determinanten des Outsourcings der IV abgeleitet und zu einem theoretischen Bezugsrahmen zusammengefasst. Dieser wird anhand von 34 kleinen und mittleren Unternehmen (KMU) einem empirischen Test unterzogen. Die wesentlichen Ergebnisse der Studie lassen sich wie folgt darstellen: Insgesamt kann der Anteil des Outsourcings der IV in KMU als moderat eingestuft werden. Die Funktionen der IV werden in KMU selektiv, d. h. in unterschiedlichem Maße ausgelagert. Während die Anwendungsentwicklung den höchsten Anteil ausmacht, verbleibt die Planung und das Management weitgehend innerhalb der Unternehmensgrenzen. Die Einschätzung interner Leistungs- und Wissensdefizite gegenüber externen Dienstleistern bildet die dominierende Determinante zur Erklärung des unterschiedlichen Grades der Auslagerung von Funktionen der Informationsverarbeitung. Demgegenüber scheinen Rationalitätskalküle wie die Berücksichtigung von Transaktionskosten und die Einschätzung der strategischen Bedeutung der IV in den Hintergrund zu rücken.Überarbeiteter Nachdruck eines Aufsatzes aus WIRTSCHAFTSINFORMATIK 43(4)2001:339–350.AbstractIn this paper determinants of information systems (IS) outsourcing are deduced from transaction cost economic theory, resource-based theory and power theory. They are summarized in a theoretical framework which is tested using a sample of small and medium sized enterprises (SMEs) in Germany. The results show that internal performance and know-how deficits vis-à-vis external service providers are key determinants that explain why different IS functions are outsourced to varying degrees in SMEs. Moreover, the determinants of IS functions were found to partially differ between IS functions.Revised reprint of an article from WIRTSCHAFTSINFORMATIK 43(4)2001:339–350.