Auflistung Band 45 - Heft 1 (Februar 2022) nach Erscheinungsdatum
1 - 10 von 12
Treffer pro Seite
Sortieroptionen
- ZeitschriftenartikelManfred Paul (1932–2021)(Informatik Spektrum: Vol. 45, No. 1, 2022) Langmaack, Hans; Schmidt, Gunther
- ZeitschriftenartikelEffektives Lehren und Lernen in der Informatik, Wirtschaftsinformatik und verwandten Fachgebieten(Informatik Spektrum: Vol. 45, No. 1, 2022) Ellmann, MathiasIn diesem Artikel behandeln wir unser Lehrbaummodell mit den Lehr- und Lernmethoden, welches zum effektiven Lehren und Lernen in der Informatik, Wirtschaftsinformatik und verwandten Fachgebieten hinführt. Das Lehrbaummodell hat in seinen Stamm Planung und Motivation als wichtigste Lehrmethodiken auf dem effektives Lehren und Lernen basiert. Die Blätter des Lehrbaummodells wie Kommunikation, Material, Gedächtnis, Aufmerksamkeit, Lernstörung und Aktivierung im Unterricht stellen notwendige Teile des effektiven Lehren und Lernens dar und schließlich folgt der Gipfel: die Überprüfung auf Effektivität des Unterrichts und der Lehrmethoden. Wir zeigen Wege auf, wie der Wandel von traditionellen Lehrmethoden wie des Haltens eines Vortrags oder einer Vorlesung mit wenig Interaktion zu moderneren, effektiveren Methoden durch die Verwendung des Lehrbaummodells stattfinden kann. Der Artikel zeigt auf, wie Frustration im Lehren und Lernen in der Informatik, Wirtschaftsinformatik und verwandten Fachgebieten vermieden und effektiver gelehrt und gelernt werden kann. Wir versuchen, mit diesen Artikel einen Wandel von traditionellen Lehrmethoden zu psychologisch moderneren Lehrmethoden zu ermöglichen.
- ZeitschriftenartikelVerträge auf elektronischem Weg(Informatik Spektrum: Vol. 45, No. 1, 2022) Sury, Ursula
- ZeitschriftenartikelSkizze eines Verfahrens zur Erstellung von Ontologien mittels Formaler Begriffsanalyse(Informatik Spektrum: Vol. 45, No. 1, 2022) Lübbert, Christoph; Zeh, ThomasDie Formale Begriffsanalyse vermag aus den Daten zu Gegenständen und deren Merkmalen eine Datenstruktur zu ermitteln. Es wird ein weitgehend automatisierbares Verfahren vorgestellt, das ausgehend von Elementarsätzen in Form von RDF-Tripeln in einem iterativen Bottom-up-Prozess mittels Semantischer Netze und der Formalen Begriffsanalyse zu einem Ontologieschema führt. Neben der Taxonomie der Klassen wird hierbei auch eine Taxonomie der Relationstypen erstellt. Die durch die Formale Begriffsanalyse automatisch erstellten Merkmalimplikationen können für die Qualitätssicherung herangezogen werden. Führt diese zu Korrekturen und Erweiterungen der Elementarsätze, wird der Prozess wiederholt. Das resultierende Ontologieschema wird in ein Entity-Relationship-Diagramm überführt, das die Grundlage für ein konzeptionelles Datenbankschema liefert. Zur Demonstration des Verfahrens wird exemplarisch eine Ontologie eines Wissensgebiets erstellt. Alle Überlegungen zur Erstellung des Ontologieschemas lassen sich prinzipiell auch bei der Erstellung und Ausarbeitung beliebiger semantischer Datenschemata anwenden. Somit bietet diese Bottom-up-Methode die Chance, die Generierung des Datenbankschemas algorithmisch durch Beispielsammlungen zu unterstützen. Da jeder Schritt im Verfahren nachvollziehbar und somit von der Person des Modellierers unabhängig ist, liefert das Verfahren einen Beitrag zur Automatisierung der Modellierung, insbesondere von Ontologien.
- ZeitschriftenartikelUm etliche Ecken ged8(Informatik Spektrum: Vol. 45, No. 1, 2022) Windenberg, Rolf
- ZeitschriftenartikelData Preprocessing as a Service – Outsourcing der Datenvorverarbeitung für KI-Modelle mithilfe einer digitalen Plattform(Informatik Spektrum: Vol. 45, No. 1, 2022) Kureljusic, Marko; Karger, ErikSowohl in der Praxis als auch in der Wissenschaft kam es in den vergangenen Jahren zu einem zunehmenden Interesse an datenintensiven Verfahren, wie der künstlichen Intelligenz. Die Mehrheit dieser Data-Science-Projekte fokussierte sich auf den Erklärungsgehalt und die Robustheit der Modelle. Vernachlässigt wurde hierbei häufig der Prozess der Datenvorverarbeitung, obwohl dieser ca. 80 % der Zeit eines Data-Science-Projekts beansprucht. Im Rahmen der Datenvorverarbeitung, welche auch als Data Preprocessing bezeichnet wird, werden Daten akquiriert, bereinigt, transformiert und reduziert. Das Ziel dieser Vorgehensweise ist die Generierung eines Datensatzes, welcher sich für Trainings- und Testzwecke der Data-Science-Modelle eignet. Somit ist das Data Preprocessing ein erforderlicher Prozessschritt, der für das maschinelle Erlernen von korrekten Mustern und Zusammenhängen notwendig ist. Häufig scheitern Data-Science-Projekte jedoch an der mangelhaften Datenvorverarbeitung. So werden beispielsweise fehlerhafte Daten nicht vorab identifiziert, wodurch möglicherweise falsche Zusammenhänge erlernt werden. Dies führt dazu, dass der Erklärungsgehalt der Data-Science-Modelle signifikant verringert wird. Eine Möglichkeit, dieses Problem zu lösen, ist das Outsourcing der Datenvorverarbeitung an spezialisierte Fachkräfte. Mithilfe einer Plattform kann ein sicherer und automatisierter Datenaustausch zwischen Kunden und Dienstleistern gewährleistet werden. Der vorliegende Beitrag thematisiert, wie die Plattform für das Data Preprocessing genutzt werden kann, um eine effizientere und schnellere Bereitstellung der Daten zu ermöglichen.
- ZeitschriftenartikelDigital Literacy(Informatik Spektrum: Vol. 45, No. 1, 2022) Rolf, ArnoIn diesem Beitrag geht es nicht um fachspezifische Inhalte der Informatik. Um sie kümmern sich viele Lehrende in Forschung und Lehre und seit mehr als einem Jahr unter den erschwerten Bedingungen der Pandemie. Es geht um das Innovative der digitalen Transformation, um die Herausforderungen und Potenziale für Gesellschaft, Ökonomie und Umwelt und wie diese Teil der Informatiklehre werden können. Orientierung und Urteilsfähigkeit über den Prozess der digitalen Transformation zu erwerben, sollte im Zentrum von Digital Literacy stehen. Der Beitrag basiert auf Lehrerfahrungen aus mehreren Semestern, über die wir berichten werden.
- ZeitschriftenartikelGewissensbits – wie würden Sie urteilen?(Informatik Spektrum: Vol. 45, No. 1, 2022) Rehak, Rainer; Becker, Nikolas; Junginger, Pauline; Obert, Otto
- ZeitschriftenartikelSocial Machines(Informatik Spektrum: Vol. 45, No. 1, 2022) Draude, Claude; Gruhl, Christian; Hornung, Gerrit; Kropf, Jonathan; Lamla, Jörn; Leimeister, Jan Marco; Sick, Bernhard; Stumme, GerdSocial Machines sind ein Paradigma für die Gestaltung soziotechnischer Systeme, die unter Verwendung von Web- und Plattformlösungen das Potenzial digitaler Technologien mit der Eigenlogik sozialer Interaktion, Organisation und Strukturbildung auf neue Weise zusammenführen. Im Folgenden diskutieren wir das Paradigma der Social Machine aus den Perspektiven der Informatik, der Wirtschaftsinformatik, der Soziologie und des Rechts, um Orientierungspunkte für seine Gestaltung zu identifizieren. Der Begriff ist in der Literatur jedoch bisher nicht abschließend definiert sondern nur durch Beispiele illustriert. In diesem Artikel stellen wir zunächst die folgende Definition zur Diskussion: Social Machines sind soziotechnische Systeme, in denen die Prozesse sozialer Interaktion hybrid zwischen menschlichen und maschinellen Akteuren ablaufen und teilweise algorithmisiert sind. Im Anschluss beleuchten wir drei aktuelle, sich gegenseitig bedingende Entwicklungen von Social Machines: die immer stärkere Verschmelzung von Sozialität und Maschine, die Vermessung von Nutzeraktivitäten als Grundstoff gesellschaftlichen Zusammenhalts und die zunehmende Algorithmisierung gesellschaftlicher Prozesse. Abschließend diskutieren wir, dass eine teilhabeorientierte, demokratischen Werten folgende Gestaltung von Social Machines die Perspektiven der Nutzungsakzeptanz, der gesellschaftlichen Akzeptabilität und der nachhaltigen Wirtschaftlichkeit adressieren und umsetzen muss.
- ZeitschriftenartikelDr. Jekyll, Mr. Hyde und Distributed-Ledger-Technologien(Informatik Spektrum: Vol. 45, No. 1, 2022) Portmann, EdyIn seiner Common-Sense-Kolumne zeigt Edy Portmann auf, dass „Fuzzy Thinking“ ein Weg der nachhaltigeren Systementwicklung bieten könnte, da dieses Denken natürliche, approximative Problemlösungen ermöglichen kann, die für eine herkömmliche, präzise Herangehensweise viel zu komplex sind.