Auflistung nach Autor:in "Engel, Michael"
1 - 5 von 5
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragFast and low-cost instruction-aware fault injection(INFORMATIK 2013 – Informatik angepasst an Mensch, Organisation und Umwelt, 2013) Heinig, Andreas; Korb, Ingo; Schmoll, Florian; Marwedel, Peter; Engel, MichaelIn order to assess the robustness of software-based fault-tolerance methods, extensive tests have to be performed that inject faults, such as bit flips, into hardware components of a running system. Fault injection commonly uses either system simulations, resulting in execution times orders of magnitude longer than on real systems, or exposes a real system to error sources like radiation. This can take place in real time, but it enables only a very coarse-grained control over the affected system component. A solution combining the best characteristics from both approaches should achieve precise fault injection in real hardware systems. The approach presented in this paper uses the JTAG background debug facility of a CPU to inject faults into main memory and registers of a running system. Compared to similar earlier approaches, our solution is able to achieve rapid fault injection using a low-cost microcontroller instead of a complex FPGA. Consequently, our injection software is much more flexible. It allows to restrict error injection to the execution of a set of predefined components, resulting in a more precise control of the injection, and also emulates error reporting, which enables the evaluation of different error detection approaches in addition to robustness evaluation.
- BerichtePerspektiven nachqualifizierter Lehrkräfte auf ihren Informatik-Unterricht - Erfahrungen aus einer Weiterbildungsmaßnahme für bayerische Lehrkräfte(INFOS 2023 - Informatikunterricht zwischen Aktualität und Zeitlosigkeit, 2023) Engel, Michael; Michaeli, TilmanFür die zunehmende Verbreitung eines verpflichtenden Schulfachs Informatik stellt die Verfügbarkeit qualifizierter Informatiklehrkräfte eine zentrale Herausforderung dar, die durch den allgemeinen Lehrkräftemangel noch verstärkt wird. Ein typischer Ansatz dieses Problem zu adressieren ist die berufsbegleitende Weiterbildung von (fachfremden) Lehrkräften. In der Durchführung entsprechender Nachqualifikationsmaßnahmen stellt sich die Herausforderung, wie die knappe zur Verfügung stehende Zeit genutzt werden soll. Dabei ergibt sich insbesondere ein Konflikt zwischen fachlichem Niveau, fachdidaktischem Wissen sowie unterrichtspraktischen Inhalten. Auch die organisatorische Gestaltung solcher Maßnahmen birgt angesichts der parallel zur Durchführung bestehenden beruflichen Verpflichtungen der Teilnehmer:innen diverse Schwierigkeiten. In diesem Beitrag wurden daher Absolvent:innen einer bayerischen Nachqualifizierungsmaßnahme am Ende ihres ersten Jahres Informatikunterricht zu ihren Erfahrungen im Unterricht und mit der Maßnahme befragt. Die Ergebnisse zeigen, dass die im Laufe der Maßnahme gewonnene fachliche Tiefe den Lehrkräften Sicherheit vermittelt, gleichzeitig aber trotz mehrjähriger Unterrichtspraxis in anderen Fächern stellenweise das fachdidaktische Handwerkszeug für den Informatikunterricht fehlt. Weiterhin werden für die organisatorischen Rahmenbedingungen insbesondere Lerngemeinschaften, differenzierende Angebote je nach Vorkenntnissen sowie der Wunsch nach intensiver Betreuung hervorgehoben. Ausgehend von diesen Ergebnissen werden Empfehlungen für vergleichbare Maßnahmen herausgearbeitet.
- KonferenzbeitragThe reliable computing base – A paradigm for software-based reliability(INFORMATIK 2012, 2012) Engel, Michael; Döbel, BjörnFor embedded systems, the use of software-based error detection and correction approaches is an attractive means in order to reduce often inconvenient overheads in hardware. To ensure that such a software-based fault-tolerance approach is effective, it must be guaranteed that a certain amount of hardware and software components in a system can be trusted to provide correct service in the presence of errors. In analogy with the Trusted Computing Base (TCB) in security research, we call these components the Reliable Computing Base (RCB). Similar to the TCB, it is also desirable to reduce the size of the RCB, so the overhead in redundant hardware resources can be reduced. In this position paper, we describe approaches for informal as well as formal definitions of the RCB, the related metrics and approaches for RCB minimization.
- KonferenzbeitragUnreliable yet useful – reliability annotations for data in cyber-physical systems(INFORMATIK 2011 – Informatik schafft Communities, 2011) Engel, Michael; Schmoll, Florian; Heinig, Andreas; Marwedel, PeterToday, cyber-physical systems face yet another challenge in addition to the traditional constraints in energy, computing power, or memory. Shrinking semiconductor structure sizes and supply voltages imply that the number of errors that manifest themselves in a system will rise significantly. Most cyber-physical systems have to survive errors, but many systems do not have sufficient resources to correct all errors that show up. Thus, it is important to spend the available resources on handling errors with the most critical impact. We propose an “unreliability” annotation for data types in C programs that indicates if an error showing up in a specific variable or data structure will possibly cause a severe problem like a program crash or might only show rather negligible effects, e.g., a discolored pixel in video decoding. This classification of data is supported by static analysis methods that verify if the value contained in a variable marked as unreliable does not end up as part of a critical operation, e.g., an array index or loop termination condition. This classification enables several approaches to flexible error handling. For example, a cyber-physical system designer might choose to selectively safeguard variables marked as reliable or to employ memories with different reliability properties to store the respective values.
- ZeitschriftenartikelWirtschaftliche Aufbereitung komplexer Stammdaten in globalen Projekten(HMD Praxis der Wirtschaftsinformatik: Vol. 48, No. 3, 2011) Engel, MichaelTrotz der Bedeutung qualitativ hochwertiger Stammdaten schaffen es viele Unternehmen nicht, die anfallenden Datenmengen zu bearbeiten. Dabei spielen die Faktoren Zeit, Kosten und fehlende Ressourcen eine große Rolle. Ferner besteht regelmäßig Unklarheit über den Umfang der zukünftig nötigen Daten sowie der Aufwendungen zur Absicherung der Nachhaltigkeit entsprechender Maßnahmen. Speziell bei mehrfachen Rollouts und zeitkritischen Migrationen werden immer wieder Daten komplett in ungeprüfter Form übernommen. Kennt man die kritischen Punkte, können solche Bereinigungsprojekte unter zeitlichen wie auch wirtschaftlichen Aspekten erfolgreich umgesetzt werden.