Auflistung P067 - INFORMATIK 2005 - Informatik LIVE! - Band 1 nach Titel
1 - 10 von 116
Treffer pro Seite
Sortieroptionen
- Konferenzbeitrag60 Jahre nach Memex: Über die Unvereinbarkeit von Desktop- und Web-Paradigma(Informatk 2005. Informatik Live! Band 1, 2005) Müller-Prove, MatthiasDas World Wide Web hat die etablierte Welt der PCs erobert. Bei allen neuen Möglichkeiten ist dabei aber die Frage nach der Benutzungsschnittstelle nie gestellt worden, so dass wir es heute mit einem Konglomerat aus Desktop- und Browser-Metapher zu tun haben. Es ist dringend anzuraten die zu Grunde liegenden Paradigmen neu zu bewerten.
- KonferenzbeitragAbstrakte Modellierung der Eigenschaften von nanoelektronischen CNT-Elementen in SystemC(Informatk 2005. Informatik Live! Band 1, 2005) Zipf, Peter; Soffke, Oliver; Velten, Michael; Glesner, ManfredMöglichst genaue Simulationen von Digitalschaltungen, die auf nanoelektronischen Komponenten basieren, benötigen abstrakte Modelle, in denen die wesentlichen Eigenschaften der realen Schaltung repräsentiert sind. Wir beschreiben SystemC-Modelle, die die Eigenschaften von auf Kohlenstoffnanoröhren-Transistoren basierenden Schaltungen abstrahieren und für eine Simulation auf der RT-Ebene zugänglich machen. Durch die funktionale Modellierung von Bottom-Up Effekten ist es möglich, die modellierte Information auch anderweitig, z. B. in Syntheseprozessen, zu verwenden. Die Modelle enthalten Profilingund Überwachungsfunktionalität, die ein Verfolgen von Events, die Verletzung des Timings sowie zur Verlustleistungsmessung implementieren. Erste Vergleiche der Simulationsergebnisse der Originalmodelle mit den Abstraktionen zeigen eine gute Übereinstimmung der Resultate.
- KonferenzbeitragAmbient Intelligence: Auf dem Weg zur Mensch-Computer-Symbiose?(Informatk 2005. Informatik Live! Band 1, 2005) Friedewald, MichaelDer Beitrag betrachtet das Leitbild der Ambient Intelligence, ein neues Konzept für die Mensch-Computer-Interaktion, dessen Wurzeln auf die Idee der Mensch- Maschine-Symbiose (1960) zurückreichen. Es wird untersucht, welche Auswirkungen das neue Konzept auf insbesondere auf die Identität und Autonomie des Nutzers hat.
- KonferenzbeitragEin Analyseframework zur Bewertung von Open-Source-Migrationsstudien(Informatk 2005. Informatik Live! Band 1, 2005) Amberg, Michael; Möller, Steffen; Rödel, GerhardZur Entscheidungsunterstützung, inwiefern eine Open-Source-Migration für ein Unternehmen wirtschaftlich sinnvoll ist, bieten zahlreiche Studien Hilfestellungen. Bei der Analyse dieser Studien fällt jedoch auf, dass unterschiedliche Studien verschiedene Analyseziele verfolgen und daher teils zu widersprüchlichen Ergebnissen kommen. Dieser Beitrag beschreibt ein Framework, welches zur Untersuchung und Bewertung von Studien herangezogen werden kann. Hierfür werden zunächst aussagekräftige qualitative, quantitative und strategische Kriterien unter Berücksichtigung einer theoretischen Fundierung hergeleitet, kategorisiert und evaluiert. Besonderer Fokus liegt dabei auf der Bewertungssystematik, welche die Modularisierung der Studien, eine auf den vorab entwickelten Kategorien und Kriterien basierende Bewertungsschablone sowie ein individuelles Gewichtungssystem umfasst.
- KonferenzbeitragAnalyzing electronic mail using temporal, spatial, and content-based visualization techniques(Informatk 2005. Informatik Live! Band 1, 2005) Keim, Daniel A.; Mansmann, Florian; Schreck, TobiasEmail is one of the most widely-used means of communication, as evidenced by the soaring rates rates of mailing volumes since the introduction of email as an Internet service. While considerable work has been done in improving the efficiency of email management, there is a need for improving its functionality (effectiveness). Typically, users are given few means to intelligently explore the wealth of cumulated information in their email archives. We address these shortcomings by designing Information Visualization tools for email data. We have devised the MailExplorer system which aims at enabling the user to explore large quantities of email data, reflecting the rich meta data and content stored in email collections. The system allows its users to visually analyze temporal and spatial distribution properties, as well as content-based characteristics in their email archives.
- KonferenzbeitragApplication-driven design of cost-efficient communications platforms(Informatk 2005. Informatik Live! Band 1, 2005) Blüthgen, Hans Martin; Sauer, Christian; Langen, Dominik; Gries, Matthias; Raab, WolfgangWe present a five phases approach for the cost-efficient design of communication platforms. We start with complete and executable models of the system function that capture all essential parts of a reference application, i.e. processing kernels, data and control flow, and timing constraints. We analyze such an architectureindependent model to narrow the design space and derive a most flexible initial platform architecture. We map the model onto the platform hardand software, and profile the system. Through iterations, the prototype is refined, until an architecture is found that meets performance and cost constraints. The resulting virtual prototype serves as executable specification for the design of the final system. Two case studies from wireless communications (Software Defined Radio, SDR) and access networks (Digital Subscriber Line Access Multiplexer, DSLAM) illustrate our approach.
- KonferenzbeitragAuf dem Weg zur ultimative Schnittstelle(Informatk 2005. Informatik Live! Band 1, 2005) Coy, WolfgangDas angemessene Interface des elektronischen Rechenautomaten ist das Oszilloskop; notfalls tut es auch eine Batterie und ein Meßgerät mit einem geeignetem Meßfühler. Elektrische Signalmessungen brauchen freilich eine semantisch-symbolische Interpretation – typischerweise als Binärzahlen, wenngleich die Nutzung einer Leitung mit mehreren Signalvarianten durchaus üblich ist. Letztere wird freilich vor den Nutzern verborgen. Computern und Netze werden deshalb als Behälter von Nullen und Einsen dargestellt, die Binärzahlen speichern, übertragen und verarbeiten. Die Nähe zu Fernschreibalphabeten wie dem American Standard Code for Information Interchange (ASCII) ist deshalb nicht zufällig und die angemessenen Ein/Ausgabegeräte waren Lochstreifen, Lochkarten oder Fernschreibtastaturen und -drucker. Die Vorstellung, es handle sich beim Fernschreiber um ein “Human-Computer-Inter- face” dürfte nicht sehr wirkmächtig gewesen sein, zumal die Arbeitsweise eines programmierten Rechners über Jahrzehnte mit der Formel “Eingabe–Verarbeitung– Ausgabe” beschrieben wurde. Dies entsprach ja auch weitgehend der Programmierersicht einer Großrechenanlage, deren Hardware vom Programmierer durch eine Mannschaft spezialisierter Operateure getrennt wurde. Mit den Minirechnern, den Programmierten Digitalen Prozessoren wie Ken Olsen seine DEC-Maschinen nannte, wurde der Umgang mit dem Computer zur Event Loop, einer schnellen Folge von Schreib-, Rechen- und Leseakten, die die Tastatur und den 24-zeiligen Bildschirm tatsächlich zu einer Art Schnittstelle zwischen Mensch und Computer werden ließ. Vor allem Douglas Engelbarts Untersuchungen am SRI haben dieses Vorbild von Tastatur und Bildschirm erweitert um das Eingabegerät “Maus”, eine zweidimensionale Eingabehilfe, die, erweitert um Menüs, Grafik- und Textfenster, die Möglichkeit einer malerischen Nutzung des Rechners eröffnete. Engelbart zeigt beides, spezialisierte Hardware und eine Nutzungsvorstellung, die Desktop Metapher, also die Projektion einer Schreibtischoberfläche auf den Bildschirm. Dazu mußten Softwareumgebungen geschaffen werden, die es erlaubten, Interaktionsschritte einer solchen hardwaregestützten Event Loop zu programmieren. Die am benachbarten Xerox PARC-Institut entwickelte Programmiersprache Smalltalk stellte diese bereit – integriert in die Hardware des Xerox Alto Rechners, der auf Grund der Fortschritte der Halbleitertechnik einen Rastergrafikbildschirm mit entsprechend großem digitalen Videospeicher besaß. Der Apple Macintosh popularisierte 1984 diese Idee einer Mensch-Maschine-Schnittstelle – mit heute lächerlich anmutenden 384x512 schwarzen oder weißen Bildpunkten. Kurze Zeit später kam Farbe hinzu und seitdem werden die Bildschirme größer, die Prozessoren schneller, die Speicher umfangreicher. Wenn wir von Human-Computer- Interface oder Mensch-Maschine-Schnittstelle reden, meinen wir heute vor allem die Tastatur und den Grafikbildschirm. Die Frage nach anderen Eingriffen in den Rechner bleibt. 95% aller Prozessoren sind in eingebetteten technischen Systemen, von der Badezimmerwaage und dem Telefon übers Auto bis zur Fabrikanlage. Viele werden durch Sensoreingaben gesteuert und wirken auf technische Aktoren ein. Viele dieser Regelkreise sind vollautomatisch oder Teil einer automatisierten Umgebung, die kaum jemand als Mensch-Maschine-Schnittstelle wahrnimmt. Sensordaten können auch von Menschen generiert werden. Die Übergänge reichen von einfachen Schaltsignalen bis zur komplexen Eingabe mittels virtueller Tastaturen. Datenhandschuh, Datenanzug, Datenbrillen oder Zimmermans Luftgitarre gehören zu solchen sensorgesteuerten Eingabeverfahren. Das Telefon als Mikrocomputer hat zwei eher konträre Entwicklungen der Mensch- Maschine-Schnittstelle befördert: Einerseits scheint das Telefon viel mehr noch als ein Bürorechner für die Steuerung durch Sprachein- und -ausgabe prädestiniert und es gibt auch brauchbare Systeme dafür. Andererseits hat sich die Tastatur-Bildschirmvariante in Formen durchgesetzt, die jedem HCI-Entwickler als grausiger Scherz erscheinen muß. Sowohl SMS, fast ausschließlich geschrieben mittels Zifferntastatur, wie die massenhaft individualisierten Klingeltöne sind eine ökonomisch äußerst erfolgreiche Karrikatur von Mensch-Maschine-Schnittstellen. Am Bürorechner selber hat es auch immer wieder Ansätze gegeben, entsprechende Sensoren als Alternativen zur Maus zu nutzen. Grafiktablets und -griffel haben einen spezialisierten Markt des CAD oder der Grafik gefunden. Und es gibt einen eigenen Markt spezialisierter Ein/Ausgabegeräte für Computerspiele. Die vielleicht fortgeschrittensten Computerschnittstellen sind bei den Ein/Ausgabe- techniken für Behinderte und Militärs zu finden: Die Steuerung des Rechners über Gehirnsignale. Trotz jüngster Erfolge sind diese Techniken noch zu sehr in ihren Anfangsgründen, um ihre Erfolgsaussichten zu beurteilen. Was fehlt also auf dem Weg zu einer “ultimativen Schnittstelle”? Jede Ein/Ausgabe-Schnittstelle hat wenigstens drei Komponenten: eine sensorgesteuerte Hardware, eine hinreichend transparente Software und eine verständliche und erlernbare Vorstellungswelt, in der die Nutzung dieser Schnittstelle den Nutzern einleuchtet. Offensichtlich hapert es vor allem an der dritten Komponente, so daß uns Tastatur und Grafikbildschirm wohl noch einige Zeit als universelle Schnittstelle begleiten werden.
- KonferenzbeitragAufbau eines Data Warehouse mit den Open-Source-Komponenten JPivot, Mondrian und MySQL – Eine Alternative zu kommerziellen Produkten?(Informatk 2005. Informatik Live! Band 1, 2005) Herden, Olaf; Pfrommer, BenjaminIn diesem Beitrag wird der Aufbau eines Data-Warehouse-Systems auf Basis von Open-Source-Komponenten realisiert, wobei MySQL als Datenbank, Mondrian als OLAP-Server und JPivot als GUI-System zum Einsatz kommen. Neben einer Beschreibung der Architektur und der Funktionsweise, wird eine Evaluation des Systems vorgenommen und die Praxistauglichkeit des Ansatzes im Vergleich mit entsprechenden kommerziellen Werkzeugen untersucht.
- KonferenzbeitragAutonome Orientierung und Ortung mobiler Multimedia-Geräte in AmI Arbeitsplätzen basierend auf passiven RFID-Tags(Informatk 2005. Informatik Live! Band 1, 2005) Nazari Shirehjini, Ali A.In diesem Aufsatz wird ein Ortungssystem vorgestellt, welches in der Lage ist, auf Basis von RFID-Technologie präzise und zuverlässige Positionsund Orientierungsinformationen zu mobilen Objekten im Raum zu liefern. Dabei werden passive RFID-Tags auf der Unterseite von handelsüblichen Teppichen angebracht, welche dann von mobilen Objekten mit Hilfe einer geometrischen Anordung von RFID- Readern interpretiert werden. Zusätzlich wird ein Schema zur Kennzeichnung und Auswertung der RFID-Tags vorgestellt. Der Aufsatz führt zunächst den Ansatz und den realisierten Prototypen ein. Danach werden die durchgeführte Messungen beschrieben und deren Ergebnisse diskutiert.
- KonferenzbeitragAutonome Software(Informatk 2005. Informatik Live! Band 1, 2005) Brauer, WilfriedDie neuen Konzepte der Datenverarbeitung wie Peer-to-Peer, Grid, Serviceoriented, Pervasive, Ubiquitous, Organic, Agent-based oder Autonomic Computing sowie Ambient Intelligence erfordern explizit oder implizit die Verwendung von autonomer Software - insbesondere als Mittel zur Reduzierung von Handhabungsoder Administrations-Komplexität von Anwendungs-Softwaresystemen. Die enorme Be- deutung, die den genannten Konzepten für die Weiterentwicklung der Informatiknutzung zugesprochen wird, macht es nötig zu fragen, was denn Autonomie von Software eigentlich bedeuten kann und leisten soll und wie sie erzeugt werden könnte. Im Folgenden wird – nach einleitenden Bemerkungen – auf eine Reihe von (an meinem Lehrstuhl entstandenen) Publikationen mit neuen konstruktiven Ansätzen zur Beantwortung dieser Fragen hingewiesen.