Lehrveranstaltungen
SysPlace - Ecosystem of Displays
Komplexpraktikum (WS 15) - Organisation
News
- 26.10.2015 Foliensätze online: Organisation und Kontext
- 26.10.2015 Kick-Off am 26.10.2015 um 16:40 im Raum 2101
- 19.10.2015 Alle Teilnehmer bitte im Doodle eintragen um den Kick-Off Termin bestimmten zu können.
- 02.09.2015 Einschreibung für das KP Sysplace ist gestartet (unter KP Softwaretechnologie)
Projektkontext
Mobile Geräte haben unser Leben tiefgreifend verändert. Heute haben Smartphones und Tablets eine Rechenleistung, die sich durchaus mit klassischen Desktop-PCs oder Laptops vergleichen lässt. Dies eröffnet völlig neue Möglichkeiten den Nutzer bei seinen Aufgaben im Alltag durch Software (Apps) zu unterstützen. Sie werden zu persönlichen Assistenten. Dabei spielen zwei Faktoren eine entscheidende Rolle. Zum einen hat sich die Art der Anwendungen auf mobilen Endgeräten grundlegend verändert. Anstatt großer komplexer Anwendungen mit großem Funktionsumfang wie Microsoft Excel, sind Anwendungen auf mobilen Geräten mit wenigen Funktionen ausgestattet, die auf spezielle Anwendungsgebiete optimiert wurden. Möchte man nun komplexe Arbeitsprozesse unterstützen, müssen mehrere Anwendungen zusammenarbeiten. Dies soll darüber hinaus weitestgehend automatisch funktionieren, um den Nutzer so wenig wie möglich Konfigurationsaufwand aufzubürden.
Leider existiert aktuell kein einheitlicher Ansatz diese Art von dynamischer Anwendungskollaboration zu modellieren und zu implementieren. Das zweite Problem resultiert aus der großen Anzahl heterogener Geräte und deren Allgegenwärtigkeit. Viele Menschen besitzen schon heute nicht nur ein mobiles Gerät sondern mehrere (Smartphone, Tablet, Smartwatch, Fitnessarmband, intelligente Brille etc.). Je nach Situation und Anforderungen der jeweiligen Aufgabe nutzen Menschen unterschiedliche Geräte. In der Regel ist es dabei jedoch nicht einfach möglich, eine Aufgabe auf einem Gerät zu beginnen und dann auf einem anderen fortzusetzen. Zwar existieren Einzellösungen (z.B. Apple Handoff), diese Verfahren sind jedoch nicht auf beliebige Anwendungen generalisiert. Durch immer günstiger werdende Elektronik sind heute zahlreiche Gebäude mit Sensoren und Aktuatoren bestückt. Diese könnten in den Arbeitsprozess integriert werden (z.B. Automatische Verdunklung des Raumes wenn auf dem Präsentationslaptop eines Meetings ein Video abgespielt wird). Auch hier sind fehlende Mechanismen zur Modellierung dynamisch kollaborierender Anwendungen ein großes Hindernis.
Das vom Bundesministerium für Bildung und Forschung (BMBF) geförderte Kooperationsprojekt SysPlace Ecosystem of Displays erforscht wie Systeme entwickelt werden, die aus heterogenen, einander unbekannten Teilsystemen bestehen. Dabei liegt der Fokus vor allem in der Einbeziehung der Nutzer. Im Projekt werden verschiedene Mehrgeräteinteraktionen dahingehend untersucht, wie Nutzer die Geräteinteraktion über Gesten etc. initiieren und steuern. Als Ergebnis ein Katalog von Interaktionsmustern mit gerätespezifischen Implementierungen vorliegen, der es Entwicklern ermöglicht derartige Funktionalität einfach zu integrieren. Darüber hinaus wird eine Softwarearchitektur erarbeitet, die es ermöglicht Apps zu schreiben, die sich flexibel in unterschiedliche Umgebungen integrieren können. Kooperationspartner in diesem Projekt sind neben der Technische Universität Dresden, die Hochschule Mannheim und die drei IT- und Web-Dienstleister CAS Software AG (Karlsruhe), ameria Gmbh (Heidelberg) und 3m5.Media GmbH (Dresden). Weitere Informationen rund um das Projekt Sysplace erhalten sie unter Link
Leider existiert aktuell kein einheitlicher Ansatz diese Art von dynamischer Anwendungskollaboration zu modellieren und zu implementieren. Das zweite Problem resultiert aus der großen Anzahl heterogener Geräte und deren Allgegenwärtigkeit. Viele Menschen besitzen schon heute nicht nur ein mobiles Gerät sondern mehrere (Smartphone, Tablet, Smartwatch, Fitnessarmband, intelligente Brille etc.). Je nach Situation und Anforderungen der jeweiligen Aufgabe nutzen Menschen unterschiedliche Geräte. In der Regel ist es dabei jedoch nicht einfach möglich, eine Aufgabe auf einem Gerät zu beginnen und dann auf einem anderen fortzusetzen. Zwar existieren Einzellösungen (z.B. Apple Handoff), diese Verfahren sind jedoch nicht auf beliebige Anwendungen generalisiert. Durch immer günstiger werdende Elektronik sind heute zahlreiche Gebäude mit Sensoren und Aktuatoren bestückt. Diese könnten in den Arbeitsprozess integriert werden (z.B. Automatische Verdunklung des Raumes wenn auf dem Präsentationslaptop eines Meetings ein Video abgespielt wird). Auch hier sind fehlende Mechanismen zur Modellierung dynamisch kollaborierender Anwendungen ein großes Hindernis.
Das vom Bundesministerium für Bildung und Forschung (BMBF) geförderte Kooperationsprojekt SysPlace Ecosystem of Displays erforscht wie Systeme entwickelt werden, die aus heterogenen, einander unbekannten Teilsystemen bestehen. Dabei liegt der Fokus vor allem in der Einbeziehung der Nutzer. Im Projekt werden verschiedene Mehrgeräteinteraktionen dahingehend untersucht, wie Nutzer die Geräteinteraktion über Gesten etc. initiieren und steuern. Als Ergebnis ein Katalog von Interaktionsmustern mit gerätespezifischen Implementierungen vorliegen, der es Entwicklern ermöglicht derartige Funktionalität einfach zu integrieren. Darüber hinaus wird eine Softwarearchitektur erarbeitet, die es ermöglicht Apps zu schreiben, die sich flexibel in unterschiedliche Umgebungen integrieren können. Kooperationspartner in diesem Projekt sind neben der Technische Universität Dresden, die Hochschule Mannheim und die drei IT- und Web-Dienstleister CAS Software AG (Karlsruhe), ameria Gmbh (Heidelberg) und 3m5.Media GmbH (Dresden). Weitere Informationen rund um das Projekt Sysplace erhalten sie unter Link
Projektdemonstrator
Der Projektdemonstrator ist in einem fiktiven Autohaus der Zukunft angesiedelt. Dabei ist die Annahme, dass Autohäuser in der Zukunft vermehrt in Innenstädten platziert werden, in denen der verfügbare Platz begrenzt ist und deshalb weniger Raum für ausgestellte Fahrzeuge sein wird. Stattdessen werden interaktive Konzepte eingesetzt um das zukünftige Auto dennoch erleb- und erfahrbar zu machen. Im Szenario schlendert der Kunde am Geschäft vorbei, wird von einer Kamera erfasst, klassifiziert und möglicherweise identifiziert und gezielt über einen virtuellen Promoter, der in das Schaufenster projiziert wird, angesprochen. Ihm werden Produktvideos und personalisierte Informationen zu einem Wagen angezeigt, der gut zur Kategorisierung dieser Person passt. Durch Auflegen des Smartphones an das Schaufenster besteht die Option sich eine Autokonfigurations-App auf dem Smartphone zu installieren. Zu Hause angekommen startet der zukünftige Kunde die App und sieht das vorkonfigurierte Modell, das er bereits im Schaufenster gesehen hat. Durch eine Bump-Geste kann das Modell auf das Tablet oder andere Geräte übertragen und weiter konfiguriert werden. Nach Fertigstellung der Konfiguration besteht die Möglichkeit einen Beratungstermin im Autohaus zu vereinbaren. Dort angekommen wird der Kunde identifiziert und mit personenspezifischen Inhalten beschäftigt, während der entsprechende Mitarbeiter über sein Smartphone oder speziellen Wearables benachrichtigt wird. Danach legt der Kunde sein Smartphone auf ein dafür vorgesehenes Podest und eine Visualisierung der Konfiguration wird auf einem großen, an der Wand befestigten Bildschirm dargestellt. Für die Innenraumkomponenten kann der Verkäufer Materialproben auf das Podest legen und die Visualisierung der Konfiguration passt sich entsprechend an. Mit einer Datenbrille erhält der Kunde die Möglichkeit sein Auto über eine immersive 3D-Visualisierung noch einmal räumlich zu erleben. Für den Abschluss eines Kaufprozesses werden die Details der Autokonfiguration und die zusätzlich benötigten Daten auf einem Gerät der Wahl dargestellt und können durch einen Fingerabdruck (oder über eine Handschlags-Geste, die über Wearables erkannt wird) bestätigt werden.
Inhalt des Komplexpraktikums
Ein abgewandelter Teil dieses Demonstrators soll innerhalb des Praktikums prototypisch umgesetzt werden. Dabei erhalten die Studenten eine fertige Smartphone-App mit der sie Autos konfigurieren können. Aufgabe wird es sein ein intelligentes Podest zu konstruieren, das die jeweiligen Konfigurationen auf einen großen Bildschirm überträgt. Darüber hinaus soll es möglich sein, die Visualisierung mittels Raumgesten (Myo-Armband oder Kinect) zu manipulieren (gedreht, gezoomt etc.). Eine zweite Gruppe soll daran arbeiten Proben (z.B. Stoffproben) mittels NFC-Tags so anzureichern, dass sie eindeutig erkannt werden, wenn sie auf das Podest gelegt werden. Dadurch soll die jeweilige Konfiguration (z.B. ein anderer Stoff für die Sitzbezüge etc.) entsprechend angepasst werden. Eine dritte Gruppe erhält die Aufgabe die 3D-Visualisierung mit einer Oculus-Rift Datenbrille umsetzen. Der Schluss des Praktikums sieht eine Integration aller Teildemonstratoren zu einem großen Demonstrator vor.
Anrechnung
Diese Lehrveranstaltung kann wie im Lehrangebot der Fakult�t angegeben eingebracht werden. Studenten anderer Studiengänge können den Kurs besuchen, jedoch nicht prüfen lassen.