Studentische Arbeiten
Inhaltsverzeichnis
- Schreiben wissenschaftlicher Arbeiten
- Themenvorschläge für neue Arbeiten
- Unterstützung von Menschen im Autismus-Spektrum am Arbeitsplatz durch Verbesserung der Arbeitsorganisation und Reizreduzierung
- Multimodale Analyse von Echtzeitdaten mit mobilen Geräten durch blinde Menschen
- Conversational-Agents zur Unterstützung der mentalen Gesundheit
- Barrierefreie Karten für Gebäude
- Diversitätssensible Mensch-Computer-Interaktion und KI
- Soziale Assistenzroboter ― Usability und Softwarevariabilität
- Verbesserung der Präsenzlehre für blinde und sehbehinderte Menschen
- Physische Informationsvisualisierungen
- Abgeschlossene Themen
Haben Sie Interesse, an unserem Lehrstuhl einen Beleg, eine Bachelor-, Master- oder Diplomarbeit zu schreiben? Im Folgenden finde Sie eine Auflistung möglicher Themen und Themenbereiche mit Ansprechpartner, sowie bearbeitete und abgeschlossene studentische Arbeiten. Werfen Sie auch gerne einen Blick auf unsere laufenden und abgeschlossenen Forschungsprojekte.
Schreiben wissenschaftlicher Arbeiten
Leitfaden mit Hinweisen zum Schreiben wissenschaftlicher Arbeiten
Zur Unterstützung beim Verfassen einer wissenschaftlichen Arbeit bieten wir einen Leitfaden an, der Schreibtipps, Vorgaben zur Dokumentenstruktur und Hinweise zum richtigen Zitieren umfasst. Zum Download: Leitfaden (PDF).
Weiterhin finden Sie auf den Seiten der Arbeitsgruppe Services Behinderung und Studium (AG SBS) Informationen zum Erstellen barrierefreier Dokumente. Speziell zum Erstellen barrierefreier PDF-Dokumente mittels Word, PowerPoint und InDesign gibt es die passenden Anleitungen direkt im Download-Bereich der AG SBS.
LaTeX-Vorlage für Abschlussarbeiten
Zur Unterstützung beim Schreiben Ihrer Abschlussarbeit in LaTeX bieten wir Ihnen eine Vorlage als Grundlage an. Diese enthält bereits einige wichtige Strukturelemente wie Deckblatt und Selbständigkeitserklärung sowie übliche Formatvorgaben. Die Vorlage befindet sich im GitHub-Repository TUD-HCI-Thesis.
Themenvorschläge für neue Arbeiten
Unterstützung von Menschen im Autismus-Spektrum am Arbeitsplatz durch Verbesserung der Arbeitsorganisation und Reizreduzierung
Psychische Erkrankungen und Entwicklungsstörungen gehen häufig mit einer verminderten Leistungs- und Anpassungsfähigkeit einher, was oft zu einer Beeinträchtigung der Arbeitsfähigkeit führt. Im Gegensatz zu Menschen ohne Autismus, sind Menschen mit Autismus trotz guter beruflicher oder schulischer Bildung wesentlich häufiger von Arbeitslosigkeit betroffen oder in Berufen mit niedrigen Qualifikationsanforderungen tätig. Hauptgründe für die geringe Beschäftigungsquote von Menschen mit Autismus auf dem ersten Arbeitsmarkt sind herausfordernde Arbeitsbedingungen wie Zeitdruck, Informationsüberflutung, hohe kommunikative Anforderungen, soziale Kompetenz, zu viele sensorische Reize sowie die Forderung nach einem hohen Maß an Flexibilität. Bisher gibt es kaum technische Hilfsmittel, die Menschen mit Autismus dabei im Arbeitsalltag gewinnbringend unterstützen.
Der Forschungsbereich umfasst die Entwicklung von technischen Assistenzsystemen zur Unterstützung des Aufgaben- und Zeitmanagement auf der einen Seite sowie Hilfsmittel zur Unterstützung der Reizreduzierung auf der anderen Seite. Dabei soll ein adaptives Noise-Cancellation-Verfahren mit ANC-Kopfhörern entwickelt werden, das bspw. den Kontext einer konkreten Gesprächssituation erfasst und adaptiv irrelevante Signale herausfiltert. Ebenso sollen Konzepte zum Einsatz von Datenbrillen, z. B. zur Personenidentifzierung oder Emotionserkennung, entwickelt werden. Darüber hinaus soll mittels haptischer, natürlicher Interaktionsmodalitäten unter Verwendung von Tangibles die Aufgaben- und Terminplanung verbessert und so ein störungsarmes und strukturiertes Arbeiten ermöglicht werden.
Abschlussarbeiten in dem Forschungsfeld sollten insbesondere eine der drei Problemfelder adressieren:
-
Reizminderung: Reduktion von Reizen zur Vermeidung von Überforderung
-
Kommunikation: Unterstützung der verbalen und textbasierten Kommunikation
-
Aufgabenmanagement: Unterstützung der Strukturierung und Priorisierung im Aufgaben- und Zeitmanagement
Der Fokus dieser Arbeiten kann dabei, abhängig von der konkreten wissenschaftlichen Fragestellung, sowohl auf den technischen Komponenten und deren Einsatzmöglichkeiten als auch auf konkreten Konzepten zur Unterstützung von Menschen im Autismus-Spektrum am Arbeitsplatz liegen.
Projektwebseite mit näheren Informationen: https://tu-dresden.de/ing/informatik/ai/mci/forschung/forschungsgebiete/autark
Multimodale Analyse von Echtzeitdaten mit mobilen Geräten durch blinde Menschen
Ansprechperson: Emma Etzold
Stichwörter: Mensch-Computer-Interaktion, Multimodale Datenpräsentation, Haptifikation, Sonifikation
Die Visualisierung dynamischer Daten ist eine Standardmethode, um diese schnell zu analysieren und Informationen daraus abzuleiten. Bei der Überwachung zeitabhängiger Echtzeitdatenströme (z.B. Maschinenüberwachung im Produktionskontext) werden häufig Visualisierungen (z.B. Dashboards) eingesetzt, um einen schnellen Überblick über die Datenmenge und den zeitlichen Verlauf zu erhalten. Die meisten Datendarstellungen sind rein visuell und nutzen visuelle Fähigkeiten, um Informationen aus Daten schnell zu vermitteln. Eine rein visuelle Datendarstellung schließt jedoch blinde Menschen von der professionellen Datenüberwachung aus.
In diesem Forschungsbereich soll mittels Multimodalität eine stärkere Einbeziehung von blinden Menschen in die Datenüberwachung ermöglicht werden. Ziel ist es, eine multimodale, nicht-visuelle Methode zur Erkundung von Echtzeitdatenströmen mit handelsüblichen mobilen Geräten und Wearables zu entwickeln, mit der blinden Menschen selbstständig Daten analysieren können.
In diesem Zusammenhang sind die folgenden Fragestellungen interessant:
- Welche (multimodalen) Präsentationsformen sind für blinde und sehende Menschen gleichermaßen geeignet? (Informations-/Datenvisualisierung)
- Welche nicht-visuellen Ausgabemedien sind sinnvoll miteinander kombinierbar? (Wahrnehmung und Interpretation von Ausgabemodalitäten)
- Wie kann die Aufmerksamkeit von Benutzenden auf bestimmte Ereignisse (z. B. Grenzwertüberschreitung) gelenkt werden? (human-activity-recognition)
- Welche Eingabemodalitäten sind sinnvoll miteinander kombinierbar? (Interkation)
- Wie kann die Interaktion zur Erkundung von Echtzeitdaten aussehen (z.B. über Gesten, Sprache)?
Mehr Infos zum Projekt sind auf der Projektswebseite zu finden: MONITOR - Multimodale Präsentation und Erkundung von zeitabhängigen Echtzeitdaten durch blinde Menschen
Conversational-Agents zur Unterstützung der mentalen Gesundheit
Ansprechpersonen: Julian Striegl
Angesichts der weltweit steigenden Zahl von Menschen mit psychischen Problemen und eines bereits angeschlagenen Gesundheitssystems müssen neue Lösungen gefunden werden, um das psychische Wohlbefinden von Menschen aller Altersgruppen zu verbessern. In der Vergangenheit haben sich bereits computergestützte Therapieansätze - wie die Applikations- und Internet-basierte kognitive Verhaltenstherapie (KVT) – als wirksam bei verschiedenen Formen psychischer Störungen (wie Depressionen, Angststörungen oder Zwangsstörungen) gezeigt.
In den letzten Jahren hat das Forschungsinteresse an Chatbot-basierter KVT zugenommen, wobei die auf Sprachassistenten (engl.: Voice Assistants, VA) basierende KVT (VA-basierte KVT) ein möglicher nächster Schritt ist, um niedrigschwellige, einfach zu bedienende und barrierefreie Lösungen für die skalierbare Unterstützung der psychischen Gesundheit anzubieten. Wie können wir sog. Conversational-Agents (Chatbots und Sprachassistenten) entwickeln, die das psychische Wohlbefinden der Nutzenden durch Methoden aus der Psychotherapie, der positiven Psychologie und dem Coaching unterstützen können?
Zu den Themen in diesem Forschungsbereich gehören: künstliche Intelligenz und maschinelles Lernen, Verarbeitung natürlicher Sprache, Gestaltung von stimmlichen Benutzerschnittstellen und Interaktionsdesign in Verbindung mit Elementen der klinischen Psychologie und Psychotherapie. Aus der zentralen Fragestellung lassen sich desweiteren mehrere Forschungsfragen ableiten:
- Wie können wir geeignete Sprachbenutzerschnittstellen entwerfen, die die vielfältigen Bedürfnisse von Menschen mit unterschiedlichen Kommunikationsbedürfnissen und -fähigkeiten berücksichtigen, um eine barrierefreie, niedrigschwellige Therapieunterstützung zu bieten?
- Welche Unterschiede gibt es in der Benutzbarkeit und in der Akzeptanz von VA-basierter KVT im Vergleich zu Chatbot-basierter KVT?
- Welche Methoden aus der KVT und aus der Positiven Psychologie eignen sich, um durch „Conversational-Agents“ vorgestellt und angewandt zu werden?
- Wie können wir die Salutogenese durch Chatbots und Sprachassistenten unterstützen?
- Wie wirkt sich eine emotionssensitive Dialogführung auf die Akzeptanz und Adhärenz von VA-basierter KVT aus?
- Wie ist die Wirksamkeit von VA-basierter KVT im Vergleich zu herkömmlichen Anwendungs- und Internet-basierten KVT-Ansätzen?
Barrierefreie Karten für Gebäude
Stichwörter: Barrierefreiheit, Gebäudekarten
Das Forschungsfeld Accessible Maps for Buildings adressiert verschiedene Problemstellungen im Bereich der Indoor-Karten. Dabei werden sowohl Problemstellungen bei der Erfassung von Gebäudedaten als auch deren Nutzung betrachtet. Das sich daraus ergebende Themenfeld erstreckt sich vom Einsatz der Computer Vision zur Transformation von Fluchtplänen in digitale Gebäudepläne, über SLAM-Verfahren, welche für die Verbesserung der Karten eingesetzt werden, bis hin zum Gebiet des User Centered Design, um Karten für spezifische Nutzendengruppen zu erzeugen oder Routing-Applikationen zu entwickeln.
Kartografie von Gebäuden
Ansprechpersonen: Jan Schmalfuß-Schwarz Julian Striegl
Das Themenfeld der Kartografie von Gebäuden beschäftigt sich mit der Erzeugung, Modellierung, Verbesserung sowie Aktualisierung von Indoor-Karten-Daten. Diesbezüglich werden Kartenformate evaluiert und entwickelt, die neben der reinen geometrischen Repräsentation des Gebäudes zusätzlich auch Informationen über die Barrierefreiheit speichern sowie Ansätze zur Erfassung zeitkritischer (dynamischer) Barrieren in Indoor-Karten erörtert. Des Weiteren stehen Lösungen im Fokus, die es ermöglichen, Indoor-Karten mittels Image Processing und Deep-Learning-Verfahren aus verschiedenen Ausgangsformaten wie architektonischen Gebäudeplänen oder Fluchtplänen zu extrahieren und diese mit Hilfe verschiedener Verfahren auf ihre Genauigkeit zu untersuchen und gegebenenfalls zu optimieren beziehungsweise zu ergänzen. Dafür werden sowohl Ansätze aus der Robotik als auch aus dem Crowdsourcing-Bereich verwendet.
Nutzung der Kartendaten
Ansprechpersonen: Julian Striegl Christin Engel
Neben der Erstellung von visuellen Gebäudekarten ist auch die Nutzung derer ein vielseitiges Themengebiet. Dabei wird sowohl die Erzeugung von physischen Karten als auch deren mobile Nutzung unter Einsatz verschiedener Modalitäten untersucht. Einerseits geht es dabei um die Generierung nutzerzentrierter Karten, die die spezifischen Bedürfnisse von Menschen mit Beeinträchtigungen adressieren. Dies schließt die Erzeugung barrierearmer Karten, zum Beispiel in Form von taktilen oder physischen Karten zur haptischen Exploration, mit ein. Anderseits ist es unser Ziel mobile Interaktionstechniken mit digitalen Karten zur Verfügung zu stellen, um Benutzungsfreundlichkeit für eine Vielzahl von Anwendungsfällen und verschiedenen Kontexten sowie Nutzendengruppen zu gewährleisten. Dies beinhaltet unter anderem auch die Bereitstellung von Sprachinterfaces und die barrierefreie Ausgabe von und Interaktion mit Kartendaten mittels Screenreadern. In diesem Kontext wird auch die Nutzung von Location-Based-Services im Zusammenhang mit Gebäudekarten untersucht.
Diversitätssensible Mensch-Computer-Interaktion und KI
Ansprechperson Claudia Loitsch
Stichwörter: Mensch-Computer-Interaktion, User Modelling, Adaptive Systeme, Menschzentrierte Gestaltung, Diversitätssensibles Design, User Experience, User Research, KI.
Die Durchdringung der Digitalisierung in alle Lebensbereiche und auch Altersgruppen führte dazu, dass wir heute fast alle Aufgaben in irgendeiner Form computergestützt erledigen. Damit spielt der Mensch mit seinen individuellen Erfahrungen, Erwartungen, Fähigkeiten und Bedarfen eine noch wichtigere Rolle bei der Entwicklung von computergestützten Lösungen und Benutzungsschnittstellen. Das gesamte Nutzungserlebnis (engl. auch User Experience genannt) und die digitale Teilhabe haben eine zunehmende wirtschaftliche und soziale Relevanz.
Dieser Themenbereich untersucht, wie die Diversität bzw. die Vielfalt von Personen bei der menschenzentrierten Gestaltung von computergestützten Systemen und von KI Berücksichtigung finden kann.
Es geht darum, dass sich computergestützte Systeme und Anwendungen an unsere individuellen Bedürfnisse, Fähigkeiten und mentalen Modelle anpassen sollen, um uns bei alltäglichen Aufgaben möglichst effizient und zunehmend auch in angenehmer Weise oder mit Spaß zu unterstützen. Dies setzt voraus, dass digitale Anwendungen und Benutzungsschnittstellen intelligenter werden und sich an unsere individuellen Eigenschaften, Fähigkeiten oder Alltags- oder Lebenssituationen anpassen können. Außerdem wird es zunehmend wichtiger, dass Schlüsseltechnologien der künstlichen Intelligenz Diversität berücksichtigen, Trainingsdaten fair und ausgewogen sind und keine Diskriminierung und Exklusion fördern.
Themen werden je nach Interesse gemeinsam mit Ihnen entwickelt. Dabei können in diesem Themenbereich vielfältige Fragestellungen betrachtet werden, wie zum Beispiel:
- Wie wirken sich verschiedene Ausprägungen von Persönlichkeitsmerkmalen (z. B. Big Five/OCEAN-Modell) auf digitale Gestaltungslösungen aus?
- Welche wahrnehmungs- oder verhaltenspsychologischen Aspekte, Gestaltungsrichtlinien, Designentscheidungen können für diverse Zielgruppen (z. B. ältere Menschen, Menschen mit Migrationshintergrund, Menschen mit kognitiven Einschränkungen, etc.) Anwendung finden?
- Wie kann Diversität in Trainingsdaten für maschinelles Lernen und KI erreicht und festgestellt werden?
- Welche Benutzermodelle adressieren Diversität von Gruppen oder Individuen, die in adaptierbaren oder adaptiven Anwendungen und Benutzungsschnittstellen zu einer besseren User Experience führen?
Soziale Assistenzroboter ― Usability und Softwarevariabilität
Ansprechperson David Gollasch
Stichwörter: Mensch-Roboter-Interaktion, Roboter-Kooperation, Emotionserkennung und -modellierung, Softwarevariabilität, Softwareökosysteme, Sprachsteuerung, Gestensteuerung, Smart-Home, Adaptivität, Barrierefreiheit, Assistenzsystem
Assistenzsysteme verbessern oder ermöglichen vielen Menschen die Teilnahme am öffentlichen Leben sowie die Bewältigung des Alltags. Gerade im Hinblick auf eine alternde Gesellschaft und dem Wunsch nach mehr Inklusion spielt die Entwicklung leistungsfähiger Assistenzsysteme eine zunehmend wichtige Rolle. Ein Teil dieser Assistenzsysteme bilden sog. Soziale Assistenzroboter (SARs), die für unterschiedliche Aufgabenfelder entwickelt werden. Eine Kernfrage ist in diesem Zusammenhang, wie sich effizient Software für ebendiese Assistenzroboter entwickeln lässt, sodass auch die Zielgruppe der Menschen mit besonderen Anforderungen mit ihnen gut umgehen kann. Hierfür sollen praktikable und zuverlässige Entwicklungsmethoden entworfen werden, die eine geeignete Mensch-Roboter-Interaktion ermöglichen.
In diesem Zusammenhang ergibt sich eine Vielzahl interessanter Fragestellungen. Hier einige Beispiele:
- Wie kann diversitätssensible Sprachinteraktion aussehen (betrifft: Voice User Interfaces, Conversational User Interfaces, Künstliche Intelligenz)?
- Wie kann ein Assistenzroboter flexibel auf besondere Anforderungen reagieren (betrifft: Adaptivität, UI-Softwarevariabilität, Künstliche Intelligenz)?
- Welche Eingabeformen sollte ein Assistenzroboter unterstützen (betrifft: Gestensteuerung, Emotionserkennung und -modellierung)?
- Wie kann ein Assistenzroboter in seine Umgebung eingebettet werden (betrifft: Smarthome-Integration, Kontextsensitivität, Ambient Assisted Living, ADL-Recognition)?
Verbesserung der Präsenzlehre für blinde und sehbehinderte Menschen
Ansprechperson Jens Voegler
In Vorlesungen und Übungen werden interaktive Whiteboards und Präsentationen sehr häufig verwendet. Durch die Hinzunahme aktueller Web-Technologien kann der Zugriff auf diese Medien für Blinde und Sehbehinderte verbessert werden.
Physische Informationsvisualisierungen
Ansprechperson Meinhardt Branig
Physische Informationsvisualisierungen zur Exploration großer Datenmengen für blinde und sehbehinderte Menschen.
Abgeschlossene Themen
Sobald Arbeiten in das Forschungsinformationssystem der TU Dresden eingetragen wurden, erscheinen diese in nachfolgender Übersicht.