Studentische Arbeiten
Inhaltsverzeichnis
- Schreiben wissenschaftlicher Arbeiten
- Themenvorschläge für neue Arbeiten
- Gestenerkennung für die Steuerung gängiger Office-Anwendungen für blinde und hochgradig sehbehinderte Menschen
- Barrierefreie Lehre: Checklistenbasierte Selbstauskunft zur Barrierefreiheit von Kursmaterialien, Sensibilisierung von Lehrenden
- Unterstützung von Menschen im Autismus-Spektrum am Arbeitsplatz durch Verbesserung der Arbeitsorganisation und Reizreduzierung
- Multimodale Analyse von Echtzeitdaten mit mobilen Geräten durch blinde Menschen
- Conversational-Agents zur Unterstützung der mentalen Gesundheit
- Barrierefreie Karten für Gebäude
- Diversitätssensible Mensch-Computer-Interaktion und KI
- Soziale Assistenzroboter ― Usability und Softwarevariabilität
- Verbesserung der Präsenzlehre für blinde und sehbehinderte Menschen
- Physische Informationsvisualisierungen
- Abgeschlossene Themen
Haben Sie Interesse, an unserem Lehrstuhl einen Beleg, eine Bachelor-, Master- oder Diplomarbeit zu schreiben? Im Folgenden finde Sie eine Auflistung möglicher Themen und Themenbereiche mit Ansprechpartner, sowie bearbeitete und abgeschlossene studentische Arbeiten. Werfen Sie auch gerne einen Blick auf unsere laufenden und abgeschlossenen Forschungsprojekte.
Schreiben wissenschaftlicher Arbeiten
Leitfaden mit Hinweisen zum Schreiben wissenschaftlicher Arbeiten
Zur Unterstützung beim Verfassen einer wissenschaftlichen Arbeit bieten wir einen Leitfaden an, der Schreibtipps, Vorgaben zur Dokumentenstruktur und Hinweise zum richtigen Zitieren umfasst. Zum Download: Leitfaden (PDF).
Weiterhin finden Sie auf den Seiten der Arbeitsgruppe Services Behinderung und Studium (AG SBS) Informationen zum Erstellen barrierefreier Dokumente. Speziell zum Erstellen barrierefreier PDF-Dokumente mittels Word, PowerPoint und InDesign gibt es die passenden Anleitungen direkt im Download-Bereich der AG SBS.
LaTeX-Vorlage für Abschlussarbeiten
Zur Unterstützung beim Schreiben Ihrer Abschlussarbeit in LaTeX bieten wir Ihnen eine Vorlage als Grundlage an. Diese enthält bereits einige wichtige Strukturelemente wie Deckblatt und Selbständigkeitserklärung sowie übliche Formatvorgaben. Die Vorlage befindet sich im GitHub-Repository TUD-HCI-Thesis.
Themenvorschläge für neue Arbeiten
Gestenerkennung für die Steuerung gängiger Office-Anwendungen für blinde und hochgradig sehbehinderte Menschen
Ansprechperson: Bela Usabaev
Stichwörter: Mensch-Computer-Interaktion, Haptifikation
Um sich auf der visuellen Desktop-Oberfläche zu orientieren, verwenden blinde und hochgradig sehbehinderte Menschen Screenreader wie NVDA, um die angezeigten Inhalte durch Sprache auszugeben. Für die Eingabe wird meistens eine Braille-Zeile oder eine übliche Tastatur verwendet.
Auf Tablets und Mobiltelefonen steuern blinde Nutzer Anwendungen (Apps) mit Gesten wie "Tap" und "Swipe", die den Tasten "Eingabetaste", "Tabulatortaste" oder "Pfeiltaste" entsprechen, und erhalten eine Rückmeldung per Sprache [oder Braille über eine Braille-Zeile].
Im Ausbildungs-Bereich werden oft taktile Grafiken verwendet, um graphisch kodierte komplexe Sachverhalte, wie Karten oder Diagramme, durch Tastsinn und erläuternde Sprachausgabe zu vermitteln. Mithilfe von Computer Vision ist es möglich Gestensteuerung auf einer taktilen Grafik über ein Kamerabild zu realisieren.
Im Zuge der Entwicklung eines Sprachassistenten für taktile Grafiken als Teil des Projektes TactonomDuo, wollen wir untersuchen, welche Gesten für gängige Office Programme, wie Excel, Kalender und Explorer, die im beruflichen Alltag oft eingesetzt werden, sinnvoll sind, und ein Gestenvokabular für die Steuerung dieser Anwendungen entwickeln und evaluieren.
Link zur Projektseite: TactonomDuo
In diesem Zusammenhang sind Folgendes interessante Themen:
- Gestenerkennung aus einem Kamerabild mit dem Raspberry Pi
Barrierefreie Lehre: Checklistenbasierte Selbstauskunft zur Barrierefreiheit von Kursmaterialien, Sensibilisierung von Lehrenden
Ansprechperson: Emma Etzold
Lern-Management-Systeme (LMS) wie OPAL haben den Vorteil, dass Lehrkräfte ihre Kursmaterialien online zur Verfügung stellen können. Dazu können sie aus einer Vielzahl von Möglichkeiten auswählen, vom Upload von Dateien, die Studierende herunterladen können, bis hin zu selbstprogrammierten Webseiteninhalten, die im LMS eingebettet werden. Dabei liegt es in der Verantwortung der Lehrkräfte, wie barrierefrei ihre Materialien sind. Das heißt, sie entscheiden, ob und wie umfangreich bspw. Alternativtexte zu Bildern oder Transkriptionen zu Videos existieren. Je nach Umfang und Art der Materialien sind dabei unterschiedliche Barrierefreiheitskriterien relevant.
Es ist gesetzlich vorgeschrieben, dass öffentliche Einrichtung – zu denen auch Hochschulen wie die TUD gehören – ihre digitalen Inhalte barrierefrei zur Verfügung stellen müssen. Das heißt, sie müssen die Kriterien der Barrierefreie-Informationstechnik-Verordnung (BITV) berücksichtigen. Diese Kriterien sind zumeist schwer verständlich und richten sich vor allem an Fachleute – Webentwickler oder Barrierefreiheitsspezialisten. Ein großer Anteil des Lehrpersonals einer Hochschule zählt allerdings nicht zu diesen Fachleuten und kennt die konkreten Richtlinien nicht oder nur unvollständig. Dennoch sind viele von ihnen bemüht, die Zugänglichkeit ihrer Kursinhalte zu erhöhen und allen Studierenden das Lernen zu ermöglichen. Um sie dabei zu unterstützen ist am Lehrstuhl ein Konzept sowie ein Prototyp für eine checklistenbasierte Selbstauskunft der Barrierefreiheit eines Kurses entstanden. Dabei soll zunächst die Barrierefreiheit in Form einer „Erklärung zur Barrierefreiheit“ erstellt werden, die Studierende darüber informiert, wie gut oder schlecht zugänglich Kursmaterialien sind. Zusätzlich soll dadurch auch eine Möglichkeit geschaffen werden, existierende Barrieren direkt an die kursverantwortlichen Personen zu melden und schnellstmöglich abzubauen oder einen alternativen Zugang zu den Informationen zu erhalten. Außerdem wollen wir Lehrkräfte durch diese Checkliste für Barrierefreiheit sensibilisieren und motivieren. Deshalb gibt es zusätzlich zu der Checkliste auch ein Handbuch, über das sich Lehrkräfte über einzelne Kriterien leicht verständlich informieren können und lernen, wie sie diese im LMS wie OPAL realisieren.
Für Abschlussarbeiten zu diesem Thema sind die folgenden Themenrichtungen und Fragestellungen besonders interessant:
- Welche Checklisten existieren bereits für bestimmte Dateiformate und was macht sie aus?
- Wie gut verständlich sind solche Checklisten für fachfremde Personen?
- Wie können BITV-Kriterien in LMS (OPAL, Ilias, moodle) umgesetzt und somit barrierefreie Online-Kurse erstellt werden?
Unterstützung von Menschen im Autismus-Spektrum am Arbeitsplatz durch Verbesserung der Arbeitsorganisation und Reizreduzierung
Psychische Erkrankungen und Entwicklungsstörungen gehen häufig mit einer verminderten Leistungs- und Anpassungsfähigkeit einher, was oft zu einer Beeinträchtigung der Arbeitsfähigkeit führt. Im Gegensatz zu Menschen ohne Autismus, sind Menschen mit Autismus trotz guter beruflicher oder schulischer Bildung wesentlich häufiger von Arbeitslosigkeit betroffen oder in Berufen mit niedrigen Qualifikationsanforderungen tätig. Hauptgründe für die geringe Beschäftigungsquote von Menschen mit Autismus auf dem ersten Arbeitsmarkt sind herausfordernde Arbeitsbedingungen wie Zeitdruck, Informationsüberflutung, hohe kommunikative Anforderungen, soziale Kompetenz, zu viele sensorische Reize sowie die Forderung nach einem hohen Maß an Flexibilität. Bisher gibt es kaum technische Hilfsmittel, die Menschen mit Autismus dabei im Arbeitsalltag gewinnbringend unterstützen.
Der Forschungsbereich umfasst die Entwicklung von technischen Assistenzsystemen zur Unterstützung des Aufgaben- und Zeitmanagement auf der einen Seite sowie Hilfsmittel zur Unterstützung der Reizreduzierung auf der anderen Seite. Dabei soll ein adaptives Noise-Cancellation-Verfahren mit ANC-Kopfhörern entwickelt werden, das bspw. den Kontext einer konkreten Gesprächssituation erfasst und adaptiv irrelevante Signale herausfiltert. Ebenso sollen Konzepte zum Einsatz von Datenbrillen, z. B. zur Personenidentifzierung oder Emotionserkennung, entwickelt werden. Darüber hinaus soll mittels haptischer, natürlicher Interaktionsmodalitäten unter Verwendung von Tangibles die Aufgaben- und Terminplanung verbessert und so ein störungsarmes und strukturiertes Arbeiten ermöglicht werden.
Abschlussarbeiten in dem Forschungsfeld sollten insbesondere eine der drei Problemfelder adressieren:
-
Reizminderung: Reduktion von Reizen zur Vermeidung von Überforderung
-
Kommunikation: Unterstützung der verbalen und textbasierten Kommunikation
-
Aufgabenmanagement: Unterstützung der Strukturierung und Priorisierung im Aufgaben- und Zeitmanagement
Der Fokus dieser Arbeiten kann dabei, abhängig von der konkreten wissenschaftlichen Fragestellung, sowohl auf den technischen Komponenten und deren Einsatzmöglichkeiten als auch auf konkreten Konzepten zur Unterstützung von Menschen im Autismus-Spektrum am Arbeitsplatz liegen.
Projektwebseite mit näheren Informationen: https://tu-dresden.de/ing/informatik/ai/mci/forschung/forschungsgebiete/autark
Multimodale Analyse von Echtzeitdaten mit mobilen Geräten durch blinde Menschen
Ansprechperson: Emma Etzold
Stichwörter: Mensch-Computer-Interaktion, Multimodale Datenpräsentation, Haptifikation, Sonifikation
Die Visualisierung dynamischer Daten ist eine Standardmethode, um diese schnell zu analysieren und Informationen daraus abzuleiten. Bei der Überwachung zeitabhängiger Echtzeitdatenströme (z.B. Maschinenüberwachung im Produktionskontext) werden häufig Visualisierungen (z.B. Dashboards) eingesetzt, um einen schnellen Überblick über die Datenmenge und den zeitlichen Verlauf zu erhalten. Die meisten Datendarstellungen sind rein visuell und nutzen visuelle Fähigkeiten, um Informationen aus Daten schnell zu vermitteln. Eine rein visuelle Datendarstellung schließt jedoch blinde Menschen von der professionellen Datenüberwachung aus.
In diesem Forschungsbereich soll mittels Multimodalität eine stärkere Einbeziehung von blinden Menschen in die Datenüberwachung ermöglicht werden. Ziel ist es, eine multimodale, nicht-visuelle Methode zur Erkundung von Echtzeitdatenströmen mit handelsüblichen mobilen Geräten und Wearables zu entwickeln, mit der blinden Menschen selbstständig Daten analysieren können.
In diesem Zusammenhang sind die folgenden Fragestellungen interessant:
- Welche (multimodalen) Präsentationsformen sind für blinde und sehende Menschen gleichermaßen geeignet? (Informations-/Datenvisualisierung)
- Welche nicht-visuellen Ausgabemedien sind sinnvoll miteinander kombinierbar? (Wahrnehmung und Interpretation von Ausgabemodalitäten)
- Wie kann die Aufmerksamkeit von Benutzenden auf bestimmte Ereignisse (z. B. Grenzwertüberschreitung) gelenkt werden? (human-activity-recognition)
- Welche Eingabemodalitäten sind sinnvoll miteinander kombinierbar? (Interkation)
Conversational-Agents zur Unterstützung der mentalen Gesundheit
Ansprechpersonen: Julian Striegl
Angesichts der weltweit steigenden Zahl von Menschen mit psychischen Problemen und eines bereits angeschlagenen Gesundheitssystems müssen neue Lösungen gefunden werden, um das psychische Wohlbefinden von Menschen aller Altersgruppen zu verbessern. In der Vergangenheit haben sich bereits computergestützte Therapieansätze - wie die Applikations- und Internet-basierte kognitive Verhaltenstherapie (KVT) – als wirksam bei verschiedenen Formen psychischer Störungen (wie Depressionen, Angststörungen oder Zwangsstörungen) gezeigt.
In den letzten Jahren hat das Forschungsinteresse an Chatbot-basierter KVT zugenommen, wobei die auf Sprachassistenten (engl.: Voice Assistants, VA) basierende KVT (VA-basierte KVT) ein möglicher nächster Schritt ist, um niedrigschwellige, einfach zu bedienende und barrierefreie Lösungen für die skalierbare Unterstützung der psychischen Gesundheit anzubieten. Wie können wir sog. Conversational-Agents (Chatbots und Sprachassistenten) entwickeln, die das psychische Wohlbefinden der Nutzenden durch Methoden aus der Psychotherapie, der positiven Psychologie und dem Coaching unterstützen können?
Zu den Themen in diesem Forschungsbereich gehören: künstliche Intelligenz und maschinelles Lernen, Verarbeitung natürlicher Sprache, Gestaltung von stimmlichen Benutzerschnittstellen und Interaktionsdesign in Verbindung mit Elementen der klinischen Psychologie und Psychotherapie. Aus der zentralen Fragestellung lassen sich desweiteren mehrere Forschungsfragen ableiten:
- Wie können wir geeignete Sprachbenutzerschnittstellen entwerfen, die die vielfältigen Bedürfnisse von Menschen mit unterschiedlichen Kommunikationsbedürfnissen und -fähigkeiten berücksichtigen, um eine barrierefreie, niedrigschwellige Therapieunterstützung zu bieten?
- Welche Unterschiede gibt es in der Benutzbarkeit und in der Akzeptanz von VA-basierter KVT im Vergleich zu Chatbot-basierter KVT?
- Welche Methoden aus der KVT und aus der Positiven Psychologie eignen sich, um durch „Conversational-Agents“ vorgestellt und angewandt zu werden?
- Wie können wir die Salutogenese durch Chatbots und Sprachassistenten unterstützen?
- Wie wirkt sich eine emotionssensitive Dialogführung auf die Akzeptanz und Adhärenz von VA-basierter KVT aus?
- Wie ist die Wirksamkeit von VA-basierter KVT im Vergleich zu herkömmlichen Anwendungs- und Internet-basierten KVT-Ansätzen?
Barrierefreie Karten für Gebäude
Stichwörter: Barrierefreiheit, Gebäudekarten
Das Forschungsfeld Accessible Maps for Buildings adressiert verschiedene Problemstellungen im Bereich der Indoor-Karten. Dabei werden sowohl Problemstellungen bei der Erfassung von Gebäudedaten als auch deren Nutzung betrachtet. Das sich daraus ergebende Themenfeld erstreckt sich vom Einsatz der Computer Vision zur Transformation von Fluchtplänen in digitale Gebäudepläne, über SLAM-Verfahren, welche für die Verbesserung der Karten eingesetzt werden, bis hin zum Gebiet des User Centered Design, um Karten für spezifische Nutzendengruppen zu erzeugen oder Routing-Applikationen zu entwickeln.
Kartografie von Gebäuden
Ansprechpersonen: Jan Schmalfuß-Schwarz Julian Striegl
Das Themenfeld der Kartografie von Gebäuden beschäftigt sich mit der Erzeugung, Modellierung, Verbesserung sowie Aktualisierung von Indoor-Karten-Daten. Diesbezüglich werden Kartenformate evaluiert und entwickelt, die neben der reinen geometrischen Repräsentation des Gebäudes zusätzlich auch Informationen über die Barrierefreiheit speichern sowie Ansätze zur Erfassung zeitkritischer (dynamischer) Barrieren in Indoor-Karten erörtert. Des Weiteren stehen Lösungen im Fokus, die es ermöglichen, Indoor-Karten mittels Image Processing und Deep-Learning-Verfahren aus verschiedenen Ausgangsformaten wie architektonischen Gebäudeplänen oder Fluchtplänen zu extrahieren und diese mit Hilfe verschiedener Verfahren auf ihre Genauigkeit zu untersuchen und gegebenenfalls zu optimieren beziehungsweise zu ergänzen. Dafür werden sowohl Ansätze aus der Robotik als auch aus dem Crowdsourcing-Bereich verwendet.
Nutzung der Kartendaten
Ansprechpersonen: Julian Striegl Christin Engel
Neben der Erstellung von visuellen Gebäudekarten ist auch die Nutzung derer ein vielseitiges Themengebiet. Dabei wird sowohl die Erzeugung von physischen Karten als auch deren mobile Nutzung unter Einsatz verschiedener Modalitäten untersucht. Einerseits geht es dabei um die Generierung nutzerzentrierter Karten, die die spezifischen Bedürfnisse von Menschen mit Beeinträchtigungen adressieren. Dies schließt die Erzeugung barrierearmer Karten, zum Beispiel in Form von taktilen oder physischen Karten zur haptischen Exploration, mit ein. Anderseits ist es unser Ziel mobile Interaktionstechniken mit digitalen Karten zur Verfügung zu stellen, um Benutzungsfreundlichkeit für eine Vielzahl von Anwendungsfällen und verschiedenen Kontexten sowie Nutzendengruppen zu gewährleisten. Dies beinhaltet unter anderem auch die Bereitstellung von Sprachinterfaces und die barrierefreie Ausgabe von und Interaktion mit Kartendaten mittels Screenreadern. In diesem Kontext wird auch die Nutzung von Location-Based-Services im Zusammenhang mit Gebäudekarten untersucht.
Diversitätssensible Mensch-Computer-Interaktion und KI
Ansprechperson Claudia Loitsch
Stichwörter: Mensch-Computer-Interaktion, User Modelling, Adaptive Systeme, Menschzentrierte Gestaltung, Diversitätssensibles Design, User Experience, User Research, KI.
Die Durchdringung der Digitalisierung in alle Lebensbereiche und auch Altersgruppen führte dazu, dass wir heute fast alle Aufgaben in irgendeiner Form computergestützt erledigen. Damit spielt der Mensch mit seinen individuellen Erfahrungen, Erwartungen, Fähigkeiten und Bedarfen eine noch wichtigere Rolle bei der Entwicklung von computergestützten Lösungen und Benutzungsschnittstellen. Das gesamte Nutzungserlebnis (engl. auch User Experience genannt) und die digitale Teilhabe haben eine zunehmende wirtschaftliche und soziale Relevanz.
Dieser Themenbereich untersucht, wie die Diversität bzw. die Vielfalt von Personen bei der menschenzentrierten Gestaltung von computergestützten Systemen und von KI Berücksichtigung finden kann.
Es geht darum, dass sich computergestützte Systeme und Anwendungen an unsere individuellen Bedürfnisse, Fähigkeiten und mentalen Modelle anpassen sollen, um uns bei alltäglichen Aufgaben möglichst effizient und zunehmend auch in angenehmer Weise oder mit Spaß zu unterstützen. Dies setzt voraus, dass digitale Anwendungen und Benutzungsschnittstellen intelligenter werden und sich an unsere individuellen Eigenschaften, Fähigkeiten oder Alltags- oder Lebenssituationen anpassen können. Außerdem wird es zunehmend wichtiger, dass Schlüsseltechnologien der künstlichen Intelligenz Diversität berücksichtigen, Trainingsdaten fair und ausgewogen sind und keine Diskriminierung und Exklusion fördern.
Themen werden je nach Interesse gemeinsam mit Ihnen entwickelt. Dabei können in diesem Themenbereich vielfältige Fragestellungen betrachtet werden, wie zum Beispiel:
- Wie wirken sich verschiedene Ausprägungen von Persönlichkeitsmerkmalen (z. B. Big Five/OCEAN-Modell) auf digitale Gestaltungslösungen aus?
- Welche wahrnehmungs- oder verhaltenspsychologischen Aspekte, Gestaltungsrichtlinien, Designentscheidungen können für diverse Zielgruppen (z. B. ältere Menschen, Menschen mit Migrationshintergrund, Menschen mit kognitiven Einschränkungen, etc.) Anwendung finden?
- Wie kann Diversität in Trainingsdaten für maschinelles Lernen und KI erreicht und festgestellt werden?
- Welche Benutzermodelle adressieren Diversität von Gruppen oder Individuen, die in adaptierbaren oder adaptiven Anwendungen und Benutzungsschnittstellen zu einer besseren User Experience führen?
Soziale Assistenzroboter ― Usability und Softwarevariabilität
Ansprechperson David Gollasch
Stichwörter: Mensch-Roboter-Interaktion, Roboter-Kooperation, Emotionserkennung und -modellierung, Softwarevariabilität, Softwareökosysteme, Sprachsteuerung, Gestensteuerung, Smart-Home, Adaptivität, Barrierefreiheit, Assistenzsystem
Assistenzsysteme verbessern oder ermöglichen vielen Menschen die Teilnahme am öffentlichen Leben sowie die Bewältigung des Alltags. Gerade im Hinblick auf eine alternde Gesellschaft und dem Wunsch nach mehr Inklusion spielt die Entwicklung leistungsfähiger Assistenzsysteme eine zunehmend wichtige Rolle. Ein Teil dieser Assistenzsysteme bilden sog. Soziale Assistenzroboter (SARs), die für unterschiedliche Aufgabenfelder entwickelt werden. Eine Kernfrage ist in diesem Zusammenhang, wie sich effizient Software für ebendiese Assistenzroboter entwickeln lässt, sodass auch die Zielgruppe der Menschen mit besonderen Anforderungen mit ihnen gut umgehen kann. Hierfür sollen praktikable und zuverlässige Entwicklungsmethoden entworfen werden, die eine geeignete Mensch-Roboter-Interaktion ermöglichen.
In diesem Zusammenhang ergibt sich eine Vielzahl interessanter Fragestellungen. Hier einige Beispiele:
- Wie kann diversitätssensible Sprachinteraktion aussehen (betrifft: Voice User Interfaces, Conversational User Interfaces, Künstliche Intelligenz)?
- Wie kann ein Assistenzroboter flexibel auf besondere Anforderungen reagieren (betrifft: Adaptivität, UI-Softwarevariabilität, Künstliche Intelligenz)?
- Welche Eingabeformen sollte ein Assistenzroboter unterstützen (betrifft: Gestensteuerung, Emotionserkennung und -modellierung)?
- Wie kann ein Assistenzroboter in seine Umgebung eingebettet werden (betrifft: Smarthome-Integration, Kontextsensitivität, Ambient Assisted Living, ADL-Recognition)?
Verbesserung der Präsenzlehre für blinde und sehbehinderte Menschen
Ansprechperson Jens Voegler
In Vorlesungen und Übungen werden interaktive Whiteboards und Präsentationen sehr häufig verwendet. Durch die Hinzunahme aktueller Web-Technologien kann der Zugriff auf diese Medien für Blinde und Sehbehinderte verbessert werden.
Physische Informationsvisualisierungen
Ansprechperson Meinhardt Branig
Physische Informationsvisualisierungen zur Exploration großer Datenmengen für blinde und sehbehinderte Menschen.
Abgeschlossene Themen
Sobald Arbeiten in das Forschungsinformationssystem der TU Dresden eingetragen wurden, erscheinen diese in nachfolgender Übersicht.
Segmentierung und Vektorisierung von Objektsilhouetten mittels TOF-System.
Bachelorarbeit. Lukas Förster. Betreut durch Jens Bornschein.
Taktiles Zeichnen mittels Gesteneingabe.
Diplomarbeit. Kai Beyrich. Betreut durch Jens Bornschein.
Taktiler Druck von Brailleschrift in SVG-Bildern.
Bachelorarbeit. Dennis Körte. Betreut durch Denise Bornschein
Tool zur interaktiven Erkundung von taktilen Diagrammen auf einem zweidimensionalen Brailledisplay.
Bachelorarbeit. Constantin Lorz. Betreut durch Denise Bornschein.
Erzeugung von zugänglichen audio-taktilen Diagrammen
Masterarbeit. Michael Jobst. Betreut durch Christin Engel
Interaktionskonzepte für taktile Diagramme
Bachelorarbeit. Maximilian Letter. Betreut durch Christin Engel
Entwurf von Autorenwerkzeugen zur Unterstützung der Ersteller von zugänglichen Screenshots
Bachelorarbeit. Philipp Rabe. Betreut durch Christin Engel
Interaktive, zugängliche Diagramme in SVG für blinde Menschen
Bachelorarbeit. Sven Zedlick. Betreut durch Christin Engel und Meinhardt Branig
Vektorbasiertes Zeichnen mit direkter taktiler Rückmeldung.
Bachelorarbeit. Stephanie Schöne. Betreut durch Jens Bornschein.
Personas und Benutzerprofile für Menschen mit Dyslexie.
Masterarbeit. Betreut durch Claudia Loitsch.
Konzeption für den Zugang zu Tafelbildern auf interaktiven Whiteboards (IWB) unter Verwendung der Stiftplatte Hyperbraille.
Bachelorarbeit. Betreut durch Jens Voegler.
Design and Development of a Haptic Rein for a Guide Dog Robot.
Bachelorarbeit. Björn Einert. Betreut durch Limin Zeng.
Generierung von Wegbeschreibungen in Gebäuden für blinde Fußgänger.
Diplomarbeit. Philipp Thöricht. Betreut durch Prof. Gerhard Weber.
Visualisierung von Prüfberichten zur Bewertung der Qualität taktiler Grafiken.
Bachelorarbeit. Philipp Dienst. Betreut durch Jens Bornschein und Denise Prescher.
Erweiterung eines taktilen Arbeitsplatzes für blinde Nutzer mittels TOF-System.
Bachelorarbeit. Markus Roth. Betreut durch Jens Bornschein.
Generalisierung eines 3D-Kartenmodells zur Unterstützung der Mobilität blinder Menschen.
Bachelorarbeit. Laura Eichler. Betreut durch Jens Bornschein.
Towards an All-inclusive Indoor Navigation.
Großer Beleg. Florian Städtler. Betreut durch Martin Spindler.
Indoor Topological Mapping with a 3D ToF camera.
Bachelorarbeit. Tino Noeres. Betreut durch Limin Zeng.
Towards an All-inclusive Indoor Navigation: a Bluetooth Beacon based Proximity Sensing.
Großer Beleg. Florian Städtler. Betreut durch Limin Zeng.
Automatisierte Optimierung von SVG-Grafiken für eine taktile Ausgabe.
Masterarbeit. Yuan Liu. Betreut durch Jens Bornschein.
Barrierefreier Editor zur Festlegung einer Lesereihenfolge in SVG-Bildern.
Bachelorarbeit. Duc Anh Pham. Betreut durch Jens Bornschein.
Braille-Text-Rendering mit Stylesheet-Unterstützung für ein taktiles Flächendisplay.
Bachelorarbeit. Alexander Karpinski. Betreut durch Jens Bornschein.
Webgestützter Remote-Client zur Visualisierung und Prüfung von Anwendungsoberflächen.
Bachelorarbeit. Michael Koller. Betreut durch Michael Schmidt und Jens Bornschein.
Fachbücher mit den Händen lesen – Daisy-Reader für ein taktiles Flächendisplay.
Diplomarbeit. Ghiath Makhoul. Betreut durch Jens Bornschein.
SVG-Graphenzeichner für taktile Funktionsgraphen.
Großer Beleg. Gregor Harlan. Betreut durch Jens Bornschein.
Audio-taktiles Spiel für Blinde.
Großer Beleg. Erik Schulze. Betreut durch Denise Prescher.
Orientierungshilfen für die Erkundung taktiler Grafiken.
Diplomarbeit. Mandy Gerlach. Betreut durch Denise Prescher.
Multimodales Feedback zur Unterstützung blinder Fußgänger innerhalb von Gebäuden (Multimodal Feedback to Help Blind Pedestrians in Buildings).
Diplomarbeit. Alexander Fickel. Betreut durch Limin Zeng.
Haptische Verfahren zur Wahrnehmung von Hindernissen durch blinde Fußgänger (Haptic Interactions for Obstacle Detection by Blind Pedestrians).
Großer Beleg. Alexander Fickel. Betreut durch Limin Zeng.
- Enhancing the Accuracy of Obstacle Detection by 3D Time of Flight Cameras (Großen Beleg)
- Geographic Annotations for Accessible Personalized Cartography (Diplomarbeit)
- An Interactive Collaborative Platform of Accessible Geographical Content in a Mobile Environment (Diplomarbeit)
- Design and Evaluation of Tactile Map Symbols for the Visually Impaired (Großen Beleg)
- Detection and Non-Visual Representation of Objects based on a 3D TOF Range Camera (Diplomarbeit)
- Annotationseditor zur Unterstützung der videobasierten Auswertung von Usability-Studien (Großer Beleg)
- Haptischer Editor für den Geometrieunterricht (Diplomarbeit)
- Stylesheet für die flächige Ausgabe von Braille (Diplomarbeit)
- Untersuchung haptischer Interaktion (Großer Beleg)
- Defizite des QTI-2-Standards und Onyx bezüglich der Barrierefreiheit (Großer Beleg)
- Vergleich von nicht-visuellen Interaktionsmechanismen basierend auf taktiler und auditiver Ausgabe (Großer Beleg)
- Prüfkriterien für Grafiken in für blinde Nutzer aufbereiteten Fachbüchern (Bachelorarbeit)
- Audiohaptischer Zugang zu mathemtischen Dokumenten (Beleg)
- Werkzeuge zur Barrierefreien Aufbereitung von Vorlesungsaufzeichnungen (Beleg)
- Barriefreie Multimediainhalte im Web mit HTML5 (Beleg)
- DAISY-based Accessible Location Based Service (Beleg)
- Videovorlesungen in Lernplattformen (Diplomarbeit)
- Das Smartphone zur Umgebungserkundung für Blinde und Sehbehinderte (Beleg)
- Barrierefreier personalisierbarer Stadtführer für den mobilen Einsatz (Beleg)
- Sonifikation in Umsteigegebäuden (Beleg)
- Smartphones sehen 3D (Beleg)
- Routenführung durch Sonifikation für Blinde und Sehbehinderte (Diplomarbeit)
- Routenplanung in Gebäuden für blinde und sehbehinderte Fußgänger (Diplomarbeit)
- Erweiterung des DAISY-Hörbuchformats zur Beschreibung von Karten & Lageplänen (Großer Beleg/Studienarbeit)
- Barrierefreier mobiler Annotationseditor für Indoor-Lagepläne (Diplomarbeit)
- Navigationssystem für blinde Fußgänger und ÖPNV-Nutzer (Diplomarbeit)
- Automatische Klassifikation von Landmarken und Hindernissen für blinde Fußgänger in Innenräumen mittels Ultraschall (Masterarbeit)