6G-life
In 6G-life untersuchen wir die Auswirkungen der Gehirnentwicklung und des Alterns auf die multisensorische Wahrnehmung, sensorische Augmentation, Bewegungsplanung und Bewegungsausführung in der virtuellen Realität (VR).
Hintergrund
Dieses Projekt ist Teil des 6G-life-Forschungszentrums und bündelt die Kräfte der TU Dresden und der TU München, um Spitzenforschung für zukünftige 6G-Kommunikationsnetze mit dem Fokus auf Mensch-Maschine-Kollaboration voranzutreiben. Mit unserer Forschung wollen wir Forschern in den Ingenieur- und Computerwissenschaften entscheidende Parameter der menschlichen Faktoren für die Gestaltung multisensorischer, virtueller Umgebungen für Mensch-Mensch- und Mensch-Maschine-Interaktionen zur Verfügung stellen.
Ziele und Methoden
Wir führen Studien in 3 wesentlichen Forschungsbereichen durch zur Untersuchung der Auswirkungen von:
Die multisensorische Wahrnehmung ist eine Grundvoraussetzung dafür, dass unser Gehirn kohärente Repräsentationen unserer Umgebung und unseres Körpers bilden kann. Wie genau sich die Grundlagen der multisensorischen Wahrnehmung auf virtuelle Umgebungen übertragen lassen, ist jedoch nicht vollständig bekannt. Auch die Unterschiede in der Art und Weise, wie das junge und das alte Gehirn diese Übertragung vornehmen, müssen noch verstanden werden. Um dies zu untersuchen, entwerfen wir Experimente, die darauf abzielen, die Prozesse der multisensorischen Wahrnehmung in der virtuellen Realität zwischen jungen und alten Erwachsenen zu vergleichen.
Multisensorische Umgebungen erfordern multisensorische Lösungen, um realistischere Mensch-Mensch-Interaktionen zu schaffen. Dies gilt insbesondere für affektive Berührungen oder andere Sinnesmodalitäten wie die taktil-olfaktorische Verarbeitung. Wie beeinflusst die Interaktion zwischen unseren Sinnen in realen und virtuellen Umgebungen unsere Wahrnehmung und wie können wir dieses Wissen bei der Entwicklung zukünftiger Technologien nutzen?
Alterungsprozesse beeinträchtigen die kognitiven und motorischen Funktionen älterer Menschen. Einerseits ist Bewegung hilfreich, um die körperliche Fitness von Senior:innen möglichst lange zu erhalten; andererseits leiden viele ältere Menschen unter motorischen Einschränkungen aufgrund ihres steigenden Alters, sowohl bei alltäglichen als auch sportlichen Aktivitäten. Hier sind digitalisierte Ganzkörper-Bewegungsdaten wertvoll für (i) die Entwicklung von Algorithmen aus dem Maschinenlernen (ML) zur Erkennung und Diagnose von Bewegungsproblemen und (ii) für die Gestaltung telephysischer Fitness- oder Telerehabilitationsübungen in VR/AR-Umgebungen. Bisher verfügbare offene Bewegungsdatenbanken konzentrieren sich hauptsächlich auf Daten, die von jüngeren Erwachsenen gesammelt wurden. Daher planen wir, mithilfe von Ganzkörper-Sensoranzügen und Sensor-Handschuhen Bewegungsdaten von Erwachsenen in jüngerem, mittlerem und höherem Alter in täglichen Aktivitäten oder sportlichen Übungen aufzunehmen und diese Datensätze als Open Data der Forschungsgemeinde zur Verfügung zu stellen.
Aktuelle Studien
Multisensorische Verarbeitung von Berührungsreizen, die von einer Manschette übertragen werden
In Kooperation mit:
- Sachith Muthukumarana (University of Auckland, NZ, https://profiles.auckland.ac.nz/pmut288)
- Robert Rosenkranz (Chair of Haptics and Acoustics, https://tu-dresden.de/ing/elektrotechnik/ias/aha/die-professur/Mitarbeiter/robert-rosenkranz)
- Robert Kirchner (PhD student, Chair of Haptics and Acoustics, https://tu-dresden.de/ing/elektrotechnik/ias/aha/die-professur/Mitarbeiter/copy_of_anna-schwendicke)
Wirkung einer virtuellen Ganzkörpertäuschung auf die Repräsentation des peripersonalen Raums in der virtuellen Realität
In Kooperation mit:
Yichen Fan (https://6g-life.de/yichen-fan/)
Demografisch repräsentative Datenbank der Aktivitäten des täglichen Lebens (ADL) von Menschen über die gesamte Lebensspanne, die mit Ganzkörper-Bewegungserfassungsanzügen und Handschuhen erfasst werden
In Kooperation mit:
- Simon Hanisch (https://ceti.one/simon-hanisch/)
- Mit der engagierten Hilfe der folgenden studentischen Assistenten:
- Veronica Yolanda Puspita Wardhani (2022/23)
- Alexander Behrens (2022/23)
- Moritz Fuchs (2023)
- Anna Hannemann (2023)
In dem Teilprojekt TeleTaichi werden wir eine virtuelle Umgebung einrichten, in der Benutzende an Teleübungen teilnehmen können, in denen sie grundlegende Taichi-Bewegungen von einer Expertin lernen. Wir werden die Bewegungen der Teilnehmenden während der Übungseinheiten aufzeichnen. Wir interessieren uns unter anderem für die Auswirkungen der Verwendung von Bewegungsmetaphern zur Verbesserung motorischer Repräsentationen und des motorischem Bewegungslernens über Distanz. Darüber hinaus sind wir daran interessiert, diese Daten für die Entwicklung von ML-Methoden zu verwenden, um motorische Fähigkeiten in Abhängigkeit von der Trainingsdauer zu klassifizieren und um die Nutzendenschnittstelle an individuelle Merkmale bestimmter Personengruppen anzupassen.
In Kooperation mit:
Martina Morasso (https://www.theapolis.de/de/profil/martina-morasso
Projektleitung
Team
Kooperationspartner
- Prof. Gianaurelio Cuniberti (TUD, Chair of Materials Science and Nanotechnology, https://www.nano-tud.de/member/gc/)
- Prof. Dr. rer. nat. Stefan Gumhold (TUD, Chair of Computer Graphics and Visualization) (https://tu-dresden.de/ing/informatik/smt/cgv/die-professur/inhaber-in)
- Prof. Andrea Serino (Head of MySpace Lab, University Hospital of Lausanne) https://wp.unil.ch/myspacelab/prof-andrea-serino/
Danksagung
Die Autor*innen bedanken sich für die finanzielle Unterstützung durch das Bundesministerium für Bildung und Forschung im Rahmen des Programms “Souverän. Digital. Vernetzt.”. Verbundprojekt 6G-life, Förderkennzeichen: 16KISK001K