Forschungsprojekte
Liste aktueller Forschungsprojekte des Lehrstuhls:
Der Schwerpunkt von A4 liegt auf der Weiterentwicklung datenwissenschaftlicher Methoden für innovative Daten. Erstens werden wir hybride Techniken für die Schätzung einer aggregierten Quelle-Ziel-Nachfrage auf Basis von FCD-Daten entwickeln. Zweitens werden wir Cluster- und Klassifizierungsalgorithmen für die Erkennung von Mustern im Fahrradverkehr anhand von Trajektoriendaten entwickeln. Drittens werden wir innovative Ansätze für den Umgang mit redundanten Daten entwickeln. Viertens werden wir intrapersonelle Routinen bei Reisen und Aktivitäten einschließlich der Interaktionen zwischen Haushaltsmitgliedern untersuchen.
Dieses Projekt ist Teil des Sonderforschungsbereichs SFB/TRR 408 „AgiMo: Data-driven agile planning for responsible mobility“, welches einen integrativen Ansatz für die Mobilitätsplanung der Zukunft verfolgt.
Laufzeit des Projekts:
seit 10/2025
Gefördert durch:
DFG
Ansprechpartner:

Mitarbeiter/in (AgiMo)
NameHerr Sebastian Dengel M.Sc.
Eine verschlüsselte E-Mail über das SecureMail-Portal versenden (nur für TUD-externe Personen).
Professur für Big Data Analytics in Transportation
Professur für Big Data Analytics in Transportation
Besuchsadresse:
Bürozentrum Falkenbrunnen (FAL), Zimmer 012 (EG) Würzburger Str. 35
01187 Dresden
Grüner Wasserstoff wird weithin als einer der zentralen Bausteine einer nachhaltigen Energiewende angesehen. Dabei sollte berücksichtigt werden, dass Wasserstoff lediglich dann nachhaltig bzw. "grün" produziert wird, wenn der für die Wasserelektrolyse verwendete Strom exklusiv aus nicht-fossilen (d. h. erneuerbaren bzw. regenerativen) Energiequellen wie beispielsweise Photovoltaik, Wind- oder Wasserkraft gewonnen wurde. Um eine dauerhafte Wirtschaftlichkeit der Wasserelektrolyse zu gewährleisten, sollte für die Wasserstoffproduktion primär "überschüssige" Energie verwendet werden. Das heißt, der Wasserstoff sollte insbesondere in solchen Zeiten produziert werden, in denen der Energiebedarf (über einen längeren Zeitraum) geringer ist, als das währenddessen verfügbare Energiepotenzial bzw. -angebot.
Um diese "überschüssige" Energie akkurat prognostizieren und somit möglichst effizient nutzen zu können, bedarf es einer präzisen Modellierung des jeweiligen Energieangebots und -bedarfs. Dabei müssen bei der Modellierung des Angebots u. a. die geografische Lage der Energiequelle sowie die teils sehr starken wetterbedingten Schwankungen berücksichtigt werden. Umgekehrt wird der Energiebedarf insbesondere durch demografische und industrielle Faktoren beeinflusst. Bedingt durch den hohen Datenumfang sowie die Volatilität diverser zeit- sowie raumabhängiger Einflussgrößen lässt sich der Energiehaushalt bisher – wenn überhaupt – nur mit sehr spezialisierten, hochkomplexen Modellen beschreiben. Zugleich ist auf Grund der hohen Komplexität dieser Modelle eine sinnvolle, d. h. für Menschen nachvollziehbare Analyse der algorithmisch getroffenen Entscheidungen nahezu unmöglich, so dass keine Aussagen über die Zuverlässigkeit der Modelle getroffen werden können.
An dieser Stelle setzt das beantragte Projektvorhaben an. Durch eine geeignete Kombination, Adaption und Erweiterung moderner Methoden der Künstlichen Intelligenz (KI), genauer gesagt des Maschinellen Lernens (ML), sollen verschiedene Algorithmen und Software-Produkte (mit dem primären Ziel der Modellierung des Energieangebots und -bedarfs) konzipiert und implementiert werden. Zunächst soll ein Algorithmus entwickelt werden, mit dessen Hilfe die enormen Mengen insbesondere zeit- und raumabhängiger Daten vollkommen automatisiert auf eine möglichst minimale Menge informativer Einflussgrößen reduziert werden können. Anschließend soll dieser Algorithmus in ein (ebenfalls zu entwickelndes) nutzerfreundliches KI-System namens AutoGREEN integriert werden, welches – in Anlehnung an die Idee des sogenannten Automatisierten Maschinellen Lernens (AutoML) – automatisiert aus einer Menge vielversprechender ML-Verfahren einen möglichst gut geeigneten Algorithmus wählt, mit dessen Hilfe das Energieangebot sowie der zugehörige Energiebedarf (an einem gegebenen Standort) modelliert werden sollen. Auf Grund der Fokussierung auf Modelle, die anhand kleiner, jedoch möglichst informativer Einflussgrößen ermittelt wurden, ergibt sich hierüber zugleich die Möglichkeit, die Zuverlässigkeit der erzeugten Modelle gezielt zu analysieren.
Dieses Projekt ist Teil von Cluster E: Wasserstoffimporte aus der MENA-Region im Vergleich zur Wasserstofferzeugung in Deutschland des 4. Boysen-TU Dresden-Graduiertenkollegs. Der Fokus des übergeordneten und interdisziplinär zusammengesetzten Graduiertenkollegs liegt dabei auf dem Thema "Wasserstoffwirtschaft -- Strategisches Element eines künftigen Greengas Deals".
Laufzeit des Projekts:
seit 03/2022
Ansprechpartner:

Mitarbeiter/in
NameHerr Markus Leyser M.Sc.
Eine verschlüsselte E-Mail über das SecureMail-Portal versenden (nur für TUD-externe Personen).
Professur für Big Data Analytics in Transportation
Professur für Big Data Analytics in Transportation
Besuchsadresse:
Bürozentrum Falkenbrunnen (FAL), Zimmer 011b (EG) Würzburger Str. 35
01187 Dresden
Durch die stark steigende Verfügbarkeit verkehrsbezogener Daten ergeben sich umfangreiche neue Potenziale hinsichtlich der Überwachung, Analyse, Optimierung und Planung von Verkehrssystemen. Das auf Bundes- und EU-Ebene angestrebte Mobilitätsdatengesetz wird dieses kontinuierliche Datenwachstum nochmals beschleunigen. Um aus den großen Datenmengen (Stichwort: Big Data) effizient wertvolle Informationen und Erkenntnisse zu gewinnen, werden vermehrt Methoden aus dem Bereich Machine Learning, wie bspw. Clusteranalyseverfahren, eingesetzt. Allerdings ist die gegenwärtige Wahrnehmung sowie Nutzung entsprechender Algorithmen in verkehrswissenschaftlichen Anwendungen bisher sehr limitiert.
Im Rahmen dieses durch FOSTER geförderten Vorhabens wird eine umfassende Analyse und Systematisierung von Clusterverfahren und ihren bekannten Anwendungen im verkehrswissenschaftlichen Kontext verfolgt.
Laufzeit des Projekts:
03/2024 -- 09/2024
Ansprechpartner:

Studentische Hilfskraft
NameHerr Jochen Weihe B.Sc.
Eine verschlüsselte E-Mail über das SecureMail-Portal versenden (nur für TUD-externe Personen).
Professur für Big Data Analytics in Transportation
Professur für Big Data Analytics in Transportation
Besuchsadresse:
Bürozentrum Falkenbrunnen (FAL), Zimmer 120 (1. OG) Würzburger Str. 35
01187 Dresden
Die "RAS Problem Solving Competition" ruft regelmäßig dazu auf, Lösungen zu praxisrelevanten Problemen im Schienenverkehr zu finden. Dabei werden Methoden aus den Bereichen Operations Research, Data Analytics und Machine Learning verwendet, welche allesamt Schwerpunkte meines Studiums bilden. Der Wettbewerb wird vom Institute for Operations Research and the Management Sciences (INFORMS) veranstaltet. Ziel der diesjährigen Edition ist es, neuartige Algorithmen zum effizienteren Rangieren von Waggons in einem Rangierbahnhof zu entwickeln. Das zugrundeliegende kombinatorische Problem ist für den Schienengüterverkehr von hoher Bedeutung. Laut Veranstalter bieten weltweit lediglich zwei Firmen moderne KI-basierte Verfahren zur Optimierung der Rangierprozesse an. Dabei erhöht ein effizienteres Rangieren der einzelnen Wagen die Wettbewerbsfähigkeit der Schiene maßgeblich. Dieses Projekt leistet somit einen wichtigen akademischen Beitrag zur Verkehrswende, da hierdurch die Verlagerung des Güterverkehrs von der Straße auf die klimafreundlichere Schiene unterstützt wird. Das Projektteam entwickelt derzeit einen vielversprechenden Algorithmus und wird die Ergebnisse im Oktober auf dem "INFORMS Annual Meeting 2024" in Seattle, USA vorstellen.
Laufzeit des Projekts:
10/2024
Gefördert durch:
FOSTER – Funds for Student Research (TU Dresden)
Ansprechpartner:

Studentische Hilfskraft
NameHerr Lukas Unterschütz B.Sc.
Eine verschlüsselte E-Mail über das SecureMail-Portal versenden (nur für TUD-externe Personen).
Come2Data verfolgt als Datenkompetenzzentrum (DKZ) einen sächsisch-regionalen Ansatz zur Vermittlung praxisorientierter Datenkompetenzen vorrangig in die Wissenschaft, aber auch in die Bereiche Verwaltung und interessierte Gesellschaft sowie perspektivisch in die Wirtschaft. Come2Data bündelt dabei vorhandene datenwissenschaftliche Ausbildungs- und Unterstützungsangebote sowie Expertisen und Engagement zu Forschungsdatenmanagement, zur Nationalen Forschungsdateninfrastruktur (NFDI), zum Hochleistungsrechnen und Analyseverfahren für datenintensive interdisziplinäre Forschungsanwendungen, wie Künstliche Intelligenz und Datenmodellierung. Hierbei werden die in Sachsen existierenden, vielfältigen lokalen, regionalen und nationalen Aktivitäten konsolidiert und zu einem nachhaltigen Angebot synergetisch zusammengeführt. Die Basis bildet ein umfassendes Ausbildungs- und Unterstützungsangebot auf den Gebieten der Datenintegration, des Datenmanagements, der Datenanalyse und der Datenpublikation. Come2Data schafft damit einen offenen Forschungs-, Unterstützungs-, Vernetzungs- und Lernort über sächsische Standorte hinweg, um das konsolidierte Ausbildungs-, Unterstützungs- und Wissensangebot über eine zentrale virtuelle Plattform Forschenden, Lehrenden und Lernenden sowie öffentlichkeitswirksam bereitzustellen.
Als offener Lernort wird Come2Data bestehende Lehrangebote zu Datenkompetenzen bündeln, didaktisch für unterschiedliche Zielgruppen aufarbeiten und zentral als Modulreihen und Zertifizierungsprogramme bereitstellen. Innovativ ist hierbei, dass über die Forschungsorte reale und komplexe Daten- und Lehrprobleme durch einen sächsischen Data-Expert-Pool bearbeitet werden und die dabei entstehenden Erkenntnisse in die Lehrangebote kontinuierlich eingepflegt werden.
Um den Forschungs- und Lernort herum entsteht zudem ein nachhaltiger Unterstützungsort, der in Form eines Helpdesk mittels einer Wissensbasis umfangreichen Level-1 Support, und über die Vermittlung von Experten und Expertinnen spezifischen Level-2 Support leisten wird. Als offener Vernetzungsort stehen diese Angebote einer breiten Zielgruppe zur Verfügung. Zusätzlich schafft Come2Data damit einen Raum, in dem über einen freien Austausch Lösungen für reale Daten- und Lehrprobleme von praxiserprobten lokalen, regionalen und nationalen Fachleuten bereitgestellt und didaktisch aufgearbeitet zur Verfügung gestellt werden.
Come2Data wird hierfür die notwendige technische und organisatorische Infrastruktur bereitstellen und mit den erforderlichen personellen Ressourcen auch langfristig absichernden Data-Expert-Pool, die Lehrangebote und die Wissensbasis koordinieren, sowie den Wissenstransfer in den Bereich Forschung ermöglichen.
Ziel ist der Aufbau eines sächsischen Datenkompetenzzentrums, das in enger Anbindung an die vorhandenen Aktivitäten und Expertisen im Kontext NHR, KI und NFDI/FDM sowie unter Nutzung der lokalen und regionalen Kompetenzen.
Laufzeit des Projekts:
seit 11/2023
Gefördert durch:
BMBF
Ansprechpartner:

Professor
NameHerr Prof. Dr. rer. pol. Pascal Kerschke
Eine verschlüsselte E-Mail über das SecureMail-Portal versenden (nur für TUD-externe Personen).
Professur für Big Data Analytics in Transportation
Professur für Big Data Analytics in Transportation
Besuchsadresse:
Bürozentrum Falkenbrunnen (FAL), Zimmer 005a (EG) Würzburger Str. 35
01187 Dresden
Sprechzeiten:
nach Vereinbarung
Der Schienenverkehr spielt eine äußerst wichtige Rolle bei der Wende zur umweltfreundlichen Mobilität von Personen und Gütern. Dabei erfordert das hohe Verkehrsaufkommen auf der Schiene bessere Systeme zur Echtzeitsteuerung, um Verspätungen nach Betriebsstörungen oder Ausfällen zu verringern und einen pünktlichen und zuverlässigen Bahnverkehr zu gewährleisten. Künftige automatisierte Verkehrsmanagementsysteme sollen mit Hilfe künstlicher Intelligenz (KI) nach Störungen in sehr kurzen Reaktionszeiten zuverlässige Dispositionsentscheidungen umsetzen. Dabei gibt es jedoch noch Herausforderungen für einen möglichst effizienten und effektiven Einsatz der KI.
Im Projekt REINFORCERAIL wird eine KI-unterstützte Komponente für Verkehrsmanagementsysteme im Bahnbetrieb entwickelt. Erste Versuche haben gezeigt, dass ein KI-gestütztes Verkehrsmanagement grundsätzlich möglich ist. Dazu sollen zwei Methoden erforscht und beispielhaft erprobt werden, die die automatische Disposition weiter verbessern. Zum einen sollen neuronale Netze genutzt werden, um zu erkennen, welche Züge zu welchem Zeitpunkt bei gestörtem Betrieb möglicherweise umdisponiert werden müssen. Zum anderen werden KI-Agenten mit Methoden des Operations Research kombiniert, wodurch Qualitätsschranken ermittelt werden können und dadurch das für die Implementierung einer hochautomatisierten Anwendung erforderliche Vertrauen gefördert wird.
Das REINFORCERAIL-Projekt trägt dazu bei, zukünftige Verkehrsmanagementsysteme effektiver zu gestalten. Die Ergebnisse von REINFORCERAIL sollen in die aktuellen Programme der Betreiber der größten nationalen europäischen Eisenbahninfrastrukturen in Deutschland (DB Netz) und Frankreich (SNCF) einfließen, um den Bahnbetrieb zu verbessern und zu automatisieren.
Laufzeit des Projekts:
seit 06/2023
Gefördert durch:
BMBF
Ansprechpartner:

Professor
NameHerr Prof. Dr. rer. pol. Pascal Kerschke
Eine verschlüsselte E-Mail über das SecureMail-Portal versenden (nur für TUD-externe Personen).
Professur für Big Data Analytics in Transportation
Professur für Big Data Analytics in Transportation
Besuchsadresse:
Bürozentrum Falkenbrunnen (FAL), Zimmer 005a (EG) Würzburger Str. 35
01187 Dresden
Sprechzeiten:
nach Vereinbarung
Angesichts der stark anwachsenden Menge an Verkehrsdaten entsteht neben der Möglichkeit tiefgehender Analysen vor allem die Notwendigkeit einer robusten Infrastruktur zur Erfassung dieser Daten. Dabei sind insbesondere Verkehrsdaten, aufgrund ihrer zeitlich und räumlich dynamischen Komponente, besonders umfangreich (Big Data). Das Mobilitätsdatengesetz, das im Jahr 2024 in Kraft treten soll, sieht vor, dass "Verkehrsunternehmen und Mobilitätsanbieter (…), Echtzeitdaten" bereitstellen. Dynamische Daten zur Echtzeit-Verfügbarkeit von Sharing-Fahrzeugen spielen dabei eine zentrale Rolle. Während auf staatlichen Plattformen wie der "Mobilithek" bereits vereinzelt Echtzeit-Daten von Shared Mobility-Anbietern zur Verfügung gestellt werden, ist dies nicht zu vergleichen mit der Flut an Daten, die zu erwarten ist, sobald das Gesetz in Kraft tritt. Im Mittelpunkt dieses Vorhabens steht deshalb der Aufbau eines prototypischen Frameworks, das in der Lage ist, große Mengen an Echtzeitdaten urbaner Verkehrsflüsse von EScootern (als wesentlicher Bestandteil des Shared Mobility-Sektors) systematisch zu erfassen. Basierend darauf soll eine umfassende Datenbasis erstellt werden, die für verschiedene Analysen in den Verkehrs- und Datenwissenschaften genutzt werden kann. Das Projekt dient somit als Pilot in der Sammlung, Speicherung und Analyse von Echtzeit-Verkehrsdaten - exemplarisch dargestellt auf Basis aller Standorte eines E-Scooter-Anbieters in Deutschland.
Laufzeit des Projekts:
03/2023 - 07/2024
Gefördert durch:
FOSTER – Funds for Student Research (TU Dresden)
Ansprechpartner:

Mitarbeiter/in (AgiMo)
NameHerr Sebastian Dengel M.Sc.
Eine verschlüsselte E-Mail über das SecureMail-Portal versenden (nur für TUD-externe Personen).
Professur für Big Data Analytics in Transportation
Professur für Big Data Analytics in Transportation
Besuchsadresse:
Bürozentrum Falkenbrunnen (FAL), Zimmer 012 (EG) Würzburger Str. 35
01187 Dresden
This project is funded by the DAAD funding programme for project-related personal exchange (PPP) in cooperation with Darrell Whitley's group at Colorado State University.
We aim to contribute to and ideally progress the state-of-the-art research for the traveling salesperson problem (TSP), one of the most fundamental and well-studied classes of NP-hard optimization problems (Applegate et al., 2011). Apart from the research challenges that the TSP still poses itself, it also serves as the basis for related routing problems such as the Vehicle Routing Problem (VRP) or the Traveling Thief Problem (TTP). Beyond that, it is also of great importance for numerous practical applications, such as manufacturing processes, logistics, or mobility.
Due to the long history of TSP research, there exist numerous algorithms for optimizing these problems. These are typically classified into groups: exact solvers and inexact heuristics. The former tend to be slower but guarantee the optimality of their found solution (if they terminate successfully). In contrast, the inexact TSP heuristics find the optimal tours on average much faster but cannot prove the optimality of their solution.
In recent years, both research groups involved in this project have contributed to different parts of the state of the art in solving the TSP using inexact heuristics. The U.S. partners have studied the convergence behavior of TSP algorithms (Varadarajan et al., 2020) and proposed a very powerful crossover operator that is able to efficiently recombine (locally optimal) tours to produce a less costly tour (Carvalho et al., 2019). Our group, in turn, has profound knowledge in characterizing the structures of TSP instances using measurable metrics, called features (Heins et al., 2022). Further, we have conducted extensive benchmark studies, in which we compared the performances of state-of-the-art TSP heuristics (EAX and LKH in particular) across different TSP instances, and used powerful machine learning algorithms to recommend the most promising heuristic for a given instance in an automated way based on its features (Kerschke et al., 2018).
This project will now consolidate the complementary expertise of the two international research groups and thereby (a) elucidate in detail the inner mechanics of the state-of-the-art TSP heuristics, including their numerous parameterizations, (b) improve the understanding of the interactions and effects of the configurable parameters, and (c) iteratively extend both state-of-the-art heuristics to ideally develop an even better performing (and thus resource-efficient) TSP heuristic.
References
Applegate, David L., Bixby, Robert E., Chvátal, Vašek, and Cook, William J. (2011). The Traveling Salesman Problem: A Computational Study. Princeton University Press.
de Carvalho, Ozeas Quevedo, Tinós, Renato, Whitley, Darrel, and Sanches, Danilo Sipoli (2019). A New Method for Identification of Recombining Components in the Generalized Partition Crossover. 8th Brazilian Conference on Intelligent Systems (BRACIS), pp. 36-41, IEEE.
Heins, Jonathan, Bossek, Jakob, Pohl, Janina, Seiler, Moritz, Trautmann, Heike, and Kerschke, Pascal (2022). A study on the effects of normalized TSP features for automated algorithm selection. Theoretical Computer Science, pp. 123-145, Elsevier.
Kerschke, Pascal, Kotthoff, Lars, Bossek, Jakob, Hoos, Holger H., and Trautmann, Heike (2018). Leveraging TSP Solver Complementarity through Machine Learning. Evolutionary Computation, pp. 597-620, MIT Press.
Varadarajan, Swetha, Whitley, Darrell, and Ochoa, Gabriela (2020). Why Many Travelling Salesman Problem Instances Are Easier Than You Think. Proceedings of the 2020 Genetic and Evolutionary Computation Conference (GECCO), pp. 254-262, ACM.
Laufzeit des Projektes:
01/2024 – 12/2025
Ansprechpartner:

Mitarbeiter/in
NameHerr Jonathan Heins M.Sc.
Eine verschlüsselte E-Mail über das SecureMail-Portal versenden (nur für TUD-externe Personen).
Professur für Big Data Analytics in Transportation
Professur für Big Data Analytics in Transportation
Besuchsadresse:
Bürozentrum Falkenbrunnen (FAL), Zimmer 012 (EG) Würzburger Str. 35
01187 Dresden

Mitarbeiter/in
NameHerr Lennart Schäpermeier M.Sc.
Eine verschlüsselte E-Mail über das SecureMail-Portal versenden (nur für TUD-externe Personen).
Professur für Big Data Analytics in Transportation
Professur für Big Data Analytics in Transportation
Besuchsadresse:
Bürozentrum Falkenbrunnen (FAL), Zimmer 011b (EG) Würzburger Str. 35
01187 Dresden
Sprechzeiten:
nach Vereinbarung