11.02.2025
Die Cloud schneller machen – Kick-Off für EU Horizon-Projekt

Kick-Off der Projektpartner an der Universität Kopenhagen im Februar 2025
Gemeinsam mit der Universität Kopenhagen, dem Politecnico di Milano, der Technischen Universität Darmstadt sowie den Firmen Menta SAS und Codasip GmbH startet die Professur Datenbanken der TU Dresden das Forschungsprojekt “CHORYS: Open and Programmable Accelerators for Data-intensive Applications in the Cloud”.
Ziel der Forschungskooperation ist die Entwicklung einer leistungsfähigen Hard- und Softwarearchitektur zur Optimierung datenintensiver Anwendungen in der Cloud. Der Fokus liegt dabei auf der Integration von Near-Data-Processing und asynchronen Datendiensten, um die Datenverarbeitung effizienter und ressourcenschonender zu gestalten.
Ein zentraler Innovationsaspekt von CHORYS ist die enge Verzahnung von RISC-V-basierten Prozessorerweiterungen mit spezialisierten Beschleunigern wie OpenSSD-V und OpenNIC-V. Diese ermöglichen die Verarbeitung von Datenbank- und Analyse-Workloads direkt am Ort der Datenentstehung und reduzieren so aufwändige Datenbewegungen über herkömmliche Speicher- und Netzwerkstrukturen.
Besonders hervorzuheben ist die Kombination von programmierbaren SSDs, SmartNICs und datenparallelen Verarbeitungstechniken innerhalb einer offenen Architektur. Ergänzend wird eine Bibliothek für datenintensive Muster entwickelt, die in C++ implementiert wird und sowohl auf Host- als auch auf Beschleunigerhardware ausgeführt werden kann.
Die Projektergebnisse finden Anwendung im Cloud Computing, in datenintensiven Unternehmensanwendungen, in der wissenschaftlichen Datenverarbeitung sowie in Open Source Projekten.
Die Professur Datenbanken übernimmt im Rahmen von CHORYS die Leitung des Arbeitspakets „Data-Intensive Patterns Library and APIs“. Ziel ist die Entwicklung einer einheitlichen Programmierschnittstelle, die eine effiziente Verteilung datenintensiver Algorithmen auf verschiedene Verarbeitungseinheiten durch eine flexible Zuweisung von Rechenoperationen ermöglicht - mit besonderem Fokus auf die vertikale Segmentierung von Daten zur optimierten Nutzung der verfügbaren Hardware-Ressourcen.
Ein zentraler Bestandteil dieser Forschungsarbeit ist die Weiterentwicklung der an der Professur Datenbanken entwickelten SIMD-Hardwareabstraktionsbibliothek TSL. Diese Bibliothek ermöglicht bereits heute die hardwareagnostische Ausführung von datenparallelem Code auf verschiedenen Architekturen wie x86, AArch64 und oneAPI-FPGAs. Durch die konsequente Erweiterung der TSL-Bibliothek soll die Effizienz und Portabilität datenintensiver Anwendungen weiter verbessert werden.
Das Forschungsprojekt wird von der EU über einen Zeitraum von vier Jahren mit über 4 Millionen Euro gefördert.