Forschungsprojekte
ARAILIS
Im Bereich der laparoskopischen, d.h. minimalinvasiven Chirurgie sind derzeit diese Bilddaten allerdings nur ungenügend in den OP-Vorgang integriert: Dem Chirurgen kann auf einem Bildschirm ein manuell gewählter Ausschnitt eines Bildes angezeigt werden. Die Informationen aus dieser Abbildung müssen kontinuierlich und allein mit Hilfe der räumlichen Vorstellungskraft auf den Patienten bzw. die OP-Situation übertragen und interpretiert werden.
Zwar ermöglichen diese minimalinvasive Eingriffe, viele Vorteile für den Patienten (geringeres Infektionsrisiko, kürzere Krankenhausaufenthalt, kleinere Narben) verschärfen aber die bereits oben genannten Herausforderungen für den Chirurgen durch kleine Kameraausschnitte, eingeschränktes Tiefensehen, erschwerte Hand-Auge-Koordination und ein reduziertes Tastvermögen.
Die daraus resultieren folgende Probleme sind:
- Die Anlernzeiten für neue Chirurgen verlängern sich aufgrund der gestiegenen Anforderungen
- Die OP-Zeiten verlängern sich durch den manuellen Abgleich der präoperativen Daten mit den der aktuellen OP-Situation
- Die Arbeitsbelastung der Chirurgen ist erhöht, was zu kürzeren produktiven Phasen und höheren Fehlerraten führt
Die Zielstellung des ARAILIS-Projekts ist daher einen innovativen computerunterstützte Ansatz für die Chirurgie mittels erweiterter Realität und Künstlicher Intelligenz zu entwickeln. Die Chirurgen sollen bei der Entscheidungsfindung unterstützt, die Wahrscheinlichkeit für Komplikationen bei Eingriffen reduziert, der Nachsorgeaufwand verringert und damit insgesamt die Patientensicherheit erhöht werden. Ein sog. "Connected Assistent" soll während der OP die bereits existierenden Aufnahmen mit der Live-Kamerasicht verschmelzen.
Das zu entwickelnde ARAILIS-System wird:
- wichtige und verdeckte Gewebestrukturen und Zielregionen finden und darstellen, wobei die individuelle Anatomie des Patienten und die Beschaffenheit der Ziele (in der Regel Tumore) berücksichtigt werden
- eine „Live-Sicht“ ermöglichen, die Strukturen innerhalb oder hinter Organen visualisiert
- Navigation und Orientierung der OP-Kameras und Werkzeuge bieten
- minimalinvasive OPs auch bei schwierigen Eingriffen ermöglichen, die bisher offen durchgeführt werden müssen
- das Verschmelzen verschiedener Systeme (Bild- und Videoquellen, Navigationssensoren, Ultraschall, ...) ermöglichen und für die Chirurgen gleichzeitig nutzbar machen
- Gefördert von: TG70/SAB
- Fördernummer: 100400076
- Kontaktperson: Karsten Wendt
- Projektlaufzeit: 02/2020 bis 12/2022