Robotergestützte Chirurgie
Im Operationssaal der Zukunft werden computerbasierte Assistenzsysteme eine deutlich größere Rolle spielen als heute. Sie sollen Arbeitsabläufe einfacher und sicherer machen. Wissenschaftler am NCT/UCC, CeTI und EKFZ für Digitale Gesundheit entwickeln entsprechende Systeme mithilfe neuer Sensortechnologien, Künstlicher Intelligenz und Mensch-Maschine-Interaktion.
Um sinnvolle Unterstützungsfunktionen für Chirurginnen und Chirurgen liefern zu können, muss der Computer in der Lage sein, wichtige Ereignisse im OP zu antizipieren und zur richtigen Zeit die richtige Information bereit zu stellen. Dresdner Wissenschaftlerinnen und Wissenschaftler haben beispielsweise ein System entwickelt, das die Nutzung bestimmter chirurgischer Instrumente vorhersehen kann. Dies ist eine Voraussetzung, damit autonome Robotersysteme einfache Teilaufgaben im OP wie das Absaugen von Blut übernehmen können.
Zur Entwicklung des Systems nutzten die Forschenden ein künstliches neuronales Netz. Leistungen künstlicher neuronaler Netze zählen heute in vielen Bereichen unseres Lebens schon selbstverständlich zu unserem Alltag, beispielsweise bei Produktempfehlungen auf Online-Verkaufsplattformen oder automatischer Bilderkennung auf Social Media. Die Netze sind in der Lage, Informationen aus Bilddaten zu extrahieren. Durch das Training mit großen Bild- oder Videomengen lernen sie, Muster in Bildern zu erkennen, um eine vorgegebene Aufgabe zu lösen.
Für die Entwicklung intelligenter Assistenzsysteme sind oft vielfältige Daten nötig, die in einem vernetzten Operationssaal – wie er im NCT/UCC-Neubau für Forschungszwecke zur Verfügung steht – gewonnen und bereitgestellt werden können. Hier erfassen Sensoren und Geräte kontinuierlich den Behandlungsverlauf. Zudem sind eine Vielzahl von Informationsquellen verknüpft – Planungsdaten, während der Operation erzeugte Bilder oder Informationen über den Patienten und aktuelle Vorgänge im OP.
Die Forschenden nutzen die Daten beispielsweise, um Navigationssysteme für Weichgewebe im Bauchraum zu entwickeln. Während einer Operation können die Organe ihre Oberfläche durch Atmung, Herzschlag oder die Berührung mit Instrumenten verändern. Diese Abweichungen gilt es in Echtzeit zu analysieren und abzubilden. Die entwickelten Programme müssen daher in der Lage sein, aus verschiedenen prä- und intraoperativ gewonnenen Daten sowie biomechanischen Modellen Oberflächenveränderungen unmittelbar zu berechnen.
Intelligente Systeme sollen das OP-Team bei Schlüssellochoperationen künftig auch durch eine roboterassistierte Führung der Operations-Kamera (Endoskop bzw. Laparoskop) entlasten. Darüber hinaus könnten sie vor kritischen Situationen warnen und beispielsweise frühzeitig mitteilen, dass weitere Blutkonserven benötigt werden. Mittels maschineller Lernverfahren sollen computergestützte Assistenzsysteme zudem kontinuierlich von den besten Chirurginnen und Chirurgen lernen. Dies könnte deren Expertise für alle Operierenden im Klinikalltag verfügbar machen.