OP-Navigation bei Enddarmkrebs
Tumor-Operationen im Bereich des Enddarms erfolgen entlang einer millimeterdünnen Schicht, die an wichtige Nerven grenzt. Werden sie geschädigt, kann dies zu Inkontinenz und Störungen der Sexualfunktion führen. Im Dresdner „CoBot“-Projekt entwickeln Forschende ein computerbasiertes Assistenzsystem, welches das Risiko für derartige Komplikationen künftig mithilfe Künstlicher Intelligenz deutlich senken soll.
Rund 60.000 Menschen erhalten in Deutschland jedes Jahr die Diagnose Darmkrebs. Etwa ein Drittel von ihnen leidet an einem Tumor im Bereich des Enddarms. Für den Großteil der Patientinnen und Patienten ist eine Operation die wichtigste Behandlungsmöglichkeit. Durch die Enge im kleinen Becken und die räumliche Nähe von Risikostrukturen ist dieser Eingriff besonders anspruchsvoll. Für den Erfolg des Eingriffs sind wenige Millimeter entscheidend: Schneidet der Chirurg zu nah am Tumor, kann es passieren, dass er nicht alles entfernt. Schneidet er zu weit entfernt, können umliegende Nerven geschädigt werden. In der Folge leiden rund 50 Prozent der Patienten an Blasen- oder Stuhlinkontinenz und rund 30 Prozent an Erektionsproblemen oder anderen Sexualproblemen wie Missempfindungen beim Geschlechtsverkehr.
Situationsbezogene Assistenz für robotergestützte Chirurgie
In den meisten Fällen sind Eingriffe am Enddarm heutzutage ohne einen großen Bauchschnitt möglich. Neben konventionell-laparoskopischen Verfahren können robotische Operationssysteme wie der „DaVinci“ zum Einsatz kommen. Das Gerät nimmt der Chirurgin oder dem Chirurgen das direkte Halten und Bewegen der Instrumente ab und übersetzt größere Handbewegungen, die der Chirurg über zwei joystickartige Griffe ausführt, in kleinste zitterfreie Schnitte.
Während des Eingriffs erfolgt bislang keine Auswertung verfügbarer Bild- oder Sensordaten, die den Operierenden eine inhaltliche Hilfestellung geben könnte. Das wäre aber gerade bei robotischen Operationen höchst sinnvoll. Denn hier operieren die Chirurginnen und Chirurgen noch stärker als bei offenen Operationstechniken nach Augenmaß: Sie sind auf visuelle Informationen angewiesen, da in diesen Systemen kein Feedback durch den Tastsinn zur Verfügung steht.
Forschende am NCT/UCC und am EKFZ für Digitale Gesundheit entwickeln daher ein computerbasiertes Assistenzsystem für robotergestützte Eingriffe am Enddarm. Dieses soll die Operateurinnen und Operateure künftig noch stärker bei ihrer schwierigen Aufgabe unterstützen und dazu beitragen, dass die Qualität des Eingriffs weniger als bisher von der Erfahrung der einzelnen Chirurgin oder des einzelnen Chirurgen abhängt, sondern flächendeckend erhöht wird.
Darmbewegung erschwert Navigation
Eine besondere Schwierigkeit für eine computergestützte Assistenz besteht darin, dass der Darm ein weicher Schlauch ist, der sich fortwährend bewegt und während der Operation mobilisiert wird. Anders als in der Orthopädie, Neurochirurgie oder HNO-Heilkunde bieten daher vor der OP erstellte Computertomographie- oder Magnetresonanztomographie-Bilder keine geeignete Grundlage für eine verlässliche Navigation. Stattdessen muss das System während der Operation in der Lage sein, anatomische Strukturen in den Videoaufnahmen des Laparoskops zu erkennen und in Echtzeit anzuzeigen.
In der Anwendung wird die Chirurgin oder der Chirurg künftig während der Operation beim Blick auf den Monitor wie gewohnt die Kamerabilder aus dem Bauchraum der Patientin oder des Patienten sehen. Bei Bedarf soll das System in die Kamerabilder des Laparoskops weitere Informationen einblenden: etwa die Lage wichtiger Nerven oder die optimale Schnittlinie. Besonders wichtig ist hierbei, dass die richtige Information zur richtigen Zeit zur Verfügung steht. Die Operateure treffen jederzeit selbst die Entscheidungen. Das System unterstützt sie nur, ähnlich wie ein Navigationssystem im Auto.
Neuronales Netz analysiert OP-Bilder
Zur Entwicklung des Systems nutzen die Forschenden ein künstliches neuronales Netz, das als Teilgebiet der Künstlichen Intelligenz die Fähigkeit des Menschen nachahmt, anhand von Beispielen zu lernen. In einem neuronalen Netz sind zahlreiche mathematische Funktionen miteinander verknüpft, ähnlich wie Neuronen im menschlichen Gehirn. Eingehende Informationen – beispielsweise die Farbwerte von Bild-Pixeln – werden innerhalb des neuronalen Netzes verrechnet und Schritt für Schritt analysiert. Man spricht auch von verschiedenen Schichten eines neuronalen Netzes, die jeweils die Aufgabe haben, unterschiedliche Merkmale eines Bildes zu charakterisieren. Soll ein neuronales Netz beispielsweise Fahrräder in einem Bild erkennen, könnte die Aufgabe für die erste Schicht des neuronalen Netzes lauten, Linien zu identifizieren. Nur wenn ein Bild-Pixel als Teil einer Linie interpretiert wird, übersteigt das durch die zugehörige mathematische Funktion errechnete Ergebnis einen bestimmten Schwellenwert. In diesem Fall wird die mathematische Information zur Weiterbearbeitung an die nächste Schicht weitergegeben – das künstliche Neuron „feuert“. Die mathematische Aufgabenstellung in der zweiten Schicht könnte nun lauten, aus Linien Formen zu bilden und zum Beispiel Speichen zu erkennen.
Wissenschaftlerinnen und Wissenschaftler können heutzutage vielfach auf bestehende neuronale Netze zurückgreifen, die sie dann für ihre jeweilige Fragestellung anpassen. Die Dresdner Forschenden arbeiten etwa mit dem so genannten Detectron-Algorithmus, den Facebook zur Gesichtserkennung nutzt. Um das System trainieren zu können, sind große Beispiel-Datensätze nötig. Ganz praktisch werden dem System jeweils Bilder zur Analyse vorgelegt und anschließend mit den bereits vorliegenden korrekten Ergebnissen verglichen – beispielsweise die vom Computer in einem Bild erkannten Umrisse von Fahrrädern mit den von Menschen in der gleichen Abbildung markierten Fahrrädern. Dabei wird jeweils der Fehler bestimmt und die Verknüpfungen werden innerhalb des neuronalen Netzes angepasst, um immer genauere Ergebnisse zu liefern. Durch dieses Training sollen die neuronalen Netze lernen neue, unbekannte Bilder zu analysieren.
Markierte Trainingsdaten sind rar
Für einfache, von Laien markierbare Objekte wie Fahrräder oder verschiedene chirurgische Instrumente gibt es mittlerweile große frei zugängliche Datensammlungen. Ganz anders sieht es bei Bilddaten aus, zu deren Markierung medizinisches und chirurgisches Fachwissen nötig ist. Daher arbeiten im vom EKFZ für Digitale Gesundheit geförderten „CoBot“-Projekt Informatiker, Chirurgen und Ingenieure am NCT/UCC, des Universitätsklinikums Carl Gustav Carus Dresden und der Fakultät Elektro- und Informationstechnik der TU Dresden eng zusammen.
Seit 2017 werden am Uniklinikum Dresden Aufzeichnungen von DaVinci-Operationen systematisch archiviert. Rund 25.000 Einzelbilder aus 40 Rektum-Operationen haben Chirurginnen und Chirurgen sowie Medizinstudierende seit Ende 2019 mit Markierungen versehen. Auf jedem einzelnen Bild zeichneten sie mit Hilfe eines Touchscreens und eines speziellen Stifts wichtige Strukturen wie die optimale Schnittlinie und zu schonende Nerven ein. Durch das Training mit diesen und weiteren Informationen lernt der Computer, während der bis zu acht Stunden langen Operationen verschiedene Operationsphasen zu erkennen und relevante Informationen einzublenden. Die große Zahl an Trainingsdaten von unterschiedlichen Patienten ist auch deshalb nötig, damit die Erkennung relevanter Strukturen künftig bei verschiedenen Patienten funktioniert, deren anatomische Strukturen im Bauchraum jeweils nicht exakt gleich aussehen. 2022 soll das System Rahmen einer Studie bei realen Operationen getestet werden
Weitere Informationen: https://digitalhealth.tu-dresden.de/research/innovation-projects/cobot/