Digitale Medien im Einsatz für Chirurgen

Eine Gehirnoperation erfordert höchste Präzision: Soll beispielweise ein bösartiger Tumor entfernt werden, darf nach Möglichkeit nichts von ihm zurückbleiben. Häufig umschließt er jedoch wichtige Nervenstränge oder Adern, die nicht zerstört werden dürfen. Eine Art “Navi für Chirurgen” soll in Zukunft dabei helfen, jeden Schnitt exakt an der richtigen Stelle zu setzen. An einer solchen Technologie arbeiten Informatiker und Physiker der Universität Bremen zurzeit gemeinsam mit Forschern des Bremer Fraunhofer-Instituts für Bildgestützte Medizin MEVIS.

Das Team will Ergebnisse aus Voruntersuchungen (Fachjargon: “präoperative Planungsdaten”) für die Ärzte im Operationsaal besser nutzbar machen – insbesondere in Form von dreidimensionalen “Landkarten” des Körperteils, der operiert werden soll. Im Rahmen der Exzellenzinitiative der Universität Bremen erhält das Projekt eine dreijährige Förderung als Creative Unit mit dem Titel “Intra-Operative Information”.

“Unsere Ausgangsidee ist, dass Chirurgen während der Operation nicht alle Informationen haben, die sie brauchen”, erklärt Projektleiter Ron Kikinis, Informatikprofessor an der Universität Bremen und Professor für Radiologie an der Harvard Medical School in Boston sowie Institutsleiter von Fraunhofer MEVIS. Er ist ein Pionier der computergestützten Medizin und gründete bereits 1990 in Boston das “Surgical Planning Laboratory” (SPL). “In der Creative Unit gehen wir der Frage nach, wie welche Informationen zu welchem Zeitpunkt optimal als Bilddaten während der laufenden OP zur Verfügung gestellt werden können.“

Intensiver Wissensaustausch zwischen Forschern und Medizinern

Die Bremer Wissenschaftler kooperieren mit zwei erfahrenen klinischen Spezialisten: dem Leberchirurgen Professor Karl Oldhafer vom Klinikum Hamburg-Barmbek und dem Gehirnchirurgen Professor Arya Nabavi vom International Neuroscience Institute (INI) in Hannover. In beiden Kliniken haben die Informatiker, Ingenieure und Naturwissenschaftler bereits live Operationen begleitet. Später sollen Ergebnisse des dreijährigen Projekts dort auf ihre praktische Tauglichkeit hin getestet werden.
Ein Fokus liegt dabei nicht nur auf den Gehirnoperationen, sondern auch auf den ebenfalls sehr anspruchsvollen Eingriffen an der Leber. Bei diesem Organ kommt eine weitere Herausforderung noch stärker zum Tragen: Es verformt sich bei veränderter Lage stark. Der Bereich der Leber, der operiert werden soll, befindet sich also während des Eingriffs nicht zwangsläufig an genau der gleichen Stelle wie während der Voruntersuchung.
Um dennoch die exakten Positionen zu liefern, versuchen die Wissenschaftler, die Flexibilität des Organs zu simulieren. “Wir tracken, wie der dreidimensionale Körper sich deformiert”, berichtet Professor Rainer Malaka vom Technologie-Zentrum Informatik und Informationstechnik (TZI).

Hardware-Steuerung mit Gesten und Sprache

Malaka selbst bringt das Know-how im Bereich Interaktion ein. Es geht darum, die benötigten Informationen zum richtigen Zeitpunkt zur Verfügung zu stellen, ohne dass jemand den sterilen Operationssaal verlassen muss. Da eine gewöhnliche Computerausrüstung aus hygienischen Gründen nicht im OP installiert sein kann, brauchen Chirurgen laut Malaka eine neuartige Steuerung der Hardware, die außerhalb des Raumes untergebracht ist: “Die klassischen Interfaces wie Tastatur oder Maus funktionieren hier nicht.“ Denkbar sei die Bedienung mithilfe von Gesten, Sprache oder Füßen. So könnte der Chirurg sich beispielsweise durch einen Scan des Gehirns scrollen, der auf einem Bildschirm angezeigt wird.

Professor Gabriel Zachmann, der am TZI die Arbeitsgruppe Computer Graphics leitet, hat unterdessen ein Arbeitspaket für die automatische Ausleuchtung bei einer Leber-OP gestartet. “Hier steht ein Team rund um den OP-Tisch und arbeitet auch stärker gemeinsam, während bei der Gehirn-OP der Chirurg allein im Fokus steht. Mehrere Menschen sind beteiligt, bewegen sich am Tisch und verdecken so mit Händen oder anderen Körperteilen den Eingriffsbereich”, so Zachmann. Damit es nicht immer wieder Pausen gibt, in denen die OP-Lampen nachjustiert werden müssen, wird eine automatische Steuerung der Ausleuchtung entwickelt. “Wir wollen das über ein Echtzeit-Tracking der Menschen und den Einbau von Motoren in die Lampen erreichen”, erklärt Zachmann.

Weitere wissenschaftliche Partner in der Creative Unit sind die Professoren Christian Freksa, Leiter der Arbeitsgruppe Kognitive Systeme, und Matthias Guenther, MEVIS und Forschungsgruppe MR-Physik am Zentrum für Kognitionswissenschaften.

Bildgestützte Diagnose und “Serious Games” für die Therapie

Die beteiligten Einrichtungen treiben auch in verschiedenen weiteren Projekten den Einsatz von Informationstechnologie und digitalen Medien im Gesundheitswesen voran. Fraunhofer MEVIS entwickelt praxistaugliche Softwaresysteme für die bildgestützte Früherkennung, Diagnose und Therapie.

Das TZI beschäftigt sich unterdessen mit Spielen für den Einsatz in der Behandlung und Rehabilitation. Zurzeit fördert das Bundesministerium für Bildung und Forschung das Projekt “Adaptify” mit rund 1,35 Millionen Euro. Fünf Partner aus Forschung und Unternehmen entwickeln dabei Software, die durch spielerische Bewegungsprogramme die Motivation erhöht, Übungen in der Rehabilitation oder in der Physiotherapie auch alleine zuhause durchzuführen.

Solche sogenannten Serious Games passen sich individuell an die Bedürfnisse und an die Fähigkeiten des Nutzers an. Ein virtueller Therapeut unterstützt die Anleitung und gibt zudem Hinweise zur Verbesserung. Die Nutzer können selbst die Intensität der Übung bestimmen. Eine neuartige Sensormatte erfasst die Bewegungen und gibt präzise Rückmeldungen zur Qualität der Durchführung der Übungen.

Die Projektpartner sind – neben dem TZI – die Delmenhorster Physiotherapiepraxis Rehamed mit dem PhysioNetzwerk, die Online-Agentur HFC inter.net aus Cloppenburg, vacances, mobiler Sozial- und Pflegedienst Bremen und das Bremer Institut für IT-, Medien- und Immaterialgüterrecht.

Weitere Informationen sind hier erhältlich.