DE10000937B4 - Intraoperative Navigationsaktualisierung - Google Patents

Intraoperative Navigationsaktualisierung Download PDF

Info

Publication number
DE10000937B4
DE10000937B4 DE10000937A DE10000937A DE10000937B4 DE 10000937 B4 DE10000937 B4 DE 10000937B4 DE 10000937 A DE10000937 A DE 10000937A DE 10000937 A DE10000937 A DE 10000937A DE 10000937 B4 DE10000937 B4 DE 10000937B4
Authority
DE
Germany
Prior art keywords
record
navigation system
patient
current
transformation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE10000937A
Other languages
English (en)
Other versions
DE10000937A1 (de
Inventor
Stefan Vilsmeier
Akos Dombay
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brainlab AG
Original Assignee
Brainlab AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brainlab AG filed Critical Brainlab AG
Priority to DE10000937A priority Critical patent/DE10000937B4/de
Priority to US09/756,582 priority patent/US6609022B2/en
Publication of DE10000937A1 publication Critical patent/DE10000937A1/de
Application granted granted Critical
Publication of DE10000937B4 publication Critical patent/DE10000937B4/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/374NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • A61B2090/3945Active visible markers, e.g. light emitting diodes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3954Markers, e.g. radio-opaque or breast lesions markers magnetic, e.g. NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/397Markers, e.g. radio-opaque or breast lesions markers electromagnetic other than visible, e.g. microwave
    • A61B2090/3975Markers, e.g. radio-opaque or breast lesions markers electromagnetic other than visible, e.g. microwave active
    • A61B2090/3979Markers, e.g. radio-opaque or breast lesions markers electromagnetic other than visible, e.g. microwave active infrared
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis

Abstract

Verfahren zur intraoperativen Navigationsaktualisierung, bei dem ein Patientendatensatz eines Patienten durch ein bildgebendes Verfahren vorliegt, mittels eines Navigationssystems, das die Positionen des Patienten, seiner Körperteile und des Behandlungsziels und der Behandlungseinrichtungen erfasst und verfolgt, bei dem automatisch oder auf Anforderung ein weiterer oder mehrere weitere aktuelle Patientendatensätze durch ein bildgebendes Verfahren erstellt werden, und bei dem jeder aktuelle Datensatz der Lage nach computerunterstützt in das Navigationssystem eingeordnet wird, welcher mindestens eine aktuelle Datensatz mittels einer computergestützten automatischen dreidimensionalen Bildfusion positionell dem zu aktualisierenden Datensatz zugeordnet wird, bei welchem Verfahren aus er errechneten Lageverschiebung die Referenzierung des mindestens einen aktuellen Datensatzes im Navigationssystem erfolgt, und wobei die Bildfusion eines oder mehrere der folgenden Merkmale aufweist:
– sie basiert auf einer starren Transformation;
– sie basiert auf einem Suchraum, der aus allen starren Transformationen (Rotation, Translation) zwischen den Datensätzen besteht;
– es wird diejenige Transformation im Suchraum gesucht, welche...

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zur Unterstützung der Behandlung eines Patienten mittels eines Navigationssystems. Solche Navigationssysteme erfassen und verfolgen die Positionen von Patienten, Patientenkörperteilen und Behandlungszielen sowie von Behandlungseinrichtungen und liefern dem behandelnden Arzt in vielen Fällen Bilder auf einem Monitor, die ihn bei der Behandlung unterstützen.
  • Probleme treten hier im Verlaufe einer Behandlung dann auf, wenn das Gewebe während der Behandlung Verschiebungen unterliegt, wie dies beispielsweise durch einen Flüssigkeitsablauf oder durch Gewebeentnahmen geschehen kann. Wenn diese Situation eintritt, also eine Verschiebung des Behandlungszieles oder des umliegenden Gewebes zusammen mit dem Behandlungsziel erfolgt ist, wird die unterstützende Navigation ungenau, was dazu führt, dass der behandelnde Arzt wieder vollständig auf seine eigenen Beobachtungen angewiesen ist oder, falls er die Verschiebung nicht bemerkt, möglicherweise Eingriffe an falschen Stellen durchführt.
  • Aus der DE 198 46 687 A1 sind eine Vorrichtung zum Ausführen von medizinischen Eingriffen und ein Verfahren zum Erzeugen eines Bildes bekannt. Hier wird grundsätzlich die Möglichkeit angesprochen, präoperativ gewonnene erste Bilddaten mittels intraoperativ gewonnener zweiter Bilddaten zu aktualisieren. Die notwendige Navigation soll durch eine Eicheinrichtung, nämlich einen stereotaktischen Rahmen zur Verfügung gestellt werden, damit ein gemeinsamer Bezugspunkt für die ersten und zweiten Bilddaten hergestellt werden kann.
  • Die WO 98/38 908 A1 offenbart eine Vorrichtung und ein Verfahren zur Bilderzeugung, um ein Echtzeitbild eines Objektes, welches durch eine Modalität erhalten wurde, in einer solchen Weise darzustellen, dass das Bild einer Sichtlinie entspricht, die durch eine andere Modalität (Bilderzeugungsmodalität) aufgebaut wird. Es wird ein Marker-Tracking durchgeführt und die Verwendung von Stereo-Kamerasystemen und optischen Lokalisierungsvorrichtungen wird vorgeschlagen. Mehrere Bilder, ein Ausgangsbild und Folgebilder miteinander verarbeitet.
  • Es ist die Aufgabe der vorliegenden Erfindung, dem behandelnden Arzt ein Mittel zur Verfügung zu stellen, das es ihm gestattet, auch nach Gewebeverschiebungen während eines Eingriffes noch mit Hilfe eines Navigationssystems exakt zu navigieren, wobei die Bildverarbeitung optimiert wird.
  • Diese Aufgabe wird erfindungsgemäß durch ein Verfahren gemäß dem Anspruch 1 gelöst. Vorteilhafte Ausführungsformen des erfindungsgemäßen Verfahrens sind in den Unteransprüchen beschrieben.
  • Die Vorteile des erfindungsgemäßen Verfahrens beruhen unter anderem darauf, dass automatisch oder auf Anforderung zusätzlich zu dem Datensatz, den das Navigationssystem bis zu diesem Zeitpunkt verwendet hat, ein weiterer oder mehrere weitere aktuelle Patientendatensätze durch ein bildgebendes Verfahren erstellt werden und jeder aktuelle Datensatz computergestützt in das Navigationssystem eingeordnet wird. Dadurch wird nicht nur sichergestellt, dass zu einem bestimmten Zeitpunkt ein neuer und aktueller Datensatz zur Verfügung steht, der die genannten Gewebeverschiebungen und – veränderungen erfasst hat, sondern es wird gleichzeitig eine Verknüpfung des aktuellen Datensatzes bzw. eine Einordnung des neuen Datensatzes in das Navigationssystem durchgeführt, so dass der behandelnde Arzt schnell und mit exakt eingebundener und aktueller Navigationsunterstützung weiterarbeiten kann. Fehlbehandlungen werden vermieden und der behandelnde Arzt ist nach großen Gewebsentnahmen oder starkem Flüssigkeitsablauf nicht mehr lediglich auf seine optische Wahrnehmung angewiesen.
  • Gemäß dem erfindungsgemäßen Verfahren erfolgt die Einordnung des neuen Datensatzes in das Navigationssystem dadurch, dass der aktuelle Datensatz mittels einer computergestützten, automatischen, dreidimensionalen Bildfusion positionell dem zu aktualisierenden Datensatz zugeordnet wird, wobei aus der errechneten Lageverschiebung die Referenzierung des aktuellen Datensatzes im Navigationssystem erfolgt. Die beiden Datensätze, also der im Navigationssystem schon vorhandene Datensatz und der aktuelle Datensatz aus der bildgebenden Vorrichtung, die jeweils dreidimensionale Bildinformationen liefern, können mit Hilfe einer Bildfusion, einer sogenannten Image-Fusion, mit einem hierfür geeigneten Computerprogramm zur Deckung gebracht werden. Wenn dies mit ausreichender Übereinstimmung erzielt wurde, lässt sich auf diejenige Transformation zurückschließen, die von dem zu aktualisierenden Datensatz zu dem aktuellen Datensatz führt, und mit Hilfe dieser Transformation kann dann das Neuronavigationssystem neu und auf den aktuellen Zustand und die aktuelle Positionierung des zu behandelnden Gewebes eingerichtet werden. Besonders vorteilhaft ist dieses Verfahren, weil keine zusätzlichen Einrichtungen benötigt werden; die Aktualisierung kann auf Anforderung, z. B. auf Knopfdruck erfolgen. Ebenso lässt sich die oben beschriebene Image Fusion natürlich auch vollautomatisch starten, so dass keinerlei Benutzeraktionen erforderlich sind.
  • Bei dem erfindungsgemäßen Verfahren weist die Bildfusion eines oder mehrere der folgenden Merkmale auf:
    • – sie basiert auf einer starren Transformation;
    • – sie basiert auf einem Suchraum, der aus allen starren Transformationen (Rotation, Translation) zwischen den Datensätzen besteht;
    • – es wird diejenige Transformation im Suchraum gesucht, welche die Datensätze in Übereinstimmung bringt;
    • – die Qualität der Transformationen wird gemessen an einem Übereinstimmungskriterium, das errechnet wird anhand der Intensitäts-Korrelation einer großen Anzahl von entsprechenden Bildpunkten in beiden Datensätzen;
    • – die Bestimmung der passenden Transformation erfolgt durch Lösung eines Optimierungsproblems, bei dem ein Transformations-Parametersatz gesucht wird, für den das Übereinstimmungskriterium ein Maximum erreicht;
    • – die Bestimmung der passenden Transformation erfolgt schrittweise unter Verwendung von immer mehr Bildinformationen in den späteren Schritten, zur iterativen Verbesserung der Übereinstimmung;
    • – es werden möglichst wenige Bestimmungen des Übereinstimmungskriteriums durchgeführt.
  • Der weitere Patientendatensatz oder die weiteren Patientendatensätze können durch verschiedene Verfahren während der Operation erstellt werden. Insbesondere kommen hierbei die Kernspintomographie (Magnetic Resonance; MR), die Computertomographie oder SPECT- bzw. PET-Verfahren in Frage.
  • Bei einer ersten speziellen Ausführungsform des erfindungsgemäßen Verfahrens wird beim Erstellen des aktuellen Datensatzes am Patienten oder in der Umgebung des Behandlungszieles eine Referenzstruktur angeordnet, die Markierungen aufweist, welche im Navigationssystem erfassbar sind, sowie solche, die durch das bildgebende Verfahren erfassbar sind, wobei aus den Zuordnungen der Daten für die Markierungen eine positionelle Einordnung des aktuellen Datensatzes in das Navigationssystem folgt. Gemäß einer anderen, aber ähnlichen Ausführungsform weist die Referenzstruktur Markierungen auf, welche sowohl im Navigationssysteme als auch durch das bildgebende Verfahren erfassbar sind.
  • Die Referenzstruktur bildet demgemäß mit ihren Markierungen die Schnittstelle für die Einordnung des aktuellen Datensatzes in das Navigationssystem. Ihre Lage ist dem Navigationssystem durch die Positionserfassung der Navigationssystem-Marker bekannt und außerdem ist ihre Lage im neu erstellten Datensatz bekannt, da auch hier Marker an der Referenzstruktur erfasst werden. Ebenso kennt das Bildgebungssystem auch die Lage der Bildpunkte und kann die Abweichungen zwischen den einzelnen Patientendatensätzen (hervorgerufen durch Unterschiede in der Patientenpositionierung) ermitteln ausgleichen bzw. an das Navigationssystem weiterleiten. Somit erfolgt eine automatische Referenzierung jedes Folgedatensatzes, d. h. nur der erste Datensatz muss lokalisiert/referenziert werden. Voraussetzung hierfür ist eine feste Fixierung des Patienten, z. B. durch eine rigide Kopfhalterung.
  • Bei dem oben angesprochenen Verfahren besteht die Möglichkeit, so vorzugehen, dass sich die Bildfusion zumindest teilweise lediglich auf diejenigen Datensatzelemente aus dem aktuellen und dem zu aktualisierenden Datensatz stützt, die keine oder nur eine begrenzte Verformung des erfassten Körperteils wiedergeben. Diese Option ist insbesondere zur Abkürzung von Rechenzeiten und zur Vermeidung von größeren Fehlern nützlich, wenn starre Transformationen, wie sie im Weiteren noch beschrieben werden, keine gültigen Ergebnisse mehr liefern können.
  • Ein automatisches Bildfusionsmodul kann verwendet werden, um dreidimensionale medizinische Datensätze in Übereinstimmung zu bringen. Es arbeitet mit verschiedenen Verfahren (CT, MR, PET, SPECT ...), und zwar unabhängig von der Scan-Richtung der jeweiligen Bilddatensätze. Die Bilddatensätze können Teil-Datensätze sein, wenn die Überlappungsregion ausreichend groß ist. Im Detail:
    Die automatische Bildfusion errechnet eine starre Transformation von einem Bilddatensatz auf einen anderen, mit der die Bilddatensätze in Übereinstimmung gebracht werden. Insbesondere eignet sie sich zur Fusion von Bildern desselben Patienten.
  • Etwaige Verzerrungen in MR (Kernspintomographie)-Bildern sind unkritisch, da sie hauptsächlich in den äußeren Regionen der Bilder auftreten. Die automatische Bildfusion basiert nämlich auf den unverzerrten Zentralregionen.
  • Die Bildfusion basiert, wie erwähnt, auf einem Suchraum, der aus allen starren Transformationen eines Bilddatensatzes in Relation zum anderen besteht. Jede starre Transformation wird durch ihren Grad an Translation und Rotation beschrieben. Die Aufgabe der automatischen Bildfusion ist es, diejenige Transformation im Suchraum aufzufinden, welche die Bilddatensätze in Übereinstimmung bringt.
  • Die automatische Bildfusion verwendet ein Übereinstimmungskriterium, um die Qualität einer speziellen Translation und Rotation zu bewerten. Dieses Kriterium arbeitet für beliebige statistische Beziehungen der Bildintensitäten (derselbe Gewebetyp kann in einem Bilddatensatz gegenüber einem anderen Datensatz stark unterschiedliche Intensitäten aufweisen).
  • Das Übereinstimmungskriterium wird dadurch errechnet, dass die Intensitätswerte einer großen Anzahl von Bildpunkten ermittelt und mit den entsprechenden Punkten im anderen Bilddatensatz verglichen werden.
  • Die Bestimmung der passenden Transformation kann als Optimierungsproblem wie folgt formuliert werden: Finde einen Satz Transformations-Parameter, bei dem das Übereinstimmungskriterium ein Maximum erreicht.
  • Der Algorithmus läuft in verschiedenen Schritten ab. Jeder Schritt verwendet feinere Details für die Berechnung des Übereinstimmungskriteriums als der Vorgehende. Der erste Schritt verwendet wenige Bildinformationen, was die Optimierung schnell und robust macht. Die nächsten Schritte verbessern die Übereinstimmung iterativ, wobei sie mehr und mehr Bildinformationen verarbeiten.
  • Der Optimierungsalgorithmus, der verwendet wird, um den Maximalwert für das Übereinstimmungskriterium und die zugehörigen Transformations-Parameter zu finden, ist sehr hoch entwickelt. Da eine Bewertung des Übereinstimmungskriteriums sehr zeitaufwändig ist, kann eine Suchstrategie implementiert werden, welche so wenige Bewertungen wie möglich verwendet.
  • Eine weitere spezielle Ausführungsform des erfindungsgemäßen Verfahrens wird im folgenden beschrieben. Eine Vorrichtung zur Durchführung des bildgebenden Verfahrens wird bei dieser Ausführungsform während der Erfassung des aktuellen Datensatzes durch an ihr angebrachte Markierungen, die vom Navigationssystem erfasst werden, durch dieses Navigationssystem referenziert und die Lage des aktuellen Datensatzes wird dadurch eingeordnet. Dieses Verfahren ähnelt der zuerst beschriebenen Ausführungsform, wobei die Markierungen jedoch nicht am Patienten oder in dessen Nähe angebracht werden, sondern direkt an der Vorrichtung zur Durchführung des bildgebenden Verfahrens, also beispielsweise direkt an ein mobiles Kernspintomographiegerät, das zur Datensatzaktualisierung in den Operationsraum eingebracht wird.
  • Kurz gesagt wird bei dieser Ausführungsform dem Navigationssystem durch die Markierungen mitgeteilt, wo die Vorrichtung zur Durchführung des bildgebenden Verfahrens zu dem Zeitpunkt im Raum angeordnet ist, an dem sie die neuen Bilder erstellt, und damit kann auch auf die Position der neuen Bilder selbst zurückgerechnet werden.
  • Manchmal kann eine solche Positionsbestimmung schwierig werden, und zwar in dem Fall, wo die Stelle im Raum, an der das neue Bild gerade erstellt wird, schon in Relation gegenüber der Vorrichtung zur Durchführung des bildgebenden Verfahrens nicht genau bekannt ist. Jedoch lassen sich diese Relativpositionen dann empirisch ermitteln und gemäß einer weiteren Ausführungsform der vorliegenden Erfindung kann somit eine spezielle vorgegebene Koordinatenermittlung vorgenommen werden, bei der die Relativposition des aktuellen Datensatzes gegenüber der Vorrichtung zur Durchführung des bildgebenden Verfahrens bestimmt wird.
  • Die Erfindung wird im Weiteren anhand eines Ausführungsbeispiels näher erläutert.
  • In der beiliegenden Figur ist eine Referenzstruktur dargestellt, wie sie zur positionellen Einordnung eines aktualisierten Datensatzes in ein Navigationssystem verwendet werden kann. Die Referenzstruktur ist insgesamt mit 10 bezeichnet. Sie weist einen Trägerring 8 mit Armen 6 auf. An dem Trägerring 8 sind Markierungen angebracht, beispielsweise die Infrarot-reflektierenden Markierungen (IR-Marker) 2 sowie Halter 4 für nicht dargestellte MR-Marker, die in einem Kernspintomographiebild sichtbar sind. Diese Halter befinden sich auf der Oberseite und auf der Unterseite des Rings 8. In sie können kugelförmige MR-Marker eingesetzt werden. Es ist anzunehmen, dass im Rahmen der vorliegenden Erfindung alle möglichen Trackingsysteme eingesetzt werden können, also z. B. auch solche mit aktiv strahlenden Markern, magnetische oder ultraschallbasierende Systeme. Ebenso sind MR-sichtbare Marker anderer Gestalt verwendbar, z. B. flache oder eckige Marker.
  • Die Verwendung dieser Referenzstruktur wird nun im Rahmen der Erläuterung eines Behandlungsablaufes näher erörtert, bei dem die erfindungsgemäße Navigationsaktualisierung zum Einsatz kommt.
  • Zunächst wird von einem Patienten ein diagnostischer Bilddatensatz erstellt, beispielsweise ein Computertomographie-Datensatz. Hierauf erfolgt die Überstellung des Patienten in den Operationsraum und hier kann vorab nochmals über bekannte Nachjustierungsverfahren eine Anpassung des ersten Datensatzes stattfinden, um so einen korrekt referenzierten Ausgangsdatensatz für die Navigation zur Verfügung zu stellen.
  • Nun erfolgt die bildgeführte Operation durch den behandelnden Chirurgen mit Hilfe des Navigationssystems. Falls der Chirurg während der Operation feststellt, dass eine große Menge an Gewebsflüssigkeit abgelaufen ist oder schon soviel Gewebe entnommen worden ist, dass durch die Gewebsverschiebung Unstimmigkeiten im Navigationssystem auftreten, kann er die intraoperative Navigationsaktualisierung gemäß der vorliegenden Erfindung einleiten. Hierzu wird der Patient mit sterilen Tüchern abgedeckt. Wenn die Operation im Kopfbereich stattfindet, kann dann dem Patienten eine sterilisierte Referenzstruktur 10 beispielsweise auf das Gesicht gelegt werden, und die Erstellung des aktuellen Datensatzes wird eingeleitet. Hierzu wird zum Beispiel ein fahrbares Kernspintomographiegerät in den Operationssaal und an den Kopf des Patienten gefahren. Dabei sollten alle nicht MR-kompatiblen Behandlungseinrichtungen, Instrumentenschalen und andere Ausrüstungsgegenstände wie zum Beispiel ein chirurgisches Mikroskop in einen sicheren Abstand gebracht werden.
  • Bei dem intraoperativen MR-Scan werden die IR-Marker 2 und die MR-Marker in den Haltern 4 mitgescannt bzw. vom Navigationssystem erfasst, und mit der Referenzstruktur als Schnittstelle zwischen den beiden Erfassungssystemen kann eine positionelle Einordnung der neuen aktualisierten Bilddaten in dem Navigationssystem computergestützt erfolgen. Nach dem MR-Scan hat demnach das Navigationssystem aktualisierte Daten zur Verfügung, und der Chirurg kann nach dem Abnehmen der Referenzstruktur vom Patienten unter Entfernung der sterilen Tücher wieder mit einer exakten Bildunterstützung arbeiten.
  • Da der MR-Scanner bewegt wird und der Patient in seiner Stellung verbleibt, wird die Operation nur für einige Minuten unterbrochen.
  • Hiernach besteht noch die Möglichkeit, zu Überprüfungszwecken einen postoperativen Datensatz zu erstellen. Hierzu wird der MR-Scanner wieder in den Operationsraum gebracht, während der Patient noch anästhesiert und intubiert ist. Der dabei nochmals erstellte Datensatz wird bildlich dargestellt und kann durch das Behandlungsteam sofort überprüft werden. Diese letzte Überprüfung hilft wesentlich dabei, eine vollständige Tumorresektion zu bestätigen und akute Komplikationen auszuschließen, wodurch das Risiko, eine nochmalige Operation durchführen zu müssen, falls der Tumor wieder anwächst, merklich verringert wird. Hierdurch können ferner Kosten für wiederholte Operationen eingespart werden.

Claims (7)

  1. Verfahren zur intraoperativen Navigationsaktualisierung, bei dem ein Patientendatensatz eines Patienten durch ein bildgebendes Verfahren vorliegt, mittels eines Navigationssystems, das die Positionen des Patienten, seiner Körperteile und des Behandlungsziels und der Behandlungseinrichtungen erfasst und verfolgt, bei dem automatisch oder auf Anforderung ein weiterer oder mehrere weitere aktuelle Patientendatensätze durch ein bildgebendes Verfahren erstellt werden, und bei dem jeder aktuelle Datensatz der Lage nach computerunterstützt in das Navigationssystem eingeordnet wird, welcher mindestens eine aktuelle Datensatz mittels einer computergestützten automatischen dreidimensionalen Bildfusion positionell dem zu aktualisierenden Datensatz zugeordnet wird, bei welchem Verfahren aus er errechneten Lageverschiebung die Referenzierung des mindestens einen aktuellen Datensatzes im Navigationssystem erfolgt, und wobei die Bildfusion eines oder mehrere der folgenden Merkmale aufweist: – sie basiert auf einer starren Transformation; – sie basiert auf einem Suchraum, der aus allen starren Transformationen (Rotation, Translation) zwischen den Datensätzen besteht; – es wird diejenige Transformation im Suchraum gesucht, welche die Datensätze in Übereinstimmung bringt; – die Qualität der Transformationen wird gemessen an einem Übereinstimmungskriterium, das errechnet wird anhand der Intensitäts-Korrelation einer großen Anzahl von entsprechenden Bildpunkten in beiden Datensätzen; – die Bestimmung der passenden Transformation erfolgt durch Lösung eines Optimierungsproblems, bei dem ein Transformations-Parametersatz gesucht wird, für den das Übereinstimmungskriterium ein Maximum erreicht; – die Bestimmung der passenden Transformation erfolgt schrittweise unter Verwendung von immer mehr Bildinformationen in den späteren Schritten, zur iterativen Verbesserung der Übereinstimmung; – es werden möglichst wenige Bestimmungen des Übereinstimmungskriteriums durchgeführt.
  2. Verfahren nach Anspruch 1, bei dem der weitere Patientendatensatz oder die weiteren Patientendatensätze mittels einer Kernspintomographie (MR), einer Computertomographie (CT), oder eines SPECT- bzw. PET- Verfahrens erstellt werden.
  3. Verfahren nach Anspruch 1 oder 2, bei dem beim Erstellen des mindestens einen aktuellen Datensatzes am Patienten oder in der Umgebung des Behandlungsziels eine Referenzstruktur (10) angeordnet wird, die Markierungen (2, 4) aufweist, welche im Navigationssystem erfassbar sind wie solche, die durch das bildgebende Verfahren erfassbar sind, bei welchem Verfahren aus den Zuordungen der Daten für die Markierungen (2, 4) eine positionelle Einordnung des mindestens einen aktuellen Datensatzes in das Navigationssystem erfolgt.
  4. Verfahren nach Anspruch 1 oder 2, bei dem beim Erstellen des mindestens einen aktuellen Datensatzes am Patienten oder in der Umgebung des Behandlungsziels eine Referenzstruktur (10) angeordnet wird, die Markierungen (2, 4) aufweist, welche im Navigationssystem sowie durch das bildgebende Verfahren erfassbar sind, bei welchem Verfahren aus den Zuordnungen der Daten für die Markierungen (2, 4) eine positionelle Einordnung des mindestens einen aktuellen Datensatzes in das Navigationssystem erfolgt.
  5. Verfahren nach Anspruch 1 oder 2, bei de die Bildfusion sich lediglich auf diejenigen Datensatzelemente aus dem mindestens einen aktuellen dem zu aktualisierenden Datensatz stützt, die keine oder nur eine begrenzte Verformung des erfassten Körperteils wiedergeben.
  6. Verfahren nach Anspruch 1 oder 2, bei dem eine Vorrichtung, zur Durchführung des bildgebenden Verfahrens während der Erfassung des mindestens einen aktuellen Datensatzes durch an ihr angebrachte Markierungen, die im Navigationssystem erfasst werden, durch das Navigationssystem referenziert und die Lage des mindestens einen aktuellen Datensatzes dadurch bestimmt wird.
  7. Verfahren nach Anspruch 6, bei dem die Relativposition des mindestens einen aktuellen Datensatzes gegenüber der Vorrichtung zur Durchführung des bildgebenden Verfahrens durch eine spezielle, vorgegebene Koordinatenermittlung bestimmt wird.
DE10000937A 2000-01-12 2000-01-12 Intraoperative Navigationsaktualisierung Expired - Lifetime DE10000937B4 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE10000937A DE10000937B4 (de) 2000-01-12 2000-01-12 Intraoperative Navigationsaktualisierung
US09/756,582 US6609022B2 (en) 2000-01-12 2001-01-08 Intraoperative navigation updating

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10000937A DE10000937B4 (de) 2000-01-12 2000-01-12 Intraoperative Navigationsaktualisierung

Publications (2)

Publication Number Publication Date
DE10000937A1 DE10000937A1 (de) 2001-08-09
DE10000937B4 true DE10000937B4 (de) 2006-02-23

Family

ID=7627258

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10000937A Expired - Lifetime DE10000937B4 (de) 2000-01-12 2000-01-12 Intraoperative Navigationsaktualisierung

Country Status (2)

Country Link
US (1) US6609022B2 (de)
DE (1) DE10000937B4 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7853307B2 (en) 2003-08-11 2010-12-14 Veran Medical Technologies, Inc. Methods, apparatuses, and systems useful in conducting image guided interventions
US7920909B2 (en) 2005-09-13 2011-04-05 Veran Medical Technologies, Inc. Apparatus and method for automatic image guided accuracy verification
US8150495B2 (en) 2003-08-11 2012-04-03 Veran Medical Technologies, Inc. Bodily sealants and methods and apparatus for image-guided delivery of same
US8781186B2 (en) 2010-05-04 2014-07-15 Pathfinder Therapeutics, Inc. System and method for abdominal surface matching using pseudo-features
US9138165B2 (en) 2012-02-22 2015-09-22 Veran Medical Technologies, Inc. Systems, methods and devices for forming respiratory-gated point cloud for four dimensional soft tissue navigation

Families Citing this family (116)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2652928B1 (fr) 1989-10-05 1994-07-29 Diadix Sa Systeme interactif d'intervention locale a l'interieur d'une zone d'une structure non homogene.
US5913820A (en) 1992-08-14 1999-06-22 British Telecommunications Public Limited Company Position location system
US5803089A (en) 1994-09-15 1998-09-08 Visualization Technology, Inc. Position tracking and imaging system for use in medical applications
US6226548B1 (en) 1997-09-24 2001-05-01 Surgical Navigation Technologies, Inc. Percutaneous registration apparatus and method for use in computer-assisted surgical navigation
US6021343A (en) 1997-11-20 2000-02-01 Surgical Navigation Technologies Image guided awl/tap/screwdriver
US6348058B1 (en) 1997-12-12 2002-02-19 Surgical Navigation Technologies, Inc. Image guided spinal surgery guide, system, and method for use thereof
US6477400B1 (en) 1998-08-20 2002-11-05 Sofamor Danek Holdings, Inc. Fluoroscopic image guided orthopaedic surgery system with intraoperative registration
US6470207B1 (en) 1999-03-23 2002-10-22 Surgical Navigation Technologies, Inc. Navigational guidance via computer-assisted fluoroscopic imaging
US6491699B1 (en) 1999-04-20 2002-12-10 Surgical Navigation Technologies, Inc. Instrument guidance method and system for image guided surgery
US6381485B1 (en) 1999-10-28 2002-04-30 Surgical Navigation Technologies, Inc. Registration of human anatomy integrated for electromagnetic localization
US8239001B2 (en) 2003-10-17 2012-08-07 Medtronic Navigation, Inc. Method and apparatus for surgical navigation
US6474341B1 (en) 1999-10-28 2002-11-05 Surgical Navigation Technologies, Inc. Surgical communication and power system
US6493573B1 (en) 1999-10-28 2002-12-10 Winchester Development Associates Method and system for navigating a catheter probe in the presence of field-influencing objects
US8644907B2 (en) 1999-10-28 2014-02-04 Medtronic Navigaton, Inc. Method and apparatus for surgical navigation
US7366562B2 (en) 2003-10-17 2008-04-29 Medtronic Navigation, Inc. Method and apparatus for surgical navigation
US6499488B1 (en) 1999-10-28 2002-12-31 Winchester Development Associates Surgical sensor
US11331150B2 (en) 1999-10-28 2022-05-17 Medtronic Navigation, Inc. Method and apparatus for surgical navigation
WO2001064124A1 (en) 2000-03-01 2001-09-07 Surgical Navigation Technologies, Inc. Multiple cannula image guided tool for image guided procedures
US6535756B1 (en) 2000-04-07 2003-03-18 Surgical Navigation Technologies, Inc. Trajectory storage apparatus and method for surgical navigation system
US7085400B1 (en) 2000-06-14 2006-08-01 Surgical Navigation Technologies, Inc. System and method for image based sensor calibration
IL140136A (en) * 2000-12-06 2010-06-16 Intumed Ltd Apparatus for self-guided intubation
US6636757B1 (en) 2001-06-04 2003-10-21 Surgical Navigation Technologies, Inc. Method and apparatus for electromagnetic navigation of a surgical probe near a metal object
US6947786B2 (en) 2002-02-28 2005-09-20 Surgical Navigation Technologies, Inc. Method and apparatus for perspective inversion
US6990368B2 (en) 2002-04-04 2006-01-24 Surgical Navigation Technologies, Inc. Method and apparatus for virtual digital subtraction angiography
ATE275882T1 (de) 2002-04-16 2004-10-15 Brainlab Ag Marker für ein instrument und verfahren zur lokalisation eines markers
US7998062B2 (en) 2004-03-29 2011-08-16 Superdimension, Ltd. Endoscope structures and techniques for navigating to a target in branched structure
DE10249025B4 (de) * 2002-06-13 2007-06-14 Möller-Wedel GmbH Verfahren zur Präsenzoptimierung bei der Neuronavigation in der Chirurgie mit einem Operationsmikroskop und mindestens einem an den Beobachtungs-Strahlengang des Mikroskops gekoppelten optoelektronischen Bildempfänger sowie einem Computersystem einschließlich Navigationsinstrument hierfür
EP2070487B1 (de) 2002-08-13 2014-03-05 NeuroArm Surgical, Ltd. Mikrochirurgisches Robotersystem
AU2003273680A1 (en) * 2002-10-04 2004-04-23 Orthosoft Inc. Computer-assisted hip replacement surgery
US7697972B2 (en) 2002-11-19 2010-04-13 Medtronic Navigation, Inc. Navigation system for cardiac therapies
US7599730B2 (en) 2002-11-19 2009-10-06 Medtronic Navigation, Inc. Navigation system for cardiac therapies
US7660623B2 (en) 2003-01-30 2010-02-09 Medtronic Navigation, Inc. Six degree of freedom alignment display for medical procedures
US7542791B2 (en) 2003-01-30 2009-06-02 Medtronic Navigation, Inc. Method and apparatus for preplanning a surgical procedure
US7313430B2 (en) 2003-08-28 2007-12-25 Medtronic Navigation, Inc. Method and apparatus for performing stereotactic surgery
WO2005025635A2 (en) 2003-09-15 2005-03-24 Super Dimension Ltd. System of accessories for use with bronchoscopes
EP2316328B1 (de) 2003-09-15 2012-05-09 Super Dimension Ltd. Umhüllungsvorrichtung zur Fixierung von Bronchoskopen
US7835778B2 (en) 2003-10-16 2010-11-16 Medtronic Navigation, Inc. Method and apparatus for surgical navigation of a multiple piece construct for implantation
US7840253B2 (en) 2003-10-17 2010-11-23 Medtronic Navigation, Inc. Method and apparatus for surgical navigation
US8764725B2 (en) 2004-02-09 2014-07-01 Covidien Lp Directional anchoring mechanism, method and applications thereof
WO2005081842A2 (en) * 2004-02-20 2005-09-09 University Of Florida Research Foundation, Inc. System for delivering conformal radiation therapy while simultaneously imaging soft tissue
US7567834B2 (en) * 2004-05-03 2009-07-28 Medtronic Navigation, Inc. Method and apparatus for implantation between two vertebral bodies
DE102004035883B4 (de) * 2004-07-23 2006-08-31 Aesculap Ag & Co. Kg Marker sowie Reflektorelement für einen Marker eines chirurgischen Navigationssystems sowie Verfahren zum Versehen eines Markers mit einer Reflektorschicht
US7840256B2 (en) 2005-06-27 2010-11-23 Biomet Manufacturing Corporation Image guided tracking array and method
WO2007033206A2 (en) 2005-09-13 2007-03-22 Veran Medical Technologies, Inc. Apparatus and method for image guided accuracy verification
US7643862B2 (en) 2005-09-15 2010-01-05 Biomet Manufacturing Corporation Virtual mouse for use in surgical navigation
US7835784B2 (en) 2005-09-21 2010-11-16 Medtronic Navigation, Inc. Method and apparatus for positioning a reference frame
US9168102B2 (en) 2006-01-18 2015-10-27 Medtronic Navigation, Inc. Method and apparatus for providing a container to a sterile environment
EP1820465B1 (de) * 2006-02-21 2010-04-07 BrainLAB AG Universelle Schnittstelle zur Registrierung von Bildern
US8165659B2 (en) 2006-03-22 2012-04-24 Garrett Sheffer Modeling method and apparatus for use in surgical navigation
US8112292B2 (en) 2006-04-21 2012-02-07 Medtronic Navigation, Inc. Method and apparatus for optimizing a therapy
US8660635B2 (en) 2006-09-29 2014-02-25 Medtronic, Inc. Method and apparatus for optimizing a computer assisted surgical procedure
US8357165B2 (en) * 2006-12-22 2013-01-22 Depuy Products, Inc. Reference array mounting bracket for use with a computer assisted orthopaedic surgery system
US20080161824A1 (en) * 2006-12-27 2008-07-03 Howmedica Osteonics Corp. System and method for performing femoral sizing through navigation
EP2036494A3 (de) * 2007-05-07 2009-04-15 Olympus Medical Systems Corp. Medizinisches Führungssystem
US8934961B2 (en) 2007-05-18 2015-01-13 Biomet Manufacturing, Llc Trackable diagnostic scope apparatus and methods of use
US20080319491A1 (en) 2007-06-19 2008-12-25 Ryan Schoenefeld Patient-matched surgical component and methods of use
US8905920B2 (en) 2007-09-27 2014-12-09 Covidien Lp Bronchoscope adapter and method
US8571637B2 (en) 2008-01-21 2013-10-29 Biomet Manufacturing, Llc Patella tracking method and apparatus for use in surgical navigation
US9575140B2 (en) 2008-04-03 2017-02-21 Covidien Lp Magnetic interference detection system and method
US8473032B2 (en) 2008-06-03 2013-06-25 Superdimension, Ltd. Feature-based registration method
US8218847B2 (en) 2008-06-06 2012-07-10 Superdimension, Ltd. Hybrid registration method
US8932207B2 (en) 2008-07-10 2015-01-13 Covidien Lp Integrated multi-functional endoscopic tool
US8165658B2 (en) 2008-09-26 2012-04-24 Medtronic, Inc. Method and apparatus for positioning a guide relative to a base
US8175681B2 (en) 2008-12-16 2012-05-08 Medtronic Navigation Inc. Combination of electromagnetic and electropotential localization
US8611984B2 (en) 2009-04-08 2013-12-17 Covidien Lp Locatable catheter
US8238631B2 (en) 2009-05-13 2012-08-07 Medtronic Navigation, Inc. System and method for automatic registration between an image and a subject
US8737708B2 (en) 2009-05-13 2014-05-27 Medtronic Navigation, Inc. System and method for automatic registration between an image and a subject
US8503745B2 (en) * 2009-05-13 2013-08-06 Medtronic Navigation, Inc. System and method for automatic registration between an image and a subject
US8494614B2 (en) 2009-08-31 2013-07-23 Regents Of The University Of Minnesota Combination localization system
US8494613B2 (en) 2009-08-31 2013-07-23 Medtronic, Inc. Combination localization system
JP5701306B2 (ja) 2009-10-20 2015-04-15 イムリス インク. マーカーを使用する画像システム
JP2013508103A (ja) * 2009-10-28 2013-03-07 イムリス インク. 画像誘導手術のための画像の自動登録
US10582834B2 (en) 2010-06-15 2020-03-10 Covidien Lp Locatable expandable working channel and method
FR2963693B1 (fr) 2010-08-04 2013-05-03 Medtech Procede d'acquisition automatise et assiste de surfaces anatomiques
EP3659490A1 (de) 2010-08-20 2020-06-03 Veran Medical Technologies, Inc. Vorrichtung und verfahren für vierdimensionale weichgewebenavigation
EP2680777B1 (de) 2011-03-04 2015-12-30 Brainlab AG Fixiersystem für eine bildregistrierungsmatrix
FR2983059B1 (fr) 2011-11-30 2014-11-28 Medtech Procede assiste par robotique de positionnement d'instrument chirurgical par rapport au corps d'un patient et dispositif de mise en oeuvre.
US10561861B2 (en) 2012-05-02 2020-02-18 Viewray Technologies, Inc. Videographic display of real-time medical treatment
EP2911745B1 (de) 2012-10-26 2019-08-07 ViewRay Technologies, Inc. Beurteilung und verbesserung einer behandlung mit bildgebung physiologischer reaktionen in der strahlentherapie
US9446263B2 (en) 2013-03-15 2016-09-20 Viewray Technologies, Inc. Systems and methods for linear accelerator radiotherapy with magnetic resonance imaging
US20150305650A1 (en) 2014-04-23 2015-10-29 Mark Hunter Apparatuses and methods for endobronchial navigation to and confirmation of the location of a target tissue and percutaneous interception of the target tissue
US20150305612A1 (en) 2014-04-23 2015-10-29 Mark Hunter Apparatuses and methods for registering a real-time image feed from an imaging device to a steerable catheter
US10952593B2 (en) 2014-06-10 2021-03-23 Covidien Lp Bronchoscope adapter
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
US10426555B2 (en) 2015-06-03 2019-10-01 Covidien Lp Medical instrument with sensor for use in a system and method for electromagnetic navigation
US9962134B2 (en) 2015-10-28 2018-05-08 Medtronic Navigation, Inc. Apparatus and method for maintaining image quality while minimizing X-ray dosage of a patient
US9966160B2 (en) 2015-11-24 2018-05-08 Viewray Technologies, Inc. Radiation beam collimating systems and methods
USD824027S1 (en) * 2016-01-13 2018-07-24 MRI Interventions, Inc. Fins for a support column for a surgical trajectory frame
KR20180120705A (ko) 2016-03-02 2018-11-06 뷰레이 테크놀로지스 인크. 자기 공명 영상을 이용한 입자 치료
US10478254B2 (en) 2016-05-16 2019-11-19 Covidien Lp System and method to access lung tissue
AU2017281519A1 (en) 2016-06-22 2019-01-24 Viewray Technologies, Inc. Magnetic resonance imaging at low field strength
CA3022448A1 (en) 2016-08-05 2018-02-08 Brainlab Ag Automatic image registration of scans for image-guided surgery
WO2018032083A1 (en) * 2016-08-17 2018-02-22 Synaptive Medical (Barbados) Inc. Methods and systems for registration of virtual space with real space in an augmented reality system
WO2018067794A1 (en) 2016-10-05 2018-04-12 Nuvasive, Inc. Surgical navigation system and related methods
US10792106B2 (en) 2016-10-28 2020-10-06 Covidien Lp System for calibrating an electromagnetic navigation system
US10638952B2 (en) 2016-10-28 2020-05-05 Covidien Lp Methods, systems, and computer-readable media for calibrating an electromagnetic navigation system
US10517505B2 (en) 2016-10-28 2019-12-31 Covidien Lp Systems, methods, and computer-readable media for optimizing an electromagnetic navigation system
US10418705B2 (en) 2016-10-28 2019-09-17 Covidien Lp Electromagnetic navigation antenna assembly and electromagnetic navigation system including the same
US10722311B2 (en) 2016-10-28 2020-07-28 Covidien Lp System and method for identifying a location and/or an orientation of an electromagnetic sensor based on a map
US10751126B2 (en) 2016-10-28 2020-08-25 Covidien Lp System and method for generating a map for electromagnetic navigation
US10446931B2 (en) 2016-10-28 2019-10-15 Covidien Lp Electromagnetic navigation antenna assembly and electromagnetic navigation system including the same
US10615500B2 (en) 2016-10-28 2020-04-07 Covidien Lp System and method for designing electromagnetic navigation antenna assemblies
CN110382049A (zh) 2016-12-13 2019-10-25 优瑞技术公司 放射治疗系统和方法
US11219489B2 (en) 2017-10-31 2022-01-11 Covidien Lp Devices and systems for providing sensors in parallel with medical tools
US11033758B2 (en) 2017-12-06 2021-06-15 Viewray Technologies, Inc. Radiotherapy systems, methods and software
US11209509B2 (en) 2018-05-16 2021-12-28 Viewray Technologies, Inc. Resistive electromagnet systems and methods
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US10939977B2 (en) 2018-11-26 2021-03-09 Augmedics Ltd. Positioning marker
US11744655B2 (en) 2018-12-04 2023-09-05 Globus Medical, Inc. Drill guide fixtures, cranial insertion fixtures, and related methods and robotic systems
US11602402B2 (en) 2018-12-04 2023-03-14 Globus Medical, Inc. Drill guide fixtures, cranial insertion fixtures, and related methods and robotic systems
US11382549B2 (en) 2019-03-22 2022-07-12 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, and related methods and devices
US11045179B2 (en) 2019-05-20 2021-06-29 Global Medical Inc Robot-mounted retractor system
US11612440B2 (en) 2019-09-05 2023-03-28 Nuvasive, Inc. Surgical instrument tracking devices and related methods
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
US11389252B2 (en) 2020-06-15 2022-07-19 Augmedics Ltd. Rotating marker for image guided surgery
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998038908A1 (en) * 1997-03-03 1998-09-11 Schneider Medical Technologies, Inc. Imaging device and method
DE19846687A1 (de) * 1998-10-09 2000-04-27 Ludwig M Auer Vorrichtung zum Ausführen von medizinischen Eingriffen und Verfahren zum Erzeugen eines Bildes

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69133603D1 (de) * 1990-10-19 2008-10-02 Univ St Louis System zur Lokalisierung einer chirurgischen Sonde relativ zum Kopf
US5799099A (en) * 1993-02-12 1998-08-25 George S. Allen Automatic technique for localizing externally attached fiducial markers in volume images of the head
US6122541A (en) * 1995-05-04 2000-09-19 Radionics, Inc. Head band for frameless stereotactic registration
US6246784B1 (en) * 1997-08-19 2001-06-12 The United States Of America As Represented By The Department Of Health And Human Services Method for segmenting medical images and detecting surface anomalies in anatomical structures
EP0904733B1 (de) * 1997-09-27 2007-09-19 BrainLAB AG Verfahren und Gerät zur Aufnahme eines drei-dimensionalen Bildes eines Körperteils
US6381485B1 (en) * 1999-10-28 2002-04-30 Surgical Navigation Technologies, Inc. Registration of human anatomy integrated for electromagnetic localization

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998038908A1 (en) * 1997-03-03 1998-09-11 Schneider Medical Technologies, Inc. Imaging device and method
DE19846687A1 (de) * 1998-10-09 2000-04-27 Ludwig M Auer Vorrichtung zum Ausführen von medizinischen Eingriffen und Verfahren zum Erzeugen eines Bildes

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7853307B2 (en) 2003-08-11 2010-12-14 Veran Medical Technologies, Inc. Methods, apparatuses, and systems useful in conducting image guided interventions
US8150495B2 (en) 2003-08-11 2012-04-03 Veran Medical Technologies, Inc. Bodily sealants and methods and apparatus for image-guided delivery of same
US8483801B2 (en) 2003-08-11 2013-07-09 Veran Medical Technologies, Inc. Methods, apparatuses, and systems useful in conducting image guided interventions
US10470725B2 (en) 2003-08-11 2019-11-12 Veran Medical Technologies, Inc. Method, apparatuses, and systems useful in conducting image guided interventions
US7920909B2 (en) 2005-09-13 2011-04-05 Veran Medical Technologies, Inc. Apparatus and method for automatic image guided accuracy verification
US9218664B2 (en) 2005-09-13 2015-12-22 Veran Medical Technologies, Inc. Apparatus and method for image guided accuracy verification
US9218663B2 (en) 2005-09-13 2015-12-22 Veran Medical Technologies, Inc. Apparatus and method for automatic image guided accuracy verification
US8781186B2 (en) 2010-05-04 2014-07-15 Pathfinder Therapeutics, Inc. System and method for abdominal surface matching using pseudo-features
US9138165B2 (en) 2012-02-22 2015-09-22 Veran Medical Technologies, Inc. Systems, methods and devices for forming respiratory-gated point cloud for four dimensional soft tissue navigation

Also Published As

Publication number Publication date
US6609022B2 (en) 2003-08-19
DE10000937A1 (de) 2001-08-09
US20010007918A1 (en) 2001-07-12

Similar Documents

Publication Publication Date Title
DE10000937B4 (de) Intraoperative Navigationsaktualisierung
EP1348393B1 (de) Medizinische Navigation bzw. prä-operative Behandlungsplanung mit Unterstützung durch generische Patientendaten
EP1153572B1 (de) Verfahren zur Registrierung eines Patientendatensatzes aus einem bildgebenden Verfahren bei navigationsunterstützen chirurgischen Eingriffen mittels Röntgenbildzuordnung
DE102007013807B4 (de) Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen in einer vorgegebenen Interventionsebene
DE19829224B4 (de) Verfahren zur Lokalisation von Behandlungszielen im Bereich weicher Körperteile
DE102005044033B4 (de) Positionierungssystem für perkutane Interventionen
DE10202091B4 (de) Vorrichtung zur Ermittlung einer Koordinatentransformation
EP1890261B1 (de) Registrierung von MR-Daten anhand generischer Modelle
DE19944516B4 (de) Dreidimensionale Formerfassung mit Kamerabildern
DE19846687C2 (de) Chirurgische Hilfsvorrichtung zur Verwendung beim Ausführen von medizinischen Eingriffen und Verfahren zum Erzeugen eines Bildes im Rahmen von medizinischen Eingriffen
EP1905355B1 (de) Beckenregistrierungsvorrichtung für die medizintechnische Navigation
DE10323008A1 (de) Verfahren zur automatischen Fusion von 2D-Fluoro-C-Bogen-Bildern mit präoperativen 3D-Bildern unter einmaliger Verwendung von Navigationsmarken
EP1238684A1 (de) Verfahren zur Erstellung bzw. Aktualisierung eines Bestrahlungsplans
DE102006006038B4 (de) System zur bildlich dargestellten Verfolgung eines in ein Untersuchungsobjekt mindestens teilweise eingeführten, bewegten medizinischen Instruments
DE102016203857A1 (de) Verfahren zur Erfassung und Verarbeitung von Bilddaten eines Untersuchungsobjekts
EP1348394B1 (de) Planungs- bzw. Navigationsunterstützung durch generische und erfasste Patientendaten mit zweidimensionaler Anpassung
DE102011006537B4 (de) Verfahren zur Registrierung eines ersten Koordinatensystems einer ersten medizinischen Bildgebungseinrichtung mit einem zweiten Koordinatensystem einer zweiten medizinischen Bildgebungseinrichtung und/oder einem dritten Koordinatensystem eines medizinischen Instruments, welches durch Marker einer medizinischen Navigationseinrichtung definiert ist, und medizinisches Untersuchungs- und/oder Behandlungssystem
DE202005014582U1 (de) Positionierungssystem für perkutane Interventionen
DE102017223598B4 (de) Verfahren zur Registrierung beim Einstellen einer Ausrichtung eines Instruments und Robotersystem
DE102005051102B4 (de) System zur medizinischen Navigation
DE10235795B4 (de) Medizinische Vorrichtung
DE102005031123A1 (de) Verfahren und Einrichtung zur Röntgenbildgebung
WO2012025081A2 (de) Verfahren zur simultanen, parallelen, kontinuierlichen darstellung von gespeicherten, hochaufgelösten diagnostischen 3-d-bilddaten und 2-d-echtzeitschnittbilddaten während einer medizinischen intervention eines patienten und anordnung zur durchführung dieses verfahrens
EP1378206B1 (de) Röntgenbildunterstützte Navigation mit ursprünglichen, zweidimensionalen Röntgenbildern
DE10137914B4 (de) Verfahren zur Ermittlung einer Koordinatentransformation für die Navigation eines Objekts

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: BRAINLAB AG, 85622 FELDKIRCHEN, DE

R082 Change of representative

Representative=s name: SCHWABE SANDMAIR MARX, DE

R081 Change of applicant/patentee

Owner name: BRAINLAB AG, DE

Free format text: FORMER OWNER: BRAINLAB AG, 85622 FELDKIRCHEN, DE

Effective date: 20131104

R082 Change of representative

Representative=s name: SCHWABE SANDMAIR MARX, DE

Effective date: 20131104

Representative=s name: SCHWABE SANDMAIR MARX PATENTANWAELTE RECHTSANW, DE

Effective date: 20131104

R081 Change of applicant/patentee

Owner name: BRAINLAB AG, DE

Free format text: FORMER OWNER: BRAINLAB AG, 85622 FELDKIRCHEN, DE

R082 Change of representative

Representative=s name: SCHWABE SANDMAIR MARX PATENTANWAELTE RECHTSANW, DE

Representative=s name: SSM SANDMAIR PATENTANWAELTE RECHTSANWALT PARTN, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: A61B0019000000

Ipc: A61B0034200000

R071 Expiry of right