DE69721045T2 - Vorrichtung und verfahren zur darstellung von ultraschallbildern - Google Patents

Vorrichtung und verfahren zur darstellung von ultraschallbildern Download PDF

Info

Publication number
DE69721045T2
DE69721045T2 DE69721045T DE69721045T DE69721045T2 DE 69721045 T2 DE69721045 T2 DE 69721045T2 DE 69721045 T DE69721045 T DE 69721045T DE 69721045 T DE69721045 T DE 69721045T DE 69721045 T2 DE69721045 T2 DE 69721045T2
Authority
DE
Germany
Prior art keywords
instrument
images
spatial
orientation
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69721045T
Other languages
English (en)
Other versions
DE69721045D1 (de
Inventor
Doron Dekel
Ryan Charles HALL
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brainlab AG
Original Assignee
Brainlab AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brainlab AG filed Critical Brainlab AG
Application granted granted Critical
Publication of DE69721045D1 publication Critical patent/DE69721045D1/de
Publication of DE69721045T2 publication Critical patent/DE69721045T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/10Position of receiver fixed by co-ordinating a plurality of position lines defined by path-difference measurements, e.g. omega or decca systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/899Combination of imaging systems with ancillary equipment
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8993Three dimensional imaging systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/5205Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/52071Multicolour displays; using colour coding; Optimising colour or information content in displays, e.g. parametric imaging
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S128/00Surgery
    • Y10S128/916Ultrasound 3-D imaging

Description

  • GEBIET DER ERFINDUNG
  • Die Erfindung betrifft im Allgemeinen das Gebiet der Ultraschall-Bildgebung. Speziell betrifft die vorliegende Erfindung die Verarbeitung von Ultraschallbildern aus einem Ultraschallwandler. Noch spezieller betrifft die Erfindung ein Verfahren und ein System zum Bestimmen der Raumposition eines medizinischen Instruments sowie der Bilder, die durch den Ultraschall-Bildgebungswandler akquiriert werden, und das Verwenden dieser Information zur Erzeugung von verarbeiteten Bildern des Körpers aus der Perspektive des Instruments.
  • HINTERGRUND DER ERFINDUNG
  • Es ist in der Technik bekannt, Ultraschall-Bildgebungssysteme zu verwenden, um innere Bilder eines Körpers zu akquirieren, wie z. B. eines anatomischen Körpers, um eine medizinische Prozedur zu planen oder durchzuführen, sei sie diagnostisch, therapeutisch oder chirurgisch. Es gibt verschieden Vorteile bei Verwendung von Ultraschall-Bildgebungssystemen gegenüber anderen Bildgebungssystemen. Beispielsweise neigen Ultraschall-Bildgebungssysteme dazu, weniger körperintrusiv zu sein und sie setzen den Patienten nicht größeren Mengen an Strahlungen oder Farbstoffen aus. Zusätzlich sind Ultraschall-Bildgebungssysteme eher weniger teuer im Einkauf. Ultraschall-Bildgebungssysteme sind auch billiger im Betrieb, da weniger Personal involviert ist, es ist nicht notwendig, den Patienten stabil zu halten und die Ultraschallbilder müssen nicht "vorakquiriert" werden, sondern sie können während der medizinischen Prozedur akquiriert werden.
  • Der prinzipielle Vorteil von Bildgebungssystemen im Allgemeinen ist die Fähigkeit, innere Bereiche eines Patienten sichtbar zu machen und medizinische Instrumente oder Sonden in den Körper eines Patienten zu führen, ohne große Einschnitte in den Körper des Patienten zu machen. Wenn kleinere Einschnitte in den Patientenkörper gemacht werden, verringert dies das Risiko für den Patienten und ebenfalls die Dauer des Krankenhausaufenthaltes des Patienten.
  • Um jedoch Bilder wirksam als Navigationshilfe während einer Prozedur am Patienten verwenden zu können, müssen die durch den Ultraschall-Bildgebungssysteme akquirierten Bilder in klarer, genauer und verwenderfreundlicher Weise angezeigt werden. Nur dann kann der Mediziner den Innenbereich des Körpers in einfacher Weise visualisieren.
  • In der Vergangenheit konnten die durch einen Ultraschall-Bildgebungswandler akquirierten Bilder nur aus einer Perspektive oder Sicht gesehen werden, nämlich aus der Perspektive des Ultraschall-Bildgebungswandlers, der die Bilder akquirierte. Während der Bildgebungswandler um den Körper herum bewegt werden konnte, um Bilder aus unterschiedlichen Perspektiven oder Sichten zu akquirieren, war es nicht möglich, Bilder aus der Perspektive oder der Sicht des Instruments zu akquirieren. Es blieb bei dem Mediziner, die Position, Ausrichtung und Bahn des Instruments im Körper aus den Bildern auf der Anzeige zu extrapolieren.
  • Außerdem ist die Position des Instruments bei Systemen gemäß dem Stand der Technik im Allgemeinen nicht einfach auf den akquirierten Bildern zu sehen. Um die Sichtbarkeit des Instruments zu verbessern, war es oft notwendig, einen Ultraschall-Tracking-Wandler an dem Instrument zu platzieren. Der Ultraschall-Tracking-Wandler würde die Ultraschallsignale erhalten, die durch den Ultraschall-Bildgebungswandler emittiert werden, und einen "blip" zur Verfügung stellen, der das Instrument auf den Bildern repräsentiert. Dies hätte aber modifizierte Instrumente und zusätzliche Kosten notwendig gemacht.
  • Deshalb hatte der Stand der Technik einige Nachteile. Speziell konnten Systeme nach dem Stand der Technik nur aus einer Perspektive oder Sicht klare Ultraschallbilder erzeugen und anzeigen, nämlich aus der Perspektive oder Sicht des Ultraschall-Bildgebungswandlers. Jedoch gibt diese Sicht ein nur eingeschränktes Navigationswerkzeug für einen Mediziner her, zumindest weil der Mediziner die Bahn des Instruments im Körper nicht einfach visualisieren kann.
  • Zusätzlich erfordern die meisten der Systeme nach dem Stand der Technik einen Tracking-Wandler von irgendeinem Typ, der an der Sonde oder an dem medizinischen Instrument angeordnet werden muss, welches in den Körper des Patienten eingesetzt wird. Modifizierte Instrumente, die Tracking-Wandler umfassen, müssen verwendet werden.
  • Demgemäß bestand in der Technik ein Bedarf an einem alternativen Verfahren und System zur genauen, wirksamen und robusten Präsentation der Bilder, die von einem Ultraschall-Bildgebungswandler akquiriert werden. Zusätzlich besteht ein Bedarf an einem System, welches es nicht erfordert, dass die medizinischen Instrumente Ultraschall-Tracking-Wandler aufweisen, die in den Körper eintreten.
  • Die internationale Patentanmeldung WO 96/32 066 lehrt eine Vorrichtung und Verfahren zum Positionieren einer Biopsienadel zum Einsetzten um so in Echtzeit eine vorbestimmte Trajektorie zu einem Zielgewebebereich zu erlangen. Die Nadelposition wird elektronisch getrackt und dann über ein vorher gespeichertes oder Echtzeitbild des Gewebes projiziert werden. Die Vorrichtung umfasst eine Basis mit einem angebrachten Ultraschallscanner und Nadelhalterungssystem. Das Nadelhalterungssystem ist trennbar mit einem Computer gekoppelt, der ein computerbasiertes Anzeigesystem hat, so dass die Bewegung der Biopsienadel auf einem Monitor angezeigt wird. Der Ultraschallwandler kann auf einem Träger angebracht werden, der durch ein System aus Riemen, Kabeln, Antriebsspindeln oder ähnlichen Mechanismen angetrieben wird, um ein Scannen entlang einer Reihe von Ebenen bereitzustellen, die ausreichen, um ein dreidimensionales Datenmodell des Gewebes zu erzeugen, an dem die Biopsie stattfinden soll. Das Nadelhalterungssystem umfasst ein paar Linearcodierer, die Positionsinformationen für die Nadel an den Computer geben. Die Codierer geben ein Signal aus, das der Nadelverschiebung von einem voreingestellten Referenzpunkt entspricht. Obwohl die Offenbarung die Auswahl einer Bildsicht von den Ultraschallbildschnitten der inneren Merkmale des Gewebes anspricht, wird nicht gelehrt oder angesprochen wie diese Auswahl umgesetzt werden soll.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Demgemäß ist es eine Aufgabe dieser Erfindung, die Nachteile des Standes der Technik zumindest teilweise zu überwinden. Es ist ebenfalls eine Aufgabe dieser Erfindung, ein verbessertes Verfahren und ein System bereitzustellen, zur leichten Darstellung verbesserter Bilder aus den Ultraschall-Bildgebungswandlern, einschließlich dreidimensionaler Bilder der inneren Bereiche des Patienten, von der Perspektive oder Sicht des Instruments in dem Körper, so dass die Sicht mit der Position und Ausrichtung des Instruments gegenüber dem Patienten in Beziehung steht.
  • Es ist ebenfalls eine Aufgabe der vorliegenden Erfindung, ein Verfahren und eine Vorrichtung zum Tracken der Raumposition eines medizinischen Instruments und des Ultraschall-Bildgebungswandlers bereitzustellen, und diese Information dazu zu nutzen, automatisch Bilder aus der Perspektive oder Sicht des Instruments zu erzeugen, mit oder ohne eine Darstellung des Instruments auf den Bildern.
  • Die Erfindung ist in den Ansprüchen 1 und 17 definiert.
  • Weitere Aspekte der Erfindung werden beim Lesen der folgenden detaillierten Beschreibung und der Zeichnungen ersichtlich, welche die Erfindung und bevorzugte Ausführungsformen der Erfindung darstellen.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • In den Zeichnungen, die Ausführungsformen der Erfindung darstellen, zeigen:
  • 1 ein System gemäß einer Ausführungsform der vorliegenden Erfindung;
  • 2A eine vergrößerte Ansicht eines Ultraschall-Bildwandlers, der bei einer Ausführungsform der vorliegenden Erfindung verwendet wird;
  • 2B eine vergrößerte Ansicht eines Instruments, welches bei einer Ausführungsform der vorliegenden Erfindung verwendet werden kann;
  • 3A und 3B verarbeitete Bilder, welche durch das System gemäß einer Ausführungsform der vorliegenden Erfindung erzeugt werden können;
  • 4 ein System gemäß einer anderen Ausführungsform der vorliegenden Erfindung, wobei zwei Instrumente verwendet werden; und
  • 5 ein System gemäß einer anderen Ausführungsform der vorliegenden Erfindung, wo zwei Ultraschall-Bildgebungswandler verwendet werden.
  • DETAILLIERTE BESCHREIBUNG BEVORZUGTER AUSFÜHRUNGSFORMEN DER ERFINDUNG
  • Das Visualisierungssystem bzw. Darstellungssystem der vorliegenden Erfindung ist in 1 im Ganzen mit den Bezugszeichen 10 gezeigt. Das System 10 umfasst einen ersten räumlichen Determinator, der insgesamt mit 12 bezeichnet ist, zum Bestimmen von Raumpositionsinformationen für ein chirurgisches Instrument 14. Die Raumpositionsinformation, die durch den ersten räumlichen Determinator 12 bestimmt oder erhalten wird, umfasst die Position und die Ausrichtung des Instruments 14 in einem Referenzrahmen. Der erste räumliche Determinator 12 sendet ebenfalls ein erstes räumliches Signal Sp1 , welches die Raumpositionsinformation für das Instrument 14 in dem Referenzrahmen repräsentiert.
  • In gleicher Weise umfasst das System 10 einen zweiten räumlichen Determinator 16 zum Bestimmen einer Raumpositionsinformation für einen Ultraschall-Bildwandler 18. Die Raumpositionsinformation des Wandlers 18 umfasst die Position und Ausrichtung des Wandlers 18 im Referenzrahmen. Der zweite räumliche Determinator 16 sendet ein zweites räumliches Signal Sp2 , welches die Raumpositionsinformation des Wandlers 18 im Referenzrahmen repräsentiert.
  • Die Raumpositionsinformation eines Objektes umfasst mindestens ausreichend Information, um die Raumposition zu identifizieren, nämlich die Position und Ausrichtung eines Objekts in einem Referenzrahmen. In einem Kartesischen Koordinatensystem kann die Position eines Objekts durch die x-, y- und z-Koordinaten angezeigt werden, welche die Position eindeutig in drei Dimensionen identifizieren. Die Ausrichtung eines Objekts kann durch Azimuth (a), Elevation (e) und Rollwinkel (r) wiedergegeben werden. Demgemäß identifiziert das erste räumliche Signal Sp1 die Raumposition des Instruments 14 durch die Wiedergabe der Raumpositionsinformation für das Instrument 14, wie z. B. die x-, y-, z-Koordinaten und Azimuth, Rollwinkel und Elevation.
  • Der erste und der zweite räumliche Determinator 12, 16 können die Position und Ausrichtung des Instruments 14 und des Ultraschall-Bildwandlers 18 jeweils relativ zu einem Referenzrahmen ermitteln. Es gibt eine Anzahl alternativer Methoden und Vorrichtungen, die verwendet werden können, um die Raumpositionsinformation für das Instrument 14 und den Ultraschall-Bildwandler relativ zum Referenzrahmen zu erhalten. Einrichtungen, die diese Funktion ausüben können, sind in der Technik bekannt und werden kollektiv als räumliche Determinatoren bezeichnet, wie z. B. der erste und der zweite räumliche Determinator 12, 16.
  • Zum Beispiel umfasst ein räumlicher Determinator, welcher in dem System 10 entweder als erster räumlicher Determinator 12, als zweiter räumlicher Determinator 16 oder für beide verwendet werden kann, einen elektromagnetischen Emitter, der an einem festen Punkt positioniert ist (gezeigt durch das Bezugszeichen 24' in 1), und zwar in einem Referenzrahmen, und einen Sensor, der an dem Instrument 14 angeordnet ist, sowie einen entsprechenden Sensor, der an dem Wandler 18 angeordnet ist. Durch das Vergleichen des Timings und der Phase der übertragenen Signale von dem Emitter mit empfangenen Signalen, die durch die Sensoren aufgenommen werden, können die Position und die Ausrichtung des Instruments 14 und des Wandlers 18 gegenüber dem festen Punkt 24' bestimmt werden. Als ein weiteres Beispiel für einen räumlichen Determinator könnte das Instrument 14 an einem leichten Multigelenkarm 21 angebracht sein, der mehrere Sektionen aufweist, die durch Gelenke miteinander verbunden sind. Die Gelenke stellen in Kombination einen Bewegungsbereich zur Verfügung, der gleich oder größer ist als derjenige, der für eine vorgegebene Prozedur benötigt wird. Winkelsensoren erfassen jedwede Veränderung in der Position oder Ausrichtung der Sektionen und Gelenke. Unter Verwendung einfacher geometrischer Berechnungen und diese Winkelinformationen kann die Position und Ausrichtung des Instruments 14 relativ zum festen Punkt 24' bestimmt werden. Ein ähnlicher räumlicher Determinator könnte für den Wandler 18 verwendet werden. Räumliche Determinatoren, welche diese bekannten Lokalisierungsverfahren verwenden, sind im Handel erhältlich.
  • Es ist zu bemerken, dass jedwede Sensoren, die an oder nahe dem Instrument 14 im System 10 angeordnet sind, nicht in einer Position an dem Instrument 14 angeordnet sein müssen, welche in den Körper 20 des Patienten 22 eintritt. Beispielsweise könnte der Sensor an jeder Stelle des Instruments 14 angeordnet sein, oder an dem Arm 21, der verwendet wird, um das Instrument 14 zu halten. Auf diese Weise ist der Sensor des ersten räumlichen Determinators immer für die Personen zugänglich, die das System 10 verwenden, so dass er überprüft und ersetzt werden kann, wenn er für fehlerhaft befunden wird. Auch muss der Sensor des ersten räumlichen Determinators 12 keine spezielle Größe und Form haben, um den Eintritt in den Körper 20 des Patienten 22 zu gestatten.
  • Es ist vorzuziehen, dass der feste Punkt 24', von dem aus die räumlichen Determinatoren 12, 16 Raumpositionsinformationen für das Instrument 14 und den Wandler 18 bestimmen, ebenfalls der Ursprung (gezeigt in 1 durch das Bezugszeichen 24) des Referenzrahmens ist. Drei Achsen sind gezeigt, die von dem Ursprung 24 abgehen und die x-, y- und z-Koordinaten im Referenzrahmen repräsentieren. Jeder Punkt im Referenzrahmen und speziell jeder Punkt in und außerhalb des Patienten 22, hat eine einzigartige x-, y- und z-Koordinate in diesem Referenzrahmen. Die räumlichen Determinatoren 12, 16 können die Koordinaten eines jedweden Punk im Referenzrahmen bestimmen. Es versteht sich, dass jeder Typ von Koordinatensystem, einschließlich eines Kugelkoordinatensystems, verwendet werden kann, und dass die Erfindung nicht auf die Verwendung eines x-, y-, z-Koordinatensystems beschränkt ist.
  • Der Ursprung 24 könnte ein fester Punkt im Operationssaal sein, wie z. B. die Basis des Ständers 26, wie in 1 gezeigt. Zur zusätzlichen Stabilität wird der Ständer 26 im Raum gesichert, beispielsweise durch das Verbolzen des Ständers 26 und des Tisches, auf welchem der Patient 22 in dem Raum angeordnet ist. Deshalb umfasst der Referenzrahmen den festen Punkt 24', welcher ebenfalls der Ursprung 24 ist, und der Referenzrahmen umfasst den Ultraschall-Bildwandler 18, das Instrument 14, den Ursprung 24 und mindestens den Abschnitt des Körpers 20 des Patienten 22, der in der durchgeführten Prozedur von Interesse ist. Punkte außerhalb des Bereiches der räumlichen Determinatoren 12, 16 müssen innerhalb des Referenzrahmens nicht beachtet werden. Deshalb muss der Bereich des ersten und zweiten räumlichen Determinators 12, 16 nicht den gesamten Raum umfassen. Der Referenzrahmen mit dem festen Punkt 24' im Operationssaal, welcher der Ursprung 24 ist, kann als Labor- oder Operationssaal-Referenzrahmen angesehen werden, weil der Referenzrahmen bezüglich des Labor- oder Operationsraumes fest ist.
  • Der erste und der zweite räumliche Determinator 12, 16 erhalten oder bestimmen die Raumpositionsinformation jeweils für das Instrument 14 und den Wandler 18 bezüglich des Ursprungs 24 des Referenzrahmens. Es versteht sich, dass die Raumpositionsinformation des Instruments 14 und des Ultraschall-Bildwandlers 18 nicht gegenüber demselben Punkt erhalten werden müssen, nämlich dem Ursprung 24, sondern dass die Position und Ausrichtung des Instruments 14 und des Wandlers 18 gegenüber verschiedenen Punkten im Referenzrahmen erhalten werden könnten, vorausgesetzt die relative Position dieser verschiedenen Punkte ist bekannt. Jedoch ist es zweckdienlicherweise vorzuziehen, dass die Raumpositionsinformationen für das Instrument 14 und den Wandler 18 bezüglich desselben Punktes erhalten werden, nämlich des Ursprungs 24.
  • Bei einer weiteren Ausführungsform sind der erste räumliche Determinator 12 und der zweite räumliche Determinator 16 so angeordnet, dass die Relativposition und Ausrichtung zwischen dem Wandler 18 und dem Instrument 14 bestimmt wird. Dies wird beispielsweise dadurch erreicht, dass ein elektromagnetischer Emitter auf entweder dem Wandler oder dem Instrument 18 platziert wird, und der Sensor auf dem anderen Bauteil, dem Instrument 14 oder dem Wandler 18.
  • Für den Fall, wo der Emitter auf dem Instrument 14 platziert wird, wird der Ursprung ein beweglicher oder nicht fester Ursprung im Operationssaal, allgemein in 1 durch das Bezugszeichen 24'' angezeigt. In diesem Fall kann der Referenzrahmen als Referenzrahmen des Instruments 14 angesehen werden, weil der Referenzrahmen bezüglich dem Griff des Instruments 14 fest ist. Der bewegliche Ursprung 24'' ist gegenüber dem Labor- oder Operationssaal-Referenzrahmen beweglich, aber der bewegliche Ursprung 24'' ist im Referenzrahmen des Instruments 14 fixiert.
  • Die Position und Ausrichtung des Instruments 14 in dem Referenzrahmen des Instruments 14 kann dadurch bestimmt werden, dass die Abmessungen des Instruments 14 bekannt sind. Deshalb müsste nur eine Berechnung gemacht werden, um die Position und Ausrichtung des Wandlers 18 im Referenzrahmen des Instruments 14 zu bestimmen, nämlich die Berechnung der relativen Position und Ausrichtung des Wandlers 18 und der Bilder 32 gegenüber dem beweglichen Ursprung 24'' . Dies vereinfacht die Berechnungen dieser Ausführungsform gegenüber der oben beschriebenen Ausführungsform, wo der Referenzrahmen der Labor-Referenzrahmen ist und der feste Punkt 24' als Ursprung 24 des Referenzrahmens verwendet wird. Auch werden nur ein Emitter und ein Sensor benötigt, wenn der Referenzrahmen in Relation zum Instrument 14 liegt.
  • Jedoch muss der Emitter in der Ausführungsform mit dem beweglichen Ursprung 24'' auf dem Instrument 14 angeordnet sein. Es ist klar, dass in gleicher Weise ein beweglicher Ursprung dem Wandler 18 zugeordnet werden könnte, so dass ein Referenzrahmen des Wandlers 18 verwendet wird.
  • Wie oben angesprochen, umfasst die Raumpositionsinformation für das Instrument 14 und den Wandler 18 die Position und Ausrichtung des Instruments 14 und des Wandlers 18, jeweils in einem Referenzrahmen, welcher Referenzrahmen auch immer verwendet wird. Natürlich kann die Raumpositionsinformation weitere Informationen umfassen, welche die Position des Instruments 14 oder des Wandlers 18 im Referenzrahmen betreffen, z. B. die Geschwindigkeit, Beschleunigung oder andere Informationen bezüglich der räumlichen Position und Ausrichtung des Instruments 14 und des Wandlers 18 und der Änderungsrate für die Raumposition des Instruments 14 und des Wandlers 18.
  • Der Ultraschall-Bildwandler 18 emittiert Ultraschallwellen in dem Körper 20. Der Wandler 18 verwendet die Echos dieser Ultraschallwellen zur Herstellung von Bildsignalen S1 , welche innere Bilder des Körpers 20 repräsentieren. Die Bildsignale S1 werden in einer Bildverarbeitungseinheit 28 gespeichert.
  • Bei einer bevorzugten Ausführungsform umfassen die vom Wandler 18 erhaltenen Bilder Schichtenstapel zweidimensionaler Bilder 32. Jedes der zweidimensionalen Bilder 32 in jedem Schichtenstapel bzw. Schnittbildstapel wird in einer bekannten Position und Ausrichtung gegenüber einem festen Punkt 40 auf dem Wandler 18 erhalten. Auf diese Weise bildet der Schichtenstapel der zweidimensionalen Bilder 32 diskrete Bilder 32, die in einem Volumen oder Raum aufgenommen wurden, der in 2A im Ganzen durch den gestrichelten Kasten 33 gezeigt ist. Dieses Volumen oder dieser Raum 33 und die Bilder 32, welche den Schichtenstapel umfassen, sind bezüglich einem festen Punkt 40 durch die Vektorposition 42 eindeutig definiert. Mit anderen Worten identifiziert die Vektorposition 42 eindeutig den Abstand und die Richtung des Bildgebungsvolumens 33 bezüglich dem festen Punkt 40 auf dem Wandler, wodurch die Position und Ausrichtung jedes Bildes 32 in dem Volumen 33 eindeutig identifiziert wird. Die Position und Ausrichtung der Bilder 32 in dem Volumen 33, aufgenommen durch den Wandler 18, kann durch den Verwender ausgewählt werden und ist im Allgemeinen fächerförmig.
  • Das System 10 umfasst ferner eine Mappingeinheit 34. Die Mappingeinheit 34 empfängt das erste räumliche Signal Sp1 und das zweite räumliche Signal Sp2 . Unter Verwendung des ersten räumlichen Signals Sp1 und des zweiten räumlichen Signals Sp2 erzeugt die Mappingeinheit 34 ein erstes Mappingsignal Sm1 . Das erste Mappingsignal Sm1 zeigt die Position und die Ausrichtung des Instruments 14, gemappt auf die Position der Bilder 32 an.
  • Mit dem ersten Mappingsignal Sm1 kann die Bildverarbeitungseinheit 28 die gespeicherten Bildsignale S1 verarbeiten und verarbeitete Bildsignale Is aus einer Sicht erzeugen, welche zur Raumposition des Instruments 14 in Bezug steht. Die Bildverarbeitungseinheit 28 tut dies durch ein Re-Sampling der gespeicherten Bildsignale S1 zur Erzeugung verarbeiteter Bildsignale Is aus einer bekannten Position und Ausrichtung im Referenzrahmen. Diese bekannte Position ist räumlich zu der Position und Ausrichtung des Instruments in Bezug gesetzt. Mit anderen Worten entspricht die bekannte Position einer Position an oder nahe dem Instrument 14.
  • Die verarbeiteten Bildsignale Is können zweidimensionale Bilde entlang Ebenen sein, die transaxial oder orthogonal zur Position des Instruments 14 liegen. Die verarbeiteten Bildsignale Is können ebenfalls dreidimensionale Projektionsbilder sein. In jedem Fall repräsentieren die verarbeiteten Bildsignale Is Bilder des Körpers 20 aus der Sicht des Instruments 14, als ob der Beobachter an einer Position an oder nahe dem Instrument 14 im Körper 20 sitzen würde, von welchem die Bildsignale re-Sampled werden. Im Fall von dreidimensionalen Projektionsbildern werden die verarbeiteten Bilder eine Sicht und eine Perspektive aufweisen, die räumlich zur Position und Ausrichtung des Instruments 14 in Bezug steht.
  • Es ist klar, dass eine Sicht aus der Perspektive des Instruments 14 einer Sicht aus der Perspektive des Wandlers 18 vorzuziehen ist, weil die Perspektive des Instruments 14 dem Mediziner dabei hilft, die inneren Merkmale des Körpers 20 zu visualisieren, während er das Instrument 14 führt. Zusätzlich könnte die Bildverarbeitungseinheit 28 auf Wunsch des Mediziners verarbeitete Bilder Is aus einer anderen Perspektive erzeugen, wie z. B. der Perspektive des Wandlers 18, oder einfach die unverarbeiteten Signalbilder Si anzeigen, wie dies bei den Systemen gemäß dem Stand der Technik getan wird. Deshalb gibt die vorliegende Erfindung dem Mediziner eine zusätzliche Vielseitigkeit.
  • Die Anzeigeeinheit 30 empfängt das verarbeitete Bildsignal Is und zeigt verarbeitete Bilder 62 entsprechend der verarbeiteten Bildsignale Is an. Die verarbeiteten Bilder 62 sind die Bilder, die durch den Ultraschall-Bildwandler 18 akquiriert wurden, aber erzeugt aus der Perspektive des Instruments 14 im Körper 20 durch das oben beschriebene Verfahren. Die 1 zeigt ein Beispiel der verarbeiteten Bilder 62 aus einer Sicht bei einer Position gerade hinter dem Ende des Instruments 14, das in diesem Fall eine Sonde ist.
  • Weil die Raumpositionsinformation für sowohl das Instrument 14 als auch die Bilder 32 im selben Referenzrahmen erhalten werden, hat die Mappingeinheit 34 ausreichend Informationen, um die Position und Ausrichtung des Instruments auf die Position und Ausrichtung des Wandlers 18 zu mappen. Jedoch ist es, um die Raumpositionsinformation des Instruments 14 auf die Raumpositionsinformation der Bilder 32 zu mappen, notwendig, dass die Mappingeinheit 34 die Position und Ausrichtung der Bilder 32 im Referenzrahmen von der Raumpositionsinformation des Wandlers 18 bestimmt. Um dies durchzuführen, umfasst die Mappingeinheit 34 eine Speichereinheit 38, die aus Standard-Speicherchips gebildet sein kann, wie z. B. RAM oder Magnetdisk oder andere Datenspeichervorrichtungen, um Raumpositionsinformationen für die Bilder 32 bezüglich des Wandler 18 zu speichern.
  • Die Raumpositionsinformation der Bilder 32 bezüglich des Wandlers 18 umfasst die Vektorposition 42. Die Vektorposition 42 von dem festen Punkt 40 gibt im Wesentlichen die Distanz und Richtung wieder, von welcher der Wandler 18 aus die Bilder 32 im Körper 20 akquiriert, wie in 2A gezeigt ist.
  • Die Vektorposition 42 kann durch das Kalibrieren des Wandlers 18 vor dem Beginn der Prozedur bestimmt werden. Im Allgemeinen wird die Vektorposition sich während der Prozedur nicht stark verändern, und eine neue Kalibrierung des Wandlers 18 ist im Allgemeinen nicht erforderlich. Abhängig von dem Typ des Wandlers 18, der verwendet wird, ist es darüber hinaus möglicherweise nicht notwendig, überhaupt eine Kalibrierung durchzuführen, sondern sie kann während der Herstellung eingestellt und ausreichend stabil sein, so dass sie sich nicht ändert.
  • Bei einigen Ausführungsformen kann der Wandler 18 dazu in der Lage sein, Einstellungen vorzunehmen, so dass die Tiefe oder eine andere Position der Bilder 32 bezüglich des Wandler 18 eingestellt werden kann. In diesen Fällen ist es klar, dass eine unterschiedliche Vektorposition 42 von dem festen Punkt 40 für jede Veränderung in der Tiefe der Bilder 32 gegenüber dem Körper 20 benötigt würde. Die Raumpositionsinformation für die Bilder 32 bezüglich des Wandlers 18, die in der Speichereinheit 38 gespeichert ist, würde die Vektorposition 42 für die Bilder 32 mit verschiedenen Tiefen im Körper 20 umfassen. Eine Einstellung der Tiefe der Bilder 32 im Körper 20 würde bewirken, dass die Mappingeinheit 34 eine entsprechende Vektorposition 42 aus der Speichereinheit 38 wählt.
  • Mit der Raumpositionsinformation der Bilder 32 bezüglich des Wandlers 18 und des zweiten räumlichen Signals Sp2 , welches die Raumpositionsinformation des Wandlers 18 im Referenzrahmen repräsentiert, kann die Mappingeinheit 34 die Position der Bilder 32 im Referenzrahmen bestimmen. Die Mappingeinheit 34 führt dies durch, indem sie die Vektorposition 42 der Bilder 32 bezüglich des festen Punktes 40 am Wandler 18, wobei diese Information in der Speichereinheit 38 gespeichert ist, zur Raumpositionsinformation des Wandlers 18 hinzu addiert, die durch das zweite räumliche Signal Sp2 wiedergegeben wird.
  • Es ist vorzuziehen, dass das zweite räumliche Signal Sp2 die Raumpositionsinformation für den festen Punkt 40 des Wandlers 18 repräsentiert. Wenn dies jedoch nicht der Fall ist und das zweite räumliche Signal Sp2 die Raumpositionsinformation eines anderen festen Punktes (nicht gezeigt) auf dem Wandler 18 wiedergibt, dann kann die Mappingeinheit 34 eine weitere Addition von dem anderen festen Punkt (nicht gezeigt) zum festen Punkt 40 durchführen. Die Mappingeinheit 34 umfasst eine Verarbeitungseinheit 39 zur Durchführung dieser Additionen. Die Verarbeitungseinheit 39 mappt ebenfalls die Raumpositionsinformationen für das Instrument 14, repräsentiert durch das erste räumliche Signal Sp1 , auf die Raumpositionsinformation der Bilder 32.
  • Bei einer bevorzugten Ausführungsform werden Raumpositionsinformationen für Teile 15 (identifiziert durch "x" in 2B) des Instruments 14 bestimmt. Die Teile 15 des Instruments 14 könnten jedwede leicht beobachtbare Stelle auf oder nahe dem Instrument 14 sein, wie z. B. das Ende einer Spritze oder Sonde. Die Teile 15 könnten ebenfalls Punkte mit einem bekannten Abstand vom Instrument 14 umfassen. In jedem Fall wird die Raumpositionsinformation für die Teile 15 des Instruments 14 gegenüber einem Punkt 13 bestimmt, der fest an dem Instrument 14 liegt, durch das Messen oder Kalibrieren des Instruments 14. Alternativ können sog. "intelligente" Instrumente, die Signale erzeugen, welche ihre Form angeben, verwendet werden, so dass die Position der Teile 15 des "intelligenten" Instruments bezüglich einem Punkt 13, fixiert an dem Instrument 14, leicht ermittelt werden könnte.
  • Wenn die Position der Teile 15 des Instruments 14 bezüglich eines Punktes 13, der gegenüber dem Instrument fixiert ist, bestimmt wird, wird diese Information in der Speichereinheit 38 gespeichert. Die Raumpositionsinformation der Teile 15 des Instruments 14 kann bezüglich des Referenzrahmens durch die Verarbeitungseinheit 39 bestimmt werden, welche die Raumpositionsinformation des Punktes 13, fixiert am Instrument 14, mit der Raumpositionsinformation der Teile 15 des Instruments 14 in Relation zu dem Punkt 13 kombiniert, der an dem Instrument 14 fixiert ist. Vorzugsweise entspricht der Punkt 13, der am Instrument 14 fixiert ist, der Stelle, wo der erste räumliche Determinator 12 an dem Instrument 14 befestigt ist. Ansonsten kann die Verarbeitungseinheit 39 einen zusätzlichen Ableitungsschritt für die Raumpositionsinformation des Punktes 13 durchführen, der am Instrument 14 fixiert ist, und zwar aus dem ersten räumlichen Signal Sp1 . Mit dieser Information mappt die Mappingeinheit 34 die Teile 15 des Instruments 14 auf die Position der Bilder 32. Das Mappingsignal Sm1 wird dann nicht nur die Position des Instruments 14 sondern auch die Position der Teile 15 des Instruments 14 bezüglich der Position der Bilder 32 angeben. Dies gestattet es der Bildverarbeitungseinheit 28 verarbeitete Bildsignale Is aus einer Sicht zu erzeugen, die in Bezug zur Raumposition eines der Teile 15 des Instruments 14 steht. Die präzise, auf der Anzeigeeinheit 30 anzuzeigende Sicht kann durch den Verwender des Systems 10 ausgewählt werden.
  • Der Ultraschall-Bildwandler 18 akquiriert in einer bevorzugten Ausführungsform Bilder 32 des Körpers 20. Noch bevorzugter werden die Bilder 32 schnell mit geringem Zeitabstand zwischen abfolgenden Bildern akquiriert. Noch bevorzugter akquiriert der Ultraschallwandler 18 die Bilder 32 in Echtzeit oder im Wesentlichen in Echtzeit, so dass keine zeitliche Verzögerung oder eine vernachlässigbar kleine zeitliche Verzögerung, wie z. B. weniger als 1 Sekunde, zwischen dem abfolgenden Sampling der Bilder 32 auftritt.
  • Auf diese Weise können die Bilder 32 in einer Abfolge dargestellt werden, um die Bewegung des Körpers 20 und der inneren Merkmale des Körpers 20 im Wesentlichen in Echtzeit zu zeigen. In gleicher Weise kann die Raumpositionsinformation für das Instrument periodisch gesampelt und auf die Bilder 32 des Körpers 20 gemappt werden. Somit werden sich die verarbeiteten Bilder 32, die auf der Anzeigeeinheit 30 angezeigt werden, über die Zeit entsprechend den Änderungen der Position und Ausrichtung des Instruments gegenüber dem Körper 20 ändern. Die dargestellten, verarbeiteten Bilder werden im Allgemeinen auf den aktuellsten Bildern 32 und der aktuellsten Information basieren. Dies gestattet es dem Verwender des Systems 10, Veränderungen im Körper 20 des Patienten 22 sowie die Bewegung des Instruments 14 im Körper 20 zu verfolgen. Auf diese Weise hat der Verwender die Fähigkeit, der Bewegung des Instruments 14 zu folgen und zu sehen, wie das Instrument 14 die inneren Funktionen des Körpers 20 während einer medizinischen Prozedur beeinflusst.
  • Bei einer bevorzugten Ausführungsform, wie sie in 1 gezeigt, ist der Körper 20 der anatomische Körper 20 des Patienten 22. Bei dieser Ausführungsform kann das Instrument 14 ein chirurgisches Instrument sein, und es kann eine Spritze, eine Sonde oder ein anderer Typ eines chirurgischen Instruments sein.
  • Der Schichtenstapel der zweidimensionalen Bilder 32 kann vor der Anzeige vorverarbeitet werden, um bestimmte anatomische Merkmale des anatomischen Körpers 20 zu verstärken, wie dies in der Technik bekannt ist. Die Verstärkung kann die Form einer Farbgebung für bestimmte Gewebe annehmen, die spezielle Organe repräsentieren, mit unterschiedlichen Farben, so dass die erzeugten inneren Bilder in klarer Weise unterschiedliche anatomische Merkmale im anatomischen Körper unterscheiden. Eine solche Vorverarbeitung des Schichtenstapels der zweidimensionalen Bilder kann durch die Bildverarbeitungseinheit 28 in bekannter Weise durchgeführt werden.
  • Es ist gleichermaßen in der Technik bekannt, dass der Schichtenstapel der zweidimensionalen Bilder 32 kombiniert werden kann, um eine dreidimensionale Wiedergabe der anatomischen Merkmale im anatomischen Körper 20 zu bilden. Auf diese Weise kann die Bildverarbeitungseinheit 28 verarbeitete Bilder Is erzeugen, die eine dreidimensionale Projektion des Volumens oder Raumes 33 im Körper 20 umfassen, und von der Perspektive des Instruments 14 im Körper 20 aus.
  • Wenn der Ultraschallwandler 18 ein dreidimensionaler Ultraschallwandler ist, werden die Bildsignale S1 eine dreidimensionale Wiedergabe des Körpers 20 umfassen. In gleicher Weise werden die Bilder, die in der Bildverarbeitungseinheit 28 gespeichert sind, und die verarbeiteten Bilder 62, die auf der Anzeigeeinheit 30 angezeigt werden, dreidimensionale Bilder sein.
  • Wie oben erwähnt, zeigt das erste Mappingsignal Sm1 die Position des Instruments 14 gemappt auf die Position der Bilder 32 an. Das erste Mappingsignal Sm1 kann ebenfalls aus Videoinformationen bestehen, die ausreichen, um eine Darstellung des Instruments 14 auf der Anzeigeeinheit 30 in einer Position bezüglich der Bilder 32 entsprechend der Position des Instruments 14 bezüglich des Körpers 20 darzustellen. Alternativ kann das erste Mappingsignal Sm1 ausreichend Informationen betreffend die Position umfassen, und, wenn gewünscht, die Ausrichtung des Instruments 14, so dass eine andere Einheit, wie z. B. die Bildverarbeitungseinheit 28 eine Darstellung 36 des Instruments 14 erzeugen kann. Eine Darstellung 36 des Instruments 14 wird angezeigt, wenn beispielsweise der Verwender eine Sicht oder Perspektive wählt, bei der ein Teil des Instruments sichtbar ist. Die 1 zeigt die Ausführungsform, bei der die Bildverarbeitungseinheit 28 das erste Mappingsignal Sm1 erhält und eine Darstellung 36 des Instruments 14 erzeugt. Die Darstellung 36 des Instruments 14 kann in die verarbeiteten Bildsignale Is eingearbeitet werden.
  • Bei einer Ausführungsform können die Bilder 32 durch die Bildverarbeitungseinheit 28 vorverarbeitet werden, um eine dreidimensionale Wiedergabe der anatomischen Merkmale im Körper 20 bereitzustellen. Bei dieser Ausführungsform könnte eine Wiedergabe 36 des Instruments 14, ebenfalls dreidimensional, auf der Anzeigeeinheit 30 angezeigt werden, wenn das Instrument aus der gewählten Perspektive und Sicht sichtbar ist. Dies gibt dem Verwender des Systems 10 den Anschein und das Gefühl einer chirurgischen Prozedur, jedoch ohne die Notwendigkeit eines großen Einschnitts in den Körper 20 des Patienten 22.
  • Es wird klar, dass ein Vorteil des vorliegenden Systems 10 sowie des Verfahrens zur Verwendung des Systems 10 darin liegt, dass der Schritt des Bestimmens der Position, und, wenn gewünscht, Ausrichtung des Instruments 14 relativ zur Position, und, wenn gewünscht, Ausrichtung der Bilder 32, unabhängig von der Position des Körpers 20 im Referenzrahmen ist. Mit anderen Worten sind alle Werte, die durch die Mappingeinheit 34 verwendet werden, um die Raumpositionsinformationen des Instruments 14 auf die Raumpositionsinformationen der Bilder 32 zu mappen, unabhängig von der Position oder Ausrichtung des Körpers 20. Dies bedeutet, dass der Patient 22 während der Prozedur nicht stabil gehalten werden muss. Der Patient 22 kann sich während der Prozedur bewegen, um ihm zu mehr Bequemlichkeit zu verhelfen. Auch kann der Patient während der Prozedur bewegt werden, um die Aspekte der Patientenanatomie aus verschiedenen Stellungen oder in Bewegung zu beobachten.
  • Die 3A und 3B zeigen die möglichen Ansichten, welche unter Verwendung des Verfahrens und Systems 10 der vorliegenden Erfindung angezeigt werden können. Wie in den 3A und 3B gezeigt ist, wird eine Fötus-Herzprozedur an einem Patienten 12 durchgeführt. Das Instrument 14 wird in den Fötus des Patienten 22 eingesetzt. Die Position und Ausrichtung des Instruments 14 und des Wandlers 18 werden unter Verwendung des Systems 10 und des Verfahrens wie oben beschrieben bestimmt. Die 3B zeigt die möglichen Ansichten, welche durch das System 10 erzeugt werden können.
  • Alle verarbeiteten Bilder 62A, 62B, 62C und 62D, die in 3A gezeigt sind, sind aus einer Sicht erzeugt worden, die räumlich zu der Raumposition des Instruments 14 in Bezug steht. Beispielsweise ist das verarbeitete Bild 62A eine Axial-1-Ansicht, erzeugt von einer Raumposition entlang einer ersten Achse des Instruments 14. Das verarbeitete Bild 62A zeigt den Fötus und eine Darstellung 36 des Instruments 14. In gleicher Weise ist das verarbeitete Bild 62B eine Axial-2-Ansicht, aufgenommen von einer Raumposition entlang einer zweiten Achse des Instruments 14, und es zeigt den Fötus und eine Darstellung 36 des Instruments 14. Das verarbeitete Bild 62C ist ein Bild eines Schnittes bzw. einer Schicht durch den Fötus, transaxial zum Instrument 14. Die Schichtebene ist senkrecht zu der Achse des Instruments 14, und die Spitze des Instruments 14 ist am Mittelpunkt der Schichten angeordnet und auf dem Bild mit einem Cursor "+" markiert.
  • Die Schichtebenen "Axial-1", "Axial-2" und "Transaxial an der Spitze" sind alle der Position und Ausrichtung des Instruments 14 so zugeordnet, dass die Bewegung des Instruments 14 eine Veränderung in den entsprechenden Bildern 62A, 62B und 62C bewirkt.
  • Das verarbeitete Bild 62D ist eine dreidimensionale Projektion des Fötus, erzeugt von den Bildern 32, die durch den Wandler 18 akquiriert wurden. Eine dreidimensionale Darstellung 36 des Instruments 14 erscheint ebenfalls im verarbeiteten Bild 62D. Die Ansicht des verarbeiteten Bildes 62D wird von einer Position erzeugt, die um einen vorbestimmten Abstand von der Seite des Instruments 14 liegt, und von einer Perspektive, die auf das Instrument 14 sieht, so dass die Darstellung 36 des Instruments 14 im verarbeiteten Bild 62D zu sehen ist.
  • Es wird klar, dass jede der Ansichten der verarbeiteten Bilder 62A, 62B, 62C und 62D von einer Raumposition, ob Punkt oder Achse, aufgenommen oder erzeugt werden, welche räumlich der Position des Instruments 14 so zugeordnet ist, dass sie entlang einer Achse von einem Punkt an oder nahe dem Instrument liegt. Dies ist der Fall obwohl die verarbeiteten Bilder 62A, 62B, 62C und 62D aus dem Bild 32 erzeugt werden, das durch den Wandler 18 akquiriert wird.
  • Die 4 zeigt eine weitere bevorzugte Ausführungsform der vorliegenden Erfindung. Das in 4 gezeigte System 110 hat einige gemeinsame Elemente mit dem in 1 gezeigten System 10, und gleiche Bezugszeichen werden für gleiche Merkmale verwendet. Jedoch ist das System 110 eine Erweiterung des Systems 10 dahingehend, dass ein weiteres Instrument 114 zusätzlich zum Instrument 14 verwendet wird. Das System 110 umfasst einen dritten räumlichen Determinator 112 zum Bestimmen der Raumpositionsinformation des anderen Instruments 114 im Referenzrahmen. Der dritte räumliche Determinator 112 sendet ein drittes räumliches Signal Sp3 zur Mappingeinheit 38, und zwar auf dieselbe Weise wie der erste räumliche Determinator 12 das erste räumliche Signal Sp1 zur Mappingeinheit 34 sendet. Das dritte räumliche Signal Sp3 repräsentiert die Raumpositionsinformation des anderen Instruments 114 im Referenzrahmen.
  • Die Mappingeinheit 34 empfängt das dritte räumliche Signal Sp3 und erzeugt ein zweites Mappingsignal Sm2 , welches die Position des anderen Instruments 114, gemappt auf die Position der Bilder 32 anzeigt. Die Bildverarbeitungseinheit 28 empfängt das zweite Mappingsignal Sm2 und erzeugt eine Darstellung 136 des anderen Instruments 114, mit einer Position, und, wenn gewünscht, Ausrichtung, relativ zu den Bildern 32 des Körpers 20, welche der Position, und, wenn gewünscht Ausrichtung des anderen Instruments 114 relativ zum Körper 20 entspricht. Die Darstellung 136 des anderen Instruments 114 wird auf der Anzeigeeinheit 30 erscheinen, wenn das andere Instrument 136 in den verarbeiteten Bildern 62 zu sehen ist.
  • Ferner könnte der Verwender eine Ansicht von einer Sicht auswählen, die räumlich dem anderen Instrument 114 zugeordnet ist. Auf diese Weise kann die Bildverarbeitungseinheit 28 die verarbeiteten Bildsignale Is von der Sicht des anderen Instrument 114 her erzeugen. Eine Darstellung 36 des Instruments 14 würde dann erzeugt werden und auf der Anzeigeeinheit 30 erscheinen.
  • Es versteht sich, dass das System 110 noch erweitert werden kann, so dass drei oder mehrer medizinische Instrumente oder Sonden getrackt werden können und ihre Darstellung auf der Anzeigeeinheit 30 in derselben Weise angezeigt wird, wie die Darstellungen des Instruments 14 und des anderen Instruments 114 angezeigt werden.
  • Zusätzlich können die Systeme 10 und 110 so erweitert werden, dass mehr als ein Wandler 18 verwendet wird. Die 5 zeigt eine weitere Ausführungsform, ähnlich der Ausführungsform der 4, aber mit einem zusätzlichen Wandler 118, der Bilder akquiriert, die in der Bildverarbeitungseinheit 28 gespeichert und verwendet werden, um das verarbeitete Bildsignal Is in derselben Weise zu erzeugen, wie oben mit einem Wandler 18 erörtert wurde.
  • Der zusätzliche Wandler 118 sendet ein zweites Bildsignal SI2 zur Bildverarbeitungseinheit 28, welches die akquirierten Bilder repräsentiert. Die Bildverarbeitungseinheit 28 speichert die Bilder, die durch den zusätzlichen Wandler 118 akquiriert werden, in einem zweiten Schichtenstapel 132. Der zweite Schichtenstapel 132 und der Schichtenstapel 32 werden durch die Verarbeitungseinheit 28 verwendet, um die verarbeiteten Bildsignale Is zu erzeugen. Die Position und Ausrichtung des zusätzlichen Wandlers 118 wird durch den dritten räumlichen Determinator 116 auf dieselbe Weise bestimmt, wie es oben für das andere Instrument 114 beschrieben wurde. In gleicher Weise können die Positionen und Ausrichtung der Bilder 32, die durch den zusätzlichen Wandler 118 akquiriert werden, ebenso bestimmt werden, wie es oben unter Bezugnahme auf den Wandler 18 beschrieben wurde.
  • Der prinzipielle Vorteil des zusätzlichen Wandlers 118 liegt darin, dass zusätzliche Bilder 132 akquiriert werden, die nicht durch den Wandler 18 akquiriert werden konnten, entweder weil der Wandler 18 kein Volumen abtasten kann, das groß genug ist, oder weil ein Teil der Ultraschallsignale, die vom Wandler 118 emittiert werden, geblockt werden, beispielsweise durch Knochen oder Knorpel. In jedem Fall kann die Bildverarbeitungseinheit 28 durch Verwendung von zwei Schichtenstapel 32, 132 verarbeitete Bildsignale Is erzeugen, welche Ansichten des Körpers 20 aufzeigen, die nicht erzeugt werden könnten, wenn nur ein Wandler 18 oder 118 verwendet würde. Dieses Prinzip kann auf mehr als zwei Wandler 18, 118 ausgedehnt werden, wenn dies gewünscht wird.
  • Während auf einen anatomischen Körper 20 eines Patienten 22 Bezug genommen wurde, versteht es sich, dass das vorliegende Verfahren und System 10, 110 auch im Zusammenhang mit jedwedem Körper 20 verwendet werden kann, der durch einen Ultraschall-Bildwandler abgebildet werden kann. In gleicher Weise versteht es sich, dass, während die vorliegende Erfindung in Bezug auf ein chirurgisches Instrument 14 beschrieben worden ist, diese Erfindung nicht auf ein chirurgisches Instrument 14 beschränkt ist. Vielmehr können das vorliegende Verfahren und die Systeme 10 in Zuordnung zu jedwedem Typ von Instrument oder Vorrichtung verwendet werden.
  • Es versteht sich, dass, obwohl verschiedene Merkmale der Erfindung bezüglich der einen oder anderen Ausführungsform der Erfindung beschrieben worden sind, die verschiedenen Merkmale in den Ausführungsformen der Erfindung kombiniert oder in Zusammenwirkung mit anderen Merkmalen oder Ausführungsformen der Erfindung verwendet werden können, wie sie hierin beschrieben und dargestellt wurde.

Claims (26)

  1. Verfahren zur Darstellung von inneren Bildern (32) eines Körpers (22) in Relation zu einem Instrument (14) in dem Körper (22), wobei die Bilder (32) durch einen Ultraschall-Bildwandler (18) akquiriert worden sind, wobei das Verfahren die folgenden Schritte aufweist: a) Beziehen von Raumpositionsinformationen für das Instrument (14), die eine Position und eine Ausrichtung des Instruments (14) in einem Referenzrahmen (24) umfassen; b) Beziehen von Raumpositionsinformationen (Sp2 ) für jedes der Bilder (32) des Körpers (22), das durch den Ultraschall-Bildwandler (18) akquiriert worden ist, die eine Position und eine Ausrichtung der Bilder (32) in dem Referenzrahmen (24) umfassen; c) Bestimmen der Position und der Ausrichtung des Instruments (14) relativ zur Position und Ausrichtung der Bilder (32); d) Verarbeiten der Bilder (32) zur Erzeugung von verarbeiteten Bildern (62), wobei die verarbeiteten Bilder so gewählt werden, dass sie eine Ansicht bereit stellen, die räumlich zu der Position des Instrumentes (14) in Beziehung steht; und e) Darstellen der verarbeiteten Bilder (62) des Körpers (22) auf einer Anzeige (30); dadurch gekennzeichnet, dass f) die Raumpositionsinformation des Instruments (14) mittels eines räumlichen Determinators (12) bezogen werden, der an dem Instrument (14) angeordnet ist; g) die Bilder (32), die durch den Ultraschallwandler (18) akquiriert werden, mit den Raumpositionsinformationen jedes Bildes gespeichert werden; und h) die verarbeiteten Bilder aus den gespeicherten Bildern erzeugt werden, basierend auf der Position und Ausrichtung des Instruments (14) relativ zur Position und Ausrichtung der Bilder.
  2. Verfahren nach Anspruch 1, das ferner den Schritt des Anzeigens einer Darstellung des Instruments auf der Anzeige umfasst, wobei die Darstellung eine Position und Ausrichtung relativ zu den verarbeiteten Bildern des Körpers hat, die der Position und Ausrichtung des Instruments relativ zum Körper entspricht.
  3. Verfahren nach Anspruch 1, bei dem der Schritt des Beziehens der Raumpositionsinformationen für die Bilder in dem Referenzrahmen die folgenden Schritte umfasst: (a) Bestimmen der Raumpositionsinformationen der Bilder bezüglich des Wandlers; (b) Beziehen von Raumpositionsinformationen für den Wandler, die eine Position und eine Ausrichtung des Wandlers im Referenzrahmen umfassen; und (c) Bestimmen der Position der akquirierten Bilder in dem Referenzrahmen aus den Raumpositionsinformationen für den Wandler im Referenzrahmen und den Raumpositionsinformationen der Bilder bezüglich des Wandlers.
  4. Verfahren nach Anspruch 3, bei dem der Schritt des Bestimmens der Raumpositionsinformationen für die Bilder bezüglich des Wandlers den Schritt des Kalibrierens des Wandlers aufweist, um eine Vektorposition (42) für die Bilder zu erhalten, die durch den Wandler akquiriert werden, bezüglich eines festen Punktes (24) auf dem Wandler.
  5. Verfahren nach Anspruch 4, bei dem der Schritt des Beziehens von Raumpositionsinformationen für den Wandler den Schritt des Beziehens einer Position und einer Ausrichtung des festen Punktes (24) auf dem Wandler im Referenzrahmen umfasst; und bei dem der Schritt des Bestimmens der Raumposition der Bilder in dem Referenzrahmen den Schritt des Addierens der Vektorposition der akquirierten Bilder bezüglich des festen Punktes auf dem Wandler zu den Raumpositionsinformationen des festen Punktes auf dem Wandler umfasst.
  6. Verfahren nach Anspruch 5, das ferner die folgenden Schritte umfasst: (a) Bestimmen von Raumpositionsinformationen für Punkte an oder nahe dem Instrument bezüglich einem Punkt, der am Instrument fixiert ist; (b) Beziehen von Raumpositionsinformationen für das Instrument durch das Beziehen einer Position und einer Ausrichtung des Punktes, der an dem Instrument fixiert ist, bezüglich des Referenzrahmens; (c) Bestimmen der Raumpositionsinformation für einen der Punkte an oder nahe dem Instrument durch das Kombinieren der Raumpositionsinformationen für den Punkt, der an dem Instrument fixiert ist, mit den Raumpositionsinformationen des einen der Punke an oder nahe dem Instrument bezüglich des am Instrument fixierten Punktes; und (d) Verarbeiten der Bilder zur Erzeugung von verarbeiteten Bildern, die eine Ansicht von einem der Punkte an oder nahe dem Instrument im Körper aufweisen.
  7. Verfahren nach Anspruch 6, bei dem die Bilder des Körpers eine Sequenz dreidimensionaler Bilder umfassen, welche in einer Sequenz im Wesentlichen in Echtzeit angezeigt werden können; und bei dem die verarbeiteten Bilder, die auf der Anzeige angezeigt werden, sich entsprechend den Änderungen in der Position und Ausrichtung des Instruments relativ zum Körper verändern; und welches ferner den Schritt des Anzeigens einer dreidimensionalen Darstellung des Instruments auf der Anzeige umfasst, wobei die Darstellung eine Position und eine Ausrichtung relativ zu den verarbeiteten Bildern hat, welche der Position und der Ausrichtung des Instruments relativ zum Körper entspricht.
  8. Verfahren nach Anspruch 1, bei dem der Körper ein anatomischer Körper und das Instrument ein chirurgisches Instrument ist.
  9. Verfahren nach Anspruch 1, bei dem die gespeicherten Bilder einen Schichtenstapel zweidimensionaler Bilder umfassen.
  10. Verfahren nach Anspruch 9, bei dem der Schritt des Erzeugens der verarbeiteten Bilder des Körpers den Schritt des Aufbereitens der verarbeiteten Bilder umfasst, um a natomische Merkmale des anatomischen Körpers aus der Sicht des Instruments darzustellen.
  11. Verfahren nach Anspruch 10, bei dem die aufbereiteten Bilder dreidimensionale Darstellungen der anatomischen Merkmale sind, aus einer Sicht und einer Perspektive, die räuinlich zur Position und Ausrichtung des Instruments in Bezug steht.
  12. Verfahren nach Anspruch 9, bei dem der Referenzrahmen in Bezug zum Operationsraum angeordnet ist und einen Ursprung umfasst, der im Referenzrahmen des Operationsraums festliegt, und der Referenzrahmen einen Abschnitt des Körpers enthält, den Ultraschall-Bildwandler, das Instrument und den festen Punkt; und wobei die Raumpositionsinformation des Instruments und der Bilder in Bezug auf den Referenzrahmen des Operationsraumes erhalten werden.
  13. Verfahren nach Anspruch 9, bei dem der Referenzrahmen in Bezug auf das Instrument angeordnet ist und einen Ursprung umfasst, der am Referenzrahmen des Instruments fixiert ist; und bei dem die Raumpositionsinformationen des Instruments und der Bilder in Bezug auf den Referenzrahmen des Instruments erhalten werden.
  14. Verfahren nach Anspruch 9, bei dem der Referenzrahmen in Bezug auf den Wandler angeordnet ist und einen Ursprung umfasst, welcher an dem Referenzrahmen des Wandlers fixiert ist; und bei dem die Raumpositionsinformationen des Instruments und der Bilder in Bezug auf den Referenzrahmen des Wandlers erhalten werden.
  15. Verfahren nach Anspruch 9, bei dem die Bewegung des Körpers in dem Referenzrahmen den Schritt der Bestimmung der Position des Instruments relativ zur Position der Bilder nicht beeinflusst.
  16. Verfahren nach Anspruch 3, das ferner die folgenden Schritte aufweist: (a) Beziehen von Raumpositionsinformationen für ein anderes Instrument, welche eine Position und eine Ausrichtung des anderen Instruments in dem Referenzrahmen umfassen; (b) Bestimmen der Position und der Ausrichtung des anderen Instruments relativ zu der Position und Ausrichtung der Bilder; (c) Bezeichnen des Instruments und des anderen Instruments als das ausgewählte Instrument und das nicht ausgewählte Instrument entsprechend einer Wahl durch den Benutzer; (d) Verarbeiten der Bilder zur Erzeugung von verarbeiteten Bildern aus einer Sicht, die räumlich zu der Position des ausgewählten Instruments in Bezug steht; und (e) Anzeigen einer Darstellung des nicht ausgewählten Instruments, wobei die Darstellung eine Position relativ zu den Bildern des Körpers aufweist, welche der Position des nicht ausgewählten Instruments relativ zum Körper entspricht.
  17. System 10 zum Anzeigen innerer Bilder (32) eines Körpers in Bezug auf ein Instrument (14) in dem Körper (12), wobei die Bilder (32) durch einen Ultraschall-Wandler (18) akquiriert worden sind, wobei das System 10 umfasst: eine erste räumliche Determinationseinrichtung (12) zum Bestimmen von Raumpositionsinformationen des Instruments (14), die eine Position und eine Ausrichtung des Instruments (14) in einem Referenzrahmen (24) umfassen, und zum Senden eines ersten räumlichen Signals (SP1 ), welches die Raumpositionsinformationen für das Instrument (14) für den Ultraschall-Bildwandler (18), welcher eine Position und eine Ausrichtung repräsentieren; eine zweite räumliche Determinationseinrichtung (16) zum Bestimmen von Raumpositionsinformationen des Ultraschall-Bildwandlers (18) in dem Referenzrahmen (24) umfassen, und zum Senden eines zweiten räumlichen Signals (SP1 ), welches die räumlichen Positionsinformationen für den Wandler (18) repräsentiert; einer Mapping-Einrichtung (34) zum Erhalten des ersten räumlichen Signals (Sp1 ) und des zweiten räumlichen Signals (SP2 ) und zur Erzeugung eines ersten Mapping-Signals (Sm1 ), das die Position und Ausrichtung des Instruments (14) relativ zur Position und Ausrichtung der Bilder (32) anzeigt; einer Bildverarbeitungseinrichtung (28) zum Empfangen des ersten Mapping-Signals (Sm1 ) und der Signale, welche die Bilder (32) repräsentieren, die durch den Wandler (18) akquiriert wurden, und zum Erzeugen von verarbeiteten Bilder (62) aus einer Sicht, die räumlich zu der Position des Instruments (14) in Bezug steht; und einer Anzeigeeinrichtung (30) zum Anzeigen der verarbeiteten Bilder (62); dadurch gekennzeichnet, dass die erste räumliche Determinationseinrichtung (12) an dem Instrument (14) angeordnet ist; und ferner gekennzeichnet durch eine Speichereinrichtung (38) zum Speichern von Raumpositionsinformationen der Bilder gegenüber dem Wandler (18); wobei die Bildverarbeitungseinrichtung (28) die Position der Bilder in dem Referenzrahmen aus dem zweiten räumlichen Signal (Sp2 ) und den Raumpositionsinformationen für die Bilder gegenüber dem Wandler (18), die in der Speichereinrichtung (38) gespeichert sind, bestimmt, und die Position des Instruments (14) auf die Position der Bilder mappt, um das erste Mapping-Signal (Sm1 ) zu erzeugen.
  18. System nach Anspruch 17, bei dem die Bildverarbeitungseinrichtung eine Darstellung des Instruments, basierend auf dem ersten Mapping-Signal erzeugt, wobei die Darstellung des Instruments eine Position relativ zu den verarbeiteten Bildern des Körpers hat, die der Position des Instrument relativ zum Körper entspricht.
  19. System nach Anspruch (17), bei dem die Raumpositionsinformationen für die Bilder bezüglich des Wandlers, die in der Speichereinrichtung gespeichert sind, eine Vektorposition der Bilder umfasst, die durch den Wandler akquiriert werden, in Bezug zu einem festen Punkt auf dem Wandler, der durch das Kalibrieren des Wandlers bestimmt wird; wobei das zweite räumliche Signal, das die Raumpositionsinformationen für den Wandler repräsentiert, eine Position des festen Punktes auf dem Wandler in dem Referenzrahmen umfasst; und bei dem die Verarbeitungseinrichtung die räumliche Position der Bilder in dem Referenzrahmen durch das Addieren der Vektorposition der Bilder bezüglich des festen Punktes auf dem Wandler zu den Raumpositionsinformationen des festen Punktes auf dem Wandler bestimmt.
  20. System nach Anspruch 19, bei dem das Instrument Teile hat und die Speichereinrichtung Raumpositionsinformationen der Teile des Instruments bezüglich eines festen Punktes auf dem Instrument speichert; wobei das erste räumliche Signal die Raumpositionsinformationen des am Instrument fixierten Punktes repräsentiert; wobei die Verarbeitungseinrichtung räumliche Positionsinformationen der Teile des Instruments in dem Referenzrahmen bestimmt, basierend auf dem ersten räumlichen Signal und den räumlichen Positionsinformationen der Teile des Instruments bezüglich des am Instrument fixierten festen Punktes; wobei die Verarbeitungseinrichtung die Position der Teile des Instruments auf die Positionen der Bilder mappt, so dass das erste Mapping-Signal die Position eines der Teile des Instruments relativ zu der Position der Bilder anzeigt; und wobei die Bildverarbeitungseinrichtung verarbeitete Bilder erzeugt, aus einer Sicht, die räumlich zu der Position eines der Teile des Instruments im Körper in Bezug steht.
  21. System nach Anspruch 17, bei dem die Bildverarbeitungseinrichtung die akquirierten Bilder speichert, mit den Raumpositionsinformationen für jedes Bild in einem Schichtenstapel zweidimensionaler Bilder.
  22. System nach Anspruch 19, bei dem die Bilder des Körpers eine Sequenz dreidimensionaler Bilder umfassen, welche in einer Sequenz in im Wesentlichen Echtzeit angezeigt werden können; und wobei die Sicht der verarbeiteten Bilder, die auf der Anzeige angezeigt werden, sich entsprechend den Änderungen in der Position und Ausrichtung des Instruments relativ zum Körper ändert; und wobei die Bildverarbeitungseinrichtung eine dreidimensionale Darstellung des Instruments auf der Anzeige erzeugt, wobei die Darstellung eine Position und eine Ausrichtung relativ zu den verarbeiteten Bildern hat, welche der Position und Ausrichtung des Instruments relativ zum Körper entspricht.
  23. System nach Anspruch 22, bei dem die dreidimensionalen Bilder eine Sicht und eine Perspektive aufweisen, die räumlich zu der Position und Ausrichtung des Instruments in Bezug steht.
  24. System nach Anspruch 19, bei dem der Körper ein anatomischer Körper und das Instrument ein chirurgisches Instrument ist.
  25. System nach Anspruch 19, das ferner aufweist: eine dritte räumliche Determinationseinrichtung zum Bestimmen von Raumpositionsinformationen für ein anderes Instrument, mit einer Position und einer Ausrichtung des anderen Instruments in dem Referenzrahmen und zum Senden eines dritten räumlichen Signals, welche die Raumpositionsinformationen des anderen Instruments repräsentiert; wobei die Mapping-Einrichtung das dritte Positionssignal empfängt und ein zweites Mapping-Signal erzeugt, das die Position und Ausrichtung des anderen Instruments, gemappt auf die Position und Ausrichtung der Bilder, anzeigt; und wobei die Bildverarbeitungseinrichtung das zweite Mapping-Signal empfängt und verarbeitete Bilder aus einer Sicht erzeugt, die zur räumlichen Position des Instruments oder des anderen Instruments in Bezug steht, abhängig von der Wahl des Benutzers.
  26. System nach Anspruch 19, das ferner aufweist: eine dritte räumliche Determinationseinrichtung zum Bestimmen von Raumpositionsinformationen eines zusätzlichen Ultraschall-Bildwandlers, der Bilder des Körpers akquiriert, welche eine Position und eine Ausrichtung des zusätzlichen Wandlers im Referenzrahmen umfassen, und zum Senden eines dritten räumlichen Signals, das die Raumpositionsinformationen des zusätzlichen Wandlers repräsentiert; wobei die Mapping-Einrichtung das dritte Positionssignal empfängt und ein zweites Mapping-Signal erzeugt, das die Position und die Ausrichtung des Instruments relativ zu einer Position und einer Ausrichtung der Bilder anzeigt, die durch den zusätzlichen Wandler akquiriert wurden; wobei die Bildverarbeitungseinrichtung das zweite Mapping-Signal empfängt, sowie Signale, welche die Bilder wiedergeben, die durch den zusätzlichen Wandler akquiriert wurden, und verarbeitete Bilder erzeugt, aus einer Sicht, welche zu der Position und der Ausrichtung des Instruments in Bezug steht, basierend auf den Signalen, welche die Bilder repräsentieren, die durch den Wandler und den zusätzlichen Wandler akquiriert wurden.
DE69721045T 1996-12-03 1997-11-28 Vorrichtung und verfahren zur darstellung von ultraschallbildern Expired - Lifetime DE69721045T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US08/758,721 US5810008A (en) 1996-12-03 1996-12-03 Apparatus and method for visualizing ultrasonic images
US758721 1996-12-03
PCT/CA1997/000908 WO1998025159A1 (en) 1996-12-03 1997-11-28 Apparatus and method for visualizing ultrasonic images

Publications (2)

Publication Number Publication Date
DE69721045D1 DE69721045D1 (de) 2003-05-22
DE69721045T2 true DE69721045T2 (de) 2004-02-05

Family

ID=25052825

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69721045T Expired - Lifetime DE69721045T2 (de) 1996-12-03 1997-11-28 Vorrichtung und verfahren zur darstellung von ultraschallbildern

Country Status (8)

Country Link
US (3) US5810008A (de)
EP (1) EP0946886B1 (de)
JP (1) JP2001514533A (de)
AU (1) AU5113098A (de)
CA (1) CA2273874C (de)
DE (1) DE69721045T2 (de)
IL (1) IL130268A (de)
WO (1) WO1998025159A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004026525A1 (de) * 2004-05-25 2005-12-22 Aesculap Ag & Co. Kg Verfahren und Vorrichtung zur eingriffslosen Bestimmung markanter Strukturen des menschlichen oder tierischen Körpers

Families Citing this family (302)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2652928B1 (fr) 1989-10-05 1994-07-29 Diadix Sa Systeme interactif d'intervention locale a l'interieur d'une zone d'une structure non homogene.
US5603318A (en) 1992-04-21 1997-02-18 University Of Utah Research Foundation Apparatus and method for photogrammetric surgical localization
WO1994004938A1 (en) 1992-08-14 1994-03-03 British Telecommunications Public Limited Company Position location system
US5803089A (en) 1994-09-15 1998-09-08 Visualization Technology, Inc. Position tracking and imaging system for use in medical applications
WO1997003609A1 (en) * 1995-07-16 1997-02-06 Ultra-Guide Ltd. Free-hand aiming of a needle guide
US6296613B1 (en) 1997-08-22 2001-10-02 Synthes (U.S.A.) 3D ultrasound recording device
US5810008A (en) * 1996-12-03 1998-09-22 Isg Technologies Inc. Apparatus and method for visualizing ultrasonic images
US6314310B1 (en) * 1997-02-14 2001-11-06 Biosense, Inc. X-ray guided surgical location system with extended mapping volume
US6226548B1 (en) 1997-09-24 2001-05-01 Surgical Navigation Technologies, Inc. Percutaneous registration apparatus and method for use in computer-assisted surgical navigation
US6585763B1 (en) 1997-10-14 2003-07-01 Vascusense, Inc. Implantable therapeutic device and method
US6050943A (en) 1997-10-14 2000-04-18 Guided Therapy Systems, Inc. Imaging, therapy, and temperature monitoring ultrasonic system
US6120453A (en) * 1997-11-17 2000-09-19 Sharp; William A. Three-dimensional ultrasound system based on the coordination of multiple ultrasonic transducers
US6021343A (en) 1997-11-20 2000-02-01 Surgical Navigation Technologies Image guided awl/tap/screwdriver
US6348058B1 (en) 1997-12-12 2002-02-19 Surgical Navigation Technologies, Inc. Image guided spinal surgery guide, system, and method for use thereof
US6241675B1 (en) * 1998-06-09 2001-06-05 Volumetrics Medical Imaging Methods and systems for determining velocity of tissue using three dimensional ultrasound data
EP1089669B1 (de) 1998-06-22 2008-03-19 AO Technology AG Fiducial matching mittels fiducial-schraube
US6477400B1 (en) 1998-08-20 2002-11-05 Sofamor Danek Holdings, Inc. Fluoroscopic image guided orthopaedic surgery system with intraoperative registration
DE19854905C2 (de) * 1998-11-27 2002-08-14 Siemens Ag Verfahren zur Darstellung der Spitze eines im Körper eines Patienten befindlichen medizinischen Instrumentes
US6174285B1 (en) * 1999-02-02 2001-01-16 Agilent Technologies, Inc. 3-D ultrasound imaging system with pre-set, user-selectable anatomical images
US6285902B1 (en) * 1999-02-10 2001-09-04 Surgical Insights, Inc. Computer assisted targeting device for use in orthopaedic surgery
US6106464A (en) * 1999-02-22 2000-08-22 Vanderbilt University Apparatus and method for bone surface-based registration of physical space with tomographic images and for guiding an instrument relative to anatomical sites in the image
DE69931074T2 (de) 1999-03-17 2006-11-16 Synthes Ag Chur Gerät zur darstellung und planung von kreuzbandersatzoperationen
US6470207B1 (en) 1999-03-23 2002-10-22 Surgical Navigation Technologies, Inc. Navigational guidance via computer-assisted fluoroscopic imaging
US8944070B2 (en) 1999-04-07 2015-02-03 Intuitive Surgical Operations, Inc. Non-force reflecting method for providing tool force information to a user of a telesurgical system
EP1171037A4 (de) * 1999-04-15 2004-03-24 Ultraguide Ltd Vorrichtung und verfahren zur detektion der biegung medizinischer invasiver werkzeuge während medizinischer eingriffe
JP4636696B2 (ja) * 1999-04-20 2011-02-23 アーオー テクノロジー アクチエンゲゼルシャフト ヒト又は動物の器官の表面における3d座標の経皮的獲得用の装置
US6491699B1 (en) 1999-04-20 2002-12-10 Surgical Navigation Technologies, Inc. Instrument guidance method and system for image guided surgery
US6233476B1 (en) 1999-05-18 2001-05-15 Mediguide Ltd. Medical positioning system
US7386339B2 (en) * 1999-05-18 2008-06-10 Mediguide Ltd. Medical imaging and navigation system
US9833167B2 (en) * 1999-05-18 2017-12-05 Mediguide Ltd. Method and system for superimposing virtual anatomical landmarks on an image
US7778688B2 (en) * 1999-05-18 2010-08-17 MediGuide, Ltd. System and method for delivering a stent to a selected position within a lumen
US8442618B2 (en) * 1999-05-18 2013-05-14 Mediguide Ltd. Method and system for delivering a medical device to a selected position within a lumen
US7343195B2 (en) * 1999-05-18 2008-03-11 Mediguide Ltd. Method and apparatus for real time quantitative three-dimensional image reconstruction of a moving organ and intra-body navigation
US9572519B2 (en) 1999-05-18 2017-02-21 Mediguide Ltd. Method and apparatus for invasive device tracking using organ timing signal generated from MPS sensors
US7840252B2 (en) 1999-05-18 2010-11-23 MediGuide, Ltd. Method and system for determining a three dimensional representation of a tubular organ
JP2001061861A (ja) 1999-06-28 2001-03-13 Siemens Ag 画像撮影手段を備えたシステムおよび医用ワークステーション
US6749606B2 (en) 1999-08-05 2004-06-15 Thomas Keast Devices for creating collateral channels
ATE258768T1 (de) 1999-08-05 2004-02-15 Broncus Tech Inc Verfahren und vorrichtungen zur herstellung von kollateralen kanälen in den lungen
US7815590B2 (en) 1999-08-05 2010-10-19 Broncus Technologies, Inc. Devices for maintaining patency of surgically created channels in tissue
US6712812B2 (en) 1999-08-05 2004-03-30 Broncus Technologies, Inc. Devices for creating collateral channels
EP1204369A1 (de) * 1999-08-16 2002-05-15 Super Dimension Ltd. Verfahren und system zur anzeige von schnittbildern
US6368285B1 (en) * 1999-09-21 2002-04-09 Biosense, Inc. Method and apparatus for mapping a chamber of a heart
US6878117B1 (en) * 1999-09-29 2005-04-12 Zargis Medical Corp. Handheld sensor for acoustic data acquisition
US6493573B1 (en) 1999-10-28 2002-12-10 Winchester Development Associates Method and system for navigating a catheter probe in the presence of field-influencing objects
US6499488B1 (en) 1999-10-28 2002-12-31 Winchester Development Associates Surgical sensor
US8239001B2 (en) 2003-10-17 2012-08-07 Medtronic Navigation, Inc. Method and apparatus for surgical navigation
US8644907B2 (en) 1999-10-28 2014-02-04 Medtronic Navigaton, Inc. Method and apparatus for surgical navigation
US11331150B2 (en) 1999-10-28 2022-05-17 Medtronic Navigation, Inc. Method and apparatus for surgical navigation
US6381485B1 (en) 1999-10-28 2002-04-30 Surgical Navigation Technologies, Inc. Registration of human anatomy integrated for electromagnetic localization
US6474341B1 (en) 1999-10-28 2002-11-05 Surgical Navigation Technologies, Inc. Surgical communication and power system
US7366562B2 (en) 2003-10-17 2008-04-29 Medtronic Navigation, Inc. Method and apparatus for surgical navigation
US7003143B1 (en) * 1999-11-02 2006-02-21 Hewitt Charles W Tomographic microscope for high resolution imaging and method of analyzing specimens
US6544178B1 (en) * 1999-11-05 2003-04-08 Volumetrics Medical Imaging Methods and systems for volume rendering using ultrasound data
US6413215B1 (en) * 2000-04-05 2002-07-02 The University Of Vermont Implant wear debris detection apparatus and method
US6969384B2 (en) * 2000-01-03 2005-11-29 The Johns Hopkins University Surgical devices and methods of use thereof for enhanced tactile perception
US6725080B2 (en) 2000-03-01 2004-04-20 Surgical Navigation Technologies, Inc. Multiple cannula image guided tool for image guided procedures
FR2806611B1 (fr) * 2000-03-22 2004-10-15 Hossein Kafai Appareil d'echographie pour l'exploration d'articulation temporo-mandibulaire
US6535756B1 (en) 2000-04-07 2003-03-18 Surgical Navigation Technologies, Inc. Trajectory storage apparatus and method for surgical navigation system
US7085400B1 (en) 2000-06-14 2006-08-01 Surgical Navigation Technologies, Inc. System and method for image based sensor calibration
US8565860B2 (en) * 2000-08-21 2013-10-22 Biosensors International Group, Ltd. Radioactive emission detector equipped with a position tracking system
US6517491B1 (en) 2000-10-31 2003-02-11 Koninklijke Philips Electronics N.V Transducer with spatial sensor
US6618620B1 (en) 2000-11-28 2003-09-09 Txsonics Ltd. Apparatus for controlling thermal dosing in an thermal treatment system
IL140136A (en) * 2000-12-06 2010-06-16 Intumed Ltd Apparatus for self-guided intubation
US7914453B2 (en) 2000-12-28 2011-03-29 Ardent Sound, Inc. Visual imaging system for ultrasonic probe
US6695786B2 (en) 2001-03-16 2004-02-24 U-Systems, Inc. Guide and position monitor for invasive medical instrument
US6685644B2 (en) * 2001-04-24 2004-02-03 Kabushiki Kaisha Toshiba Ultrasound diagnostic apparatus
JP2004529436A (ja) * 2001-05-18 2004-09-24 メイヨー・ファウンデーション・フォー・メディカル・エジュケーション・アンド・リサーチ 超音波診療院情報管理システム及び方法
US6636757B1 (en) 2001-06-04 2003-10-21 Surgical Navigation Technologies, Inc. Method and apparatus for electromagnetic navigation of a surgical probe near a metal object
US7708712B2 (en) 2001-09-04 2010-05-04 Broncus Technologies, Inc. Methods and devices for maintaining patency of surgically created channels in a body organ
US6947786B2 (en) 2002-02-28 2005-09-20 Surgical Navigation Technologies, Inc. Method and apparatus for perspective inversion
US6990368B2 (en) 2002-04-04 2006-01-24 Surgical Navigation Technologies, Inc. Method and apparatus for virtual digital subtraction angiography
US7998062B2 (en) 2004-03-29 2011-08-16 Superdimension, Ltd. Endoscope structures and techniques for navigating to a target in branched structure
US7599730B2 (en) 2002-11-19 2009-10-06 Medtronic Navigation, Inc. Navigation system for cardiac therapies
US7697972B2 (en) 2002-11-19 2010-04-13 Medtronic Navigation, Inc. Navigation system for cardiac therapies
US8088067B2 (en) 2002-12-23 2012-01-03 Insightec Ltd. Tissue aberration corrections in ultrasound therapy
US7505809B2 (en) * 2003-01-13 2009-03-17 Mediguide Ltd. Method and system for registering a first image with a second image relative to the body of a patient
US7542791B2 (en) 2003-01-30 2009-06-02 Medtronic Navigation, Inc. Method and apparatus for preplanning a surgical procedure
US7660623B2 (en) 2003-01-30 2010-02-09 Medtronic Navigation, Inc. Six degree of freedom alignment display for medical procedures
US7270634B2 (en) * 2003-03-27 2007-09-18 Koninklijke Philips Electronics N.V. Guidance of invasive medical devices by high resolution three dimensional ultrasonic imaging
WO2004086082A1 (en) * 2003-03-27 2004-10-07 Koninklijke Philips Electronics N.V. Guidance of invasive medical devices by wide view three dimensional ultrasonic imaging
WO2004093687A1 (en) * 2003-04-16 2004-11-04 Eastern Virginia Medical School System and method for generating operator independent ultrasound images
US8083678B2 (en) * 2003-04-16 2011-12-27 Eastern Virginia Medical School System, method and medium for acquiring and generating standardized operator independent ultrasound images of fetal, neonatal and adult organs
US7611462B2 (en) 2003-05-22 2009-11-03 Insightec-Image Guided Treatment Ltd. Acoustic beam forming in phased arrays including large numbers of transducer elements
US7377900B2 (en) * 2003-06-02 2008-05-27 Insightec - Image Guided Treatment Ltd. Endo-cavity focused ultrasound transducer
US8308682B2 (en) 2003-07-18 2012-11-13 Broncus Medical Inc. Devices for maintaining patency of surgically created channels in tissue
US8002740B2 (en) 2003-07-18 2011-08-23 Broncus Technologies, Inc. Devices for maintaining patency of surgically created channels in tissue
US7313430B2 (en) 2003-08-28 2007-12-25 Medtronic Navigation, Inc. Method and apparatus for performing stereotactic surgery
EP2316328B1 (de) 2003-09-15 2012-05-09 Super Dimension Ltd. Umhüllungsvorrichtung zur Fixierung von Bronchoskopen
US9089261B2 (en) 2003-09-15 2015-07-28 Covidien Lp System of accessories for use with bronchoscopes
US7835778B2 (en) * 2003-10-16 2010-11-16 Medtronic Navigation, Inc. Method and apparatus for surgical navigation of a multiple piece construct for implantation
US7840253B2 (en) 2003-10-17 2010-11-23 Medtronic Navigation, Inc. Method and apparatus for surgical navigation
WO2005065407A2 (en) * 2003-12-30 2005-07-21 Liposonix, Inc. Position tracking device
US7968851B2 (en) 2004-01-13 2011-06-28 Spectrum Dynamics Llc Dynamic spect camera
US8764725B2 (en) 2004-02-09 2014-07-01 Covidien Lp Directional anchoring mechanism, method and applications thereof
EP1744676B1 (de) * 2004-04-15 2015-07-22 The Johns Hopkins University Ultraschallkalibrierung und echtzeit-qualitätssicherung auf basis einer formulierung mit geschlossener form
US7567834B2 (en) 2004-05-03 2009-07-28 Medtronic Navigation, Inc. Method and apparatus for implantation between two vertebral bodies
US8235909B2 (en) * 2004-05-12 2012-08-07 Guided Therapy Systems, L.L.C. Method and system for controlled scanning, imaging and/or therapy
EP1778957A4 (de) 2004-06-01 2015-12-23 Biosensors Int Group Ltd Optimierung der messung radioaktiver strahlung an besonderen körperstrukturen
US8409167B2 (en) 2004-07-19 2013-04-02 Broncus Medical Inc Devices for delivering substances through an extra-anatomic opening created in an airway
US8409099B2 (en) 2004-08-26 2013-04-02 Insightec Ltd. Focused ultrasound system for surrounding a body tissue mass and treatment method
US7824348B2 (en) 2004-09-16 2010-11-02 Guided Therapy Systems, L.L.C. System and method for variable depth ultrasound treatment
US9011336B2 (en) 2004-09-16 2015-04-21 Guided Therapy Systems, Llc Method and system for combined energy therapy profile
US7393325B2 (en) 2004-09-16 2008-07-01 Guided Therapy Systems, L.L.C. Method and system for ultrasound treatment with a multi-directional transducer
US8444562B2 (en) 2004-10-06 2013-05-21 Guided Therapy Systems, Llc System and method for treating muscle, tendon, ligament and cartilage tissue
US8535228B2 (en) 2004-10-06 2013-09-17 Guided Therapy Systems, Llc Method and system for noninvasive face lifts and deep tissue tightening
US10864385B2 (en) 2004-09-24 2020-12-15 Guided Therapy Systems, Llc Rejuvenating skin by heating tissue for cosmetic treatment of the face and body
US9827449B2 (en) 2004-10-06 2017-11-28 Guided Therapy Systems, L.L.C. Systems for treating skin laxity
US11235179B2 (en) 2004-10-06 2022-02-01 Guided Therapy Systems, Llc Energy based skin gland treatment
US9694212B2 (en) 2004-10-06 2017-07-04 Guided Therapy Systems, Llc Method and system for ultrasound treatment of skin
US7758524B2 (en) 2004-10-06 2010-07-20 Guided Therapy Systems, L.L.C. Method and system for ultra-high frequency ultrasound treatment
US20060111744A1 (en) 2004-10-13 2006-05-25 Guided Therapy Systems, L.L.C. Method and system for treatment of sweat glands
US11883688B2 (en) 2004-10-06 2024-01-30 Guided Therapy Systems, Llc Energy based fat reduction
PT2409728T (pt) 2004-10-06 2017-11-16 Guided Therapy Systems Llc Sistema para o tratamento de tecidos por ultrassons
EP2279698A3 (de) 2004-10-06 2014-02-19 Guided Therapy Systems, L.L.C. Verfahren und System zur nicht invasiven kosmetischen Verbesserung von Dehnstreifen
US8690778B2 (en) 2004-10-06 2014-04-08 Guided Therapy Systems, Llc Energy-based tissue tightening
US8133180B2 (en) 2004-10-06 2012-03-13 Guided Therapy Systems, L.L.C. Method and system for treating cellulite
US11724133B2 (en) 2004-10-07 2023-08-15 Guided Therapy Systems, Llc Ultrasound probe for treatment of skin
US11207548B2 (en) 2004-10-07 2021-12-28 Guided Therapy Systems, L.L.C. Ultrasound probe for treating skin laxity
US7833221B2 (en) 2004-10-22 2010-11-16 Ethicon Endo-Surgery, Inc. System and method for treatment of tissue using the tissue as a fiducial
US9943274B2 (en) 2004-11-09 2018-04-17 Spectrum Dynamics Medical Limited Radioimaging using low dose isotope
US20060173350A1 (en) * 2005-01-11 2006-08-03 Scimed Life Systems, Inc. Systems and methods for three dimensional imaging with an orientation adjustable array
JP5345782B2 (ja) 2005-01-11 2013-11-20 ヴォルケイノウ・コーポレーション 血管情報取得装置
DE602006021274D1 (de) * 2005-02-09 2011-05-26 Hitachi Medical Corp Ultraschallvorrichtung und ultraschallverfahren
US20070064987A1 (en) * 2005-04-04 2007-03-22 Esham Matthew P System for processing imaging device data and associated imaging report information
US7571336B2 (en) 2005-04-25 2009-08-04 Guided Therapy Systems, L.L.C. Method and system for enhancing safety with medical peripheral device by monitoring if host computer is AC powered
US8870779B2 (en) * 2005-04-26 2014-10-28 Biosense Webster, Inc. Display of two-dimensional ultrasound fan
US9789608B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US11259870B2 (en) 2005-06-06 2022-03-01 Intuitive Surgical Operations, Inc. Interactive user interfaces for minimally invasive telesurgical systems
KR101258912B1 (ko) 2005-06-06 2013-04-30 인튜어티브 서지컬 인코포레이티드 복강경의 초음파 로보트 수술 시스템
US8398541B2 (en) 2006-06-06 2013-03-19 Intuitive Surgical Operations, Inc. Interactive user interfaces for robotic minimally invasive surgical systems
US20070016039A1 (en) 2005-06-21 2007-01-18 Insightec-Image Guided Treatment Ltd. Controlled, non-linear focused ultrasound treatment
EP1903944B1 (de) 2005-06-24 2017-04-19 Volcano Corporation Ko-aufzeichnung grafischer bilddaten mit darstellung dreidimensionaler gefässmerkmale
US8784336B2 (en) 2005-08-24 2014-07-22 C. R. Bard, Inc. Stylet apparatuses and methods of manufacture
US7835784B2 (en) 2005-09-21 2010-11-16 Medtronic Navigation, Inc. Method and apparatus for positioning a reference frame
EP3162318B1 (de) 2005-10-20 2019-10-16 Intuitive Surgical Operations, Inc. Hilfsbildanzeige und -manipulation auf einer computeranzeige in einem medizinischen robotischen system
US20070100234A1 (en) * 2005-10-27 2007-05-03 Arenson Jerome S Methods and systems for tracking instruments in fluoroscopy
US8608672B2 (en) 2005-11-23 2013-12-17 Insightec Ltd. Hierarchical switching in ultra-high density ultrasound array
US9168102B2 (en) 2006-01-18 2015-10-27 Medtronic Navigation, Inc. Method and apparatus for providing a container to a sterile environment
CN101460863B (zh) * 2006-04-05 2012-06-06 加利福尼亚州技术学院 通过声扭曲和散焦的3维成像
US8112292B2 (en) 2006-04-21 2012-02-07 Medtronic Navigation, Inc. Method and apparatus for optimizing a therapy
US8235901B2 (en) 2006-04-26 2012-08-07 Insightec, Ltd. Focused ultrasound system with far field tail suppression
US20070288264A1 (en) * 2006-05-01 2007-12-13 Image Exchange Partners, Llc Method and system for peer-to-peer radiology network tool
US8062211B2 (en) 2006-06-13 2011-11-22 Intuitive Surgical Operations, Inc. Retrograde instrument
US8560047B2 (en) 2006-06-16 2013-10-15 Board Of Regents Of The University Of Nebraska Method and apparatus for computer aided surgery
US10258425B2 (en) 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
US20090192523A1 (en) 2006-06-29 2009-07-30 Intuitive Surgical, Inc. Synthetic representation of a surgical instrument
US10008017B2 (en) 2006-06-29 2018-06-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US9718190B2 (en) 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US7728868B2 (en) 2006-08-02 2010-06-01 Inneroptic Technology, Inc. System and method of providing real-time dynamic imagery of a medical procedure site using multiple modalities
US9566454B2 (en) 2006-09-18 2017-02-14 Guided Therapy Systems, Llc Method and sysem for non-ablative acne treatment and prevention
US7656990B2 (en) * 2006-09-19 2010-02-02 The Board Of Trustees Of The Leland Stanford Junior University Adaptive anisotropic filtering of projection data for computed tomography
US8660635B2 (en) 2006-09-29 2014-02-25 Medtronic, Inc. Method and apparatus for optimizing a computer assisted surgical procedure
EP2068716B1 (de) 2006-10-02 2011-02-09 Hansen Medical, Inc. System für dreidimensionale ultraschall-abbildung
US8388546B2 (en) 2006-10-23 2013-03-05 Bard Access Systems, Inc. Method of locating the tip of a central venous catheter
US7794407B2 (en) 2006-10-23 2010-09-14 Bard Access Systems, Inc. Method of locating the tip of a central venous catheter
DE112007002742T5 (de) * 2006-12-01 2009-10-08 Panasonic Corporation, Kadoma-shi Sonographische Vorrichtung
US9216276B2 (en) 2007-05-07 2015-12-22 Guided Therapy Systems, Llc Methods and systems for modulating medicants using acoustic energy
US20150174388A1 (en) 2007-05-07 2015-06-25 Guided Therapy Systems, Llc Methods and Systems for Ultrasound Assisted Delivery of a Medicant to Tissue
PT2152167T (pt) 2007-05-07 2018-12-10 Guided Therapy Systems Llc Métodos e sistemas para acoplamento e focagem de energia acústica utilizando um componente acoplador
US8428690B2 (en) 2007-05-16 2013-04-23 General Electric Company Intracardiac echocardiography image reconstruction in combination with position tracking system
US8989842B2 (en) 2007-05-16 2015-03-24 General Electric Company System and method to register a tracking system with intracardiac echocardiography (ICE) imaging system
US8527032B2 (en) 2007-05-16 2013-09-03 General Electric Company Imaging system and method of delivery of an instrument to an imaged subject
US8364242B2 (en) * 2007-05-17 2013-01-29 General Electric Company System and method of combining ultrasound image acquisition with fluoroscopic image acquisition
US20090156947A1 (en) * 2007-05-22 2009-06-18 Seward James B Knowledgebased image informatics system and method
US8620473B2 (en) 2007-06-13 2013-12-31 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US9469034B2 (en) 2007-06-13 2016-10-18 Intuitive Surgical Operations, Inc. Method and system for switching modes of a robotic system
US9089256B2 (en) 2008-06-27 2015-07-28 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US9084623B2 (en) 2009-08-15 2015-07-21 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US9138129B2 (en) 2007-06-13 2015-09-22 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
EP2031531A3 (de) * 2007-07-20 2009-04-29 BrainLAB AG Integriertes medizintechnisches Anzeigesystem
EP2017756A1 (de) * 2007-07-20 2009-01-21 BrainLAB AG Verfahren zur Anzeige und/oder Bearbeitung bzw. Verarbeitung von Bilddaten medizinischen oder medizintechnischen Ursprungs mit Gestenerkennung
US8905920B2 (en) 2007-09-27 2014-12-09 Covidien Lp Bronchoscope adapter and method
US8251908B2 (en) 2007-10-01 2012-08-28 Insightec Ltd. Motion compensated image-guided focused ultrasound therapy system
US9439624B2 (en) * 2007-10-19 2016-09-13 Metritrack, Inc. Three dimensional mapping display system for diagnostic ultrasound machines and method
ES2832713T3 (es) 2007-11-26 2021-06-11 Bard Inc C R Sistema integrado para la colocación intravascular de un catéter
US8781555B2 (en) 2007-11-26 2014-07-15 C. R. Bard, Inc. System for placement of a catheter including a signal-generating stylet
US10449330B2 (en) 2007-11-26 2019-10-22 C. R. Bard, Inc. Magnetic element-equipped needle assemblies
US8849382B2 (en) 2007-11-26 2014-09-30 C. R. Bard, Inc. Apparatus and display methods relating to intravascular placement of a catheter
US9649048B2 (en) 2007-11-26 2017-05-16 C. R. Bard, Inc. Systems and methods for breaching a sterile field for intravascular placement of a catheter
US9521961B2 (en) 2007-11-26 2016-12-20 C. R. Bard, Inc. Systems and methods for guiding a medical instrument
US10751509B2 (en) 2007-11-26 2020-08-25 C. R. Bard, Inc. Iconic representations for guidance of an indwelling medical device
US10524691B2 (en) 2007-11-26 2020-01-07 C. R. Bard, Inc. Needle assembly including an aligned magnetic element
US10299753B2 (en) 2007-11-29 2019-05-28 Biosense Webster, Inc. Flashlight view of an anatomical structure
WO2009094646A2 (en) 2008-01-24 2009-07-30 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for image guided ablation
US8340379B2 (en) 2008-03-07 2012-12-25 Inneroptic Technology, Inc. Systems and methods for displaying guidance data based on updated deformable imaging data
WO2009122273A2 (en) 2008-04-03 2009-10-08 Superdimension, Ltd. Magnetic interference detection system and method
DE102008023218A1 (de) * 2008-05-10 2009-11-12 Aesculap Ag Verfahren und Vorrichtung zur Untersuchung eines Körpers mit einem Ultraschallkopf
WO2009147671A1 (en) 2008-06-03 2009-12-10 Superdimension Ltd. Feature-based registration method
US8218847B2 (en) 2008-06-06 2012-07-10 Superdimension, Ltd. Hybrid registration method
EP3058875B1 (de) 2008-06-06 2022-08-17 Ulthera, Inc. System für kosmetische behandlung und abbildung
WO2009156894A1 (en) * 2008-06-25 2009-12-30 Koninklijke Philips Electronics, N.V. Method and system for cardiac resynchronization therapy
US8864652B2 (en) 2008-06-27 2014-10-21 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip
US8932207B2 (en) 2008-07-10 2015-01-13 Covidien Lp Integrated multi-functional endoscopic tool
US8172753B2 (en) 2008-07-11 2012-05-08 General Electric Company Systems and methods for visualization of an ultrasound probe relative to an object
EP2313143B1 (de) 2008-08-22 2014-09-24 C.R. Bard, Inc. Katheteranordnung mit ekg-sensor und magnetischen baugruppen
US8165658B2 (en) 2008-09-26 2012-04-24 Medtronic, Inc. Method and apparatus for positioning a guide relative to a base
US8437833B2 (en) 2008-10-07 2013-05-07 Bard Access Systems, Inc. Percutaneous magnetic gastrostomy
US8963804B2 (en) * 2008-10-30 2015-02-24 Honeywell International Inc. Method and system for operating a near-to-eye display
US8425424B2 (en) 2008-11-19 2013-04-23 Inightee Ltd. Closed-loop clot lysis
US8175681B2 (en) 2008-12-16 2012-05-08 Medtronic Navigation Inc. Combination of electromagnetic and electropotential localization
EP2382010A4 (de) 2008-12-24 2014-05-14 Guided Therapy Systems Llc Verfahren und systeme zur fettreduzierung und/oder behandlung von cellulite
US8690776B2 (en) 2009-02-17 2014-04-08 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image guided surgery
US11464578B2 (en) 2009-02-17 2022-10-11 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
US8554307B2 (en) 2010-04-12 2013-10-08 Inneroptic Technology, Inc. Image annotation in image-guided medical procedures
US8641621B2 (en) 2009-02-17 2014-02-04 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
US8611984B2 (en) 2009-04-08 2013-12-17 Covidien Lp Locatable catheter
US8617073B2 (en) 2009-04-17 2013-12-31 Insightec Ltd. Focusing ultrasound into the brain through the skull by utilizing both longitudinal and shear waves
US9895135B2 (en) * 2009-05-20 2018-02-20 Analogic Canada Corporation Freehand ultrasound imaging systems and methods providing position quality feedback
US10039527B2 (en) * 2009-05-20 2018-08-07 Analogic Canada Corporation Ultrasound systems incorporating spatial position sensors and associated methods
US9532724B2 (en) 2009-06-12 2017-01-03 Bard Access Systems, Inc. Apparatus and method for catheter navigation using endovascular energy mapping
KR101773207B1 (ko) 2009-06-12 2017-08-31 바드 액세스 시스템즈, 인크. 카테터 팁 배치 방법
US9445734B2 (en) 2009-06-12 2016-09-20 Bard Access Systems, Inc. Devices and methods for endovascular electrography
US9623266B2 (en) 2009-08-04 2017-04-18 Insightec Ltd. Estimation of alignment parameters in magnetic-resonance-guided ultrasound focusing
US8918211B2 (en) 2010-02-12 2014-12-23 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US9492927B2 (en) 2009-08-15 2016-11-15 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US9289154B2 (en) 2009-08-19 2016-03-22 Insightec Ltd. Techniques for temperature measurement and corrections in long-term magnetic resonance thermometry
WO2011024074A2 (en) 2009-08-26 2011-03-03 Insightec Ltd. Asymmetric phased-array ultrasound transducer
US8494614B2 (en) 2009-08-31 2013-07-23 Regents Of The University Of Minnesota Combination localization system
US8494613B2 (en) 2009-08-31 2013-07-23 Medtronic, Inc. Combination localization system
AU2010300677B2 (en) 2009-09-29 2014-09-04 C.R. Bard, Inc. Stylets for use with apparatus for intravascular placement of a catheter
WO2011045669A2 (en) 2009-10-14 2011-04-21 Insightec Ltd. Mapping ultrasound transducers
US8368401B2 (en) 2009-11-10 2013-02-05 Insightec Ltd. Techniques for correcting measurement artifacts in magnetic resonance thermometry
US8715186B2 (en) 2009-11-24 2014-05-06 Guided Therapy Systems, Llc Methods and systems for generating thermal bubbles for improved ultrasound imaging and therapy
WO2011085815A1 (en) 2010-01-14 2011-07-21 Brainlab Ag Controlling a surgical navigation system
US9579120B2 (en) 2010-01-29 2017-02-28 University Of Virginia Patent Foundation Ultrasound for locating anatomy or probe guidance
JP2013518676A (ja) 2010-02-02 2013-05-23 シー・アール・バード・インコーポレーテッド カテーテルナビゲーションおよびチップの位置を特定するための装置および方法
US9113848B2 (en) * 2010-02-03 2015-08-25 Covidien Lp Surgical retrieval apparatus
US9852727B2 (en) 2010-04-28 2017-12-26 Insightec, Ltd. Multi-segment ultrasound transducers
US8932237B2 (en) 2010-04-28 2015-01-13 Insightec, Ltd. Efficient ultrasound focusing
EP2575611B1 (de) 2010-05-28 2021-03-03 C. R. Bard, Inc. Vorrichtung zur verwendung mit einem nadeleinsatz-führungssystem
EP2575610B1 (de) * 2010-05-28 2022-10-05 C. R. Bard, Inc. Einsatzführungssystem für nadeln und medizinische komponenten
US10582834B2 (en) 2010-06-15 2020-03-10 Covidien Lp Locatable expandable working channel and method
US9504446B2 (en) 2010-08-02 2016-11-29 Guided Therapy Systems, Llc Systems and methods for coupling an ultrasound source to tissue
EP2600937B8 (de) 2010-08-02 2024-03-06 Guided Therapy Systems, L.L.C. Systeme zur behandlung akuter und / oder chronischer verletzungen der weichteile
MX338127B (es) 2010-08-20 2016-04-04 Bard Inc C R Reconfirmacion de colocacion de una punta de cateter asistida por ecg.
US9981148B2 (en) 2010-10-22 2018-05-29 Insightec, Ltd. Adaptive active cooling during focused ultrasound treatment
US8801693B2 (en) 2010-10-29 2014-08-12 C. R. Bard, Inc. Bioimpedance-assisted placement of a medical device
US8857438B2 (en) 2010-11-08 2014-10-14 Ulthera, Inc. Devices and methods for acoustic shielding
BR112013017901A2 (pt) 2011-01-17 2016-10-11 Koninkl Philips Electronics Nv sistema para detecção de dispositivo médico, sistema de biopsia para detecção de dispositivo médico e método para detecção de dispositivo médico
US9625254B2 (en) 2011-01-27 2017-04-18 Koninklijke Philips N.V. Integration of fiber optic shape sensing within an interventional environment
EP2680778B1 (de) * 2011-03-03 2019-07-31 Koninklijke Philips N.V. System und verfahren zur automatisierten initialisierung und registrierung eines navigationssystems
US10368834B2 (en) 2011-04-26 2019-08-06 University Of Virginia Patent Foundation Bone surface image reconstruction using ultrasound
US8709034B2 (en) 2011-05-13 2014-04-29 Broncus Medical Inc. Methods and devices for diagnosing, monitoring, or treating medical conditions through an opening through an airway wall
US9486229B2 (en) 2011-05-13 2016-11-08 Broncus Medical Inc. Methods and devices for excision of tissue
US11911117B2 (en) 2011-06-27 2024-02-27 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US9498231B2 (en) 2011-06-27 2016-11-22 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
AU2012319093A1 (en) 2011-06-27 2014-01-16 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
JP6008960B2 (ja) 2011-07-06 2016-10-19 シー・アール・バード・インコーポレーテッドC R Bard Incorporated 挿入案内システムのためのニードル長決定および較正
EP2729215A4 (de) 2011-07-10 2015-04-15 Guided Therapy Systems Llc Verfahren und systeme für ultraschallbehandlungen
EP2731675B1 (de) 2011-07-11 2023-05-03 Guided Therapy Systems, L.L.C. Systeme und verfahren zur kopplung einer quelle an ein gewebe
WO2013078235A1 (en) 2011-11-23 2013-05-30 Broncus Medical Inc Methods and devices for diagnosing, monitoring, or treating medical conditions through an opening through an airway wall
US11109835B2 (en) 2011-12-18 2021-09-07 Metritrack Llc Three dimensional mapping display system for diagnostic ultrasound machines
US9295449B2 (en) 2012-01-23 2016-03-29 Ultrasonix Medical Corporation Landmarks for ultrasound imaging
WO2013116240A1 (en) 2012-01-30 2013-08-08 Inneroptic Technology, Inc. Multiple medical device guidance
WO2013119610A1 (en) * 2012-02-08 2013-08-15 Smith & Nephew, Inc. Ultrasound scanning
US8945113B2 (en) 2012-04-05 2015-02-03 Covidien Lp Electrosurgical tissue ablation systems capable of detecting excessive bending of a probe and alerting a user
US9263663B2 (en) 2012-04-13 2016-02-16 Ardent Sound, Inc. Method of making thick film transducer arrays
US9439622B2 (en) 2012-05-22 2016-09-13 Covidien Lp Surgical navigation system
US9498182B2 (en) 2012-05-22 2016-11-22 Covidien Lp Systems and methods for planning and navigation
US9439627B2 (en) 2012-05-22 2016-09-13 Covidien Lp Planning system and navigation system for an ablation procedure
US8750568B2 (en) 2012-05-22 2014-06-10 Covidien Lp System and method for conformal ablation planning
US9439623B2 (en) 2012-05-22 2016-09-13 Covidien Lp Surgical planning system and navigation system
US9510802B2 (en) 2012-09-21 2016-12-06 Guided Therapy Systems, Llc Reflective ultrasound technology for dermatological treatments
US10507066B2 (en) 2013-02-15 2019-12-17 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
CN104027893B (zh) 2013-03-08 2021-08-31 奥赛拉公司 用于多焦点超声治疗的装置和方法
US10314559B2 (en) 2013-03-14 2019-06-11 Inneroptic Technology, Inc. Medical device guidance
US10561862B2 (en) 2013-03-15 2020-02-18 Guided Therapy Systems, Llc Ultrasound treatment device and methods of use
US10105149B2 (en) 2013-03-15 2018-10-23 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
JP6123458B2 (ja) * 2013-04-25 2017-05-10 コニカミノルタ株式会社 超音波画像診断装置及び超音波画像診断装置の作動方法
CN103735312B (zh) * 2013-12-11 2016-01-27 中国科学院深圳先进技术研究院 多模影像超声引导手术导航系统
WO2015120256A2 (en) 2014-02-06 2015-08-13 C.R. Bard, Inc. Systems and methods for guidance and placement of an intravascular device
AU2015247951A1 (en) 2014-04-18 2016-11-17 Ulthera, Inc. Band transducer ultrasound therapy
US10952593B2 (en) 2014-06-10 2021-03-23 Covidien Lp Bronchoscope adapter
US9950194B2 (en) 2014-09-09 2018-04-24 Mevion Medical Systems, Inc. Patient positioning system
US9901406B2 (en) 2014-10-02 2018-02-27 Inneroptic Technology, Inc. Affected region display associated with a medical device
US10188467B2 (en) 2014-12-12 2019-01-29 Inneroptic Technology, Inc. Surgical guidance intersection display
US10973584B2 (en) 2015-01-19 2021-04-13 Bard Access Systems, Inc. Device and method for vascular access
US10426555B2 (en) 2015-06-03 2019-10-01 Covidien Lp Medical instrument with sensor for use in a system and method for electromagnetic navigation
WO2016210325A1 (en) 2015-06-26 2016-12-29 C.R. Bard, Inc. Connector interface for ecg-based catheter positioning system
US9949700B2 (en) 2015-07-22 2018-04-24 Inneroptic Technology, Inc. Medical device approaches
US9962134B2 (en) 2015-10-28 2018-05-08 Medtronic Navigation, Inc. Apparatus and method for maintaining image quality while minimizing X-ray dosage of a patient
FI3405294T3 (fi) 2016-01-18 2023-03-23 Ulthera Inc Pienikokoinen ultraäänilaite, jossa on renkaan muotoinen ultraääniryhmä, joka on yhdistetty sähköisesti reunalle taipuisaan piirilevyyn
US11000207B2 (en) 2016-01-29 2021-05-11 C. R. Bard, Inc. Multiple coil system for tracking a medical device
US9675319B1 (en) 2016-02-17 2017-06-13 Inneroptic Technology, Inc. Loupe display
US10478254B2 (en) 2016-05-16 2019-11-19 Covidien Lp System and method to access lung tissue
BR112018072101B1 (pt) 2016-08-16 2024-01-02 Ulthera, Inc Sistemas e métodos para tratamento cosmético da pele com ultrassom
US10278778B2 (en) 2016-10-27 2019-05-07 Inneroptic Technology, Inc. Medical device navigation using a virtual 3D space
US10792106B2 (en) 2016-10-28 2020-10-06 Covidien Lp System for calibrating an electromagnetic navigation system
US10751126B2 (en) 2016-10-28 2020-08-25 Covidien Lp System and method for generating a map for electromagnetic navigation
US10517505B2 (en) 2016-10-28 2019-12-31 Covidien Lp Systems, methods, and computer-readable media for optimizing an electromagnetic navigation system
US10418705B2 (en) 2016-10-28 2019-09-17 Covidien Lp Electromagnetic navigation antenna assembly and electromagnetic navigation system including the same
US10446931B2 (en) 2016-10-28 2019-10-15 Covidien Lp Electromagnetic navigation antenna assembly and electromagnetic navigation system including the same
US10638952B2 (en) 2016-10-28 2020-05-05 Covidien Lp Methods, systems, and computer-readable media for calibrating an electromagnetic navigation system
US10722311B2 (en) 2016-10-28 2020-07-28 Covidien Lp System and method for identifying a location and/or an orientation of an electromagnetic sensor based on a map
US10615500B2 (en) 2016-10-28 2020-04-07 Covidien Lp System and method for designing electromagnetic navigation antenna assemblies
US11832877B2 (en) 2017-04-03 2023-12-05 Broncus Medical Inc. Electrosurgical access sheath
US11259879B2 (en) 2017-08-01 2022-03-01 Inneroptic Technology, Inc. Selective transparency to assist medical device navigation
US11219489B2 (en) 2017-10-31 2022-01-11 Covidien Lp Devices and systems for providing sensors in parallel with medical tools
US11484365B2 (en) 2018-01-23 2022-11-01 Inneroptic Technology, Inc. Medical image guidance
US11944849B2 (en) 2018-02-20 2024-04-02 Ulthera, Inc. Systems and methods for combined cosmetic treatment of cellulite with ultrasound
CN112566581B (zh) 2018-08-10 2024-03-19 柯惠有限合伙公司 用于消融可视化的系统
WO2020081373A1 (en) 2018-10-16 2020-04-23 Bard Access Systems, Inc. Safety-equipped connection systems and methods thereof for establishing electrical connections

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2443558B2 (de) * 1974-09-11 1979-01-04 Siemens Ag, 1000 Berlin Und 8000 Muenchen Vorrichtung zum Punktieren von körperinternen Organen und Gefäßen
DE2936259A1 (de) * 1979-09-07 1981-03-19 Siemens AG, 1000 Berlin und 8000 München Vorrichtung zum punktieren von koerperinternen organen, gefaessen o.dgl.
JPS5752446A (en) * 1980-09-16 1982-03-27 Aloka Co Ltd Ultrasonic diagnostic apparatus
JPS57131432A (en) * 1981-02-09 1982-08-14 Yokogawa Electric Works Ltd Ultrasonic probe for drilling
US4407294A (en) * 1982-01-07 1983-10-04 Technicare Corporation Ultrasound tissue probe localization system
US4567896A (en) * 1984-01-20 1986-02-04 Elscint, Inc. Method and apparatus for calibrating a biopsy attachment for ultrasonic imaging apparatus
US4791934A (en) * 1986-08-07 1988-12-20 Picker International, Inc. Computer tomography assisted stereotactic surgery system and method
US5251127A (en) * 1988-02-01 1993-10-05 Faro Medical Technologies Inc. Computer-aided surgery apparatus
US4899756A (en) * 1988-07-18 1990-02-13 Sonek Jiri D Articulated needle guide for ultrasound imaging and method of using same
EP0427358B1 (de) * 1989-11-08 1996-03-27 George S. Allen Mechanischer Arm für ein interaktives, bildgesteuertes, chirurgisches System
US5158088A (en) * 1990-11-14 1992-10-27 Advanced Technology Laboratories, Inc. Ultrasonic diagnostic systems for imaging medical instruments within the body
DE69133603D1 (de) * 1990-10-19 2008-10-02 Univ St Louis System zur Lokalisierung einer chirurgischen Sonde relativ zum Kopf
GB9025431D0 (en) * 1990-11-22 1991-01-09 Advanced Tech Lab Three dimensional ultrasonic imaging
US5161536A (en) * 1991-03-22 1992-11-10 Catheter Technology Ultrasonic position indicating apparatus and methods
US5261404A (en) * 1991-07-08 1993-11-16 Mick Peter R Three-dimensional mammal anatomy imaging system and method
US5608849A (en) * 1991-08-27 1997-03-04 King, Jr.; Donald Method of visual guidance for positioning images or data in three-dimensional space
US5325860A (en) * 1991-11-08 1994-07-05 Mayo Foundation For Medical Education And Research Ultrasonic and interventional catheter and method
US5389101A (en) * 1992-04-21 1995-02-14 University Of Utah Apparatus and method for photogrammetric surgical localization
FR2694881B1 (fr) * 1992-07-31 1996-09-06 Univ Joseph Fourier Procede de determination de la position d'un organe.
US5517990A (en) * 1992-11-30 1996-05-21 The Cleveland Clinic Foundation Stereotaxy wand and tool guide
US5732703A (en) * 1992-11-30 1998-03-31 The Cleveland Clinic Foundation Stereotaxy wand and tool guide
US5311871A (en) * 1993-01-12 1994-05-17 Yock Paul G Syringe with ultrasound emitting transducer for flow-directed cannulation of arteries and veins
US5483961A (en) * 1993-03-19 1996-01-16 Kelly; Patrick J. Magnetic field digitizer for stereotactic surgery
US5490223A (en) * 1993-06-22 1996-02-06 Kabushiki Kaisha Toshiba Pattern recognition apparatus
US5391199A (en) * 1993-07-20 1995-02-21 Biosense, Inc. Apparatus and method for treating cardiac arrhythmias
IL107523A (en) * 1993-11-07 2000-01-31 Ultraguide Ltd Articulated needle guide for ultrasound imaging and method of using same
US5531227A (en) * 1994-01-28 1996-07-02 Schneider Medical Technologies, Inc. Imaging device and method
US5398690A (en) * 1994-08-03 1995-03-21 Batten; Bobby G. Slaved biopsy device, analysis apparatus, and process
US5515853A (en) * 1995-03-28 1996-05-14 Sonometrics Corporation Three-dimensional digital ultrasound tracking system
EP0736284A3 (de) * 1995-04-03 1999-06-16 Hans Dr. Polz Verfahren und Vorrichtung zur Erfassung von diagnostisch verwertbaren, dreidimensionalen Ultraschallbilddatensätzen
US5660185A (en) * 1995-04-13 1997-08-26 Neovision Corporation Image-guided biopsy apparatus with enhanced imaging and methods
IL119262A0 (en) * 1996-02-15 1996-12-05 Biosense Israel Ltd Locatable biopsy needle
US5810008A (en) * 1996-12-03 1998-09-22 Isg Technologies Inc. Apparatus and method for visualizing ultrasonic images

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004026525A1 (de) * 2004-05-25 2005-12-22 Aesculap Ag & Co. Kg Verfahren und Vorrichtung zur eingriffslosen Bestimmung markanter Strukturen des menschlichen oder tierischen Körpers
US7691062B2 (en) 2004-05-25 2010-04-06 Aesculap Ag Method and apparatus for the non-invasive determination of prominent structures of the body of a human being or an animal

Also Published As

Publication number Publication date
US5957844A (en) 1999-09-28
IL130268A0 (en) 2000-06-01
US6203497B1 (en) 2001-03-20
EP0946886B1 (de) 2003-04-16
CA2273874A1 (en) 1998-06-11
US5810008A (en) 1998-09-22
JP2001514533A (ja) 2001-09-11
DE69721045D1 (de) 2003-05-22
AU5113098A (en) 1998-06-29
CA2273874C (en) 2007-05-15
WO1998025159A1 (en) 1998-06-11
EP0946886A1 (de) 1999-10-06
IL130268A (en) 2004-05-12

Similar Documents

Publication Publication Date Title
DE69721045T2 (de) Vorrichtung und verfahren zur darstellung von ultraschallbildern
DE60018247T2 (de) System und Methode zur Verwendung mit bildgebenden Verfahren zur Erleichterung der Planung von chirurgischen Eingriffen
EP0652726B1 (de) Verfahren zur darstellung des inneren von körpern
DE102005040528B4 (de) Drahtlose Erfassung der Ausrichtung eines Endoskops
DE69831138T2 (de) System zur darstellung eines zweidimensionalen ultraschallbildes in einer dreidimensionalen bildbetrachtungsumgebung
DE60317358T2 (de) System zur Positionierung einer medizinischen Vorrichtung
DE69432961T2 (de) Anordnung zur Bestimmung der gegenseitigen Lage von Körpern
DE69922980T2 (de) Verfahren und vorrichtung zur positionierung eines geräts in einem körper
DE60010309T2 (de) Verfahren zur echtzeitdarstellung von medizinischen bildern
DE69826421T2 (de) Bildgesteuerte Eingriffsverfahren
DE60028487T2 (de) Vaskuläre Rekonstruktion
DE69133548T2 (de) System zum Anzeigen einer Stelle in dem Körper eines Patienten
EP2082687B1 (de) Überlagerte Darstellung von Aufnahmen
DE10083670B4 (de) System zur Translation elektromagnetischer und optischer Lagemessungssysteme
DE60212313T2 (de) Vorrichtung zur Ultraschall-Bilddarstelllung einer Biopsiekanüle
DE10221642B4 (de) Verfahren und Steuereinrichtung zur Steuerung einer Schichtbildaufnahmeeinrichtung
EP2632382B1 (de) Navigationsaufsatz für optische geräte in der medizin und verfahren
DE10315242B4 (de) Verfahren und Vorrichtung zur realitätsnahen dreidimensionalen Bildgebung
EP1199031A2 (de) Röntgenfreies intravaskuläres Lokalisierungs- und Bildgebungsverfahren
EP1319368B1 (de) Verfahren zur Bestimmung der Orientierung und Relativposition eines medizinischen Instruments
DE4417944A1 (de) Verfahren zum Korrelieren verschiedener Koordinatensysteme in der rechnergestützten, stereotaktischen Chirurgie
DE102004030836A1 (de) Verfahren zur Bilddarstellung eines in einen sich rhythmisch oder arhythmisch bewegenden Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments, insbesondere eines Katheters
EP1127545A2 (de) Verfahren zur Lokalisierung von Objekten in der interventionellen Radiologie
DE112007001214T5 (de) Verfahren und Vorrichtung zur 3D-Akquisition, 3D-Visualisierung und computergeführten Operation mit Nuklearsonden
DE102005045602B4 (de) Verfahren zum Unterstützen eines interventionellen medizinischen Eingriffs

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: BRAINLAB AG, 85622 FELDKIRCHEN, DE