DE19543410A1 - Virtuelles Untersuchungssystem für innere Hohlräume - Google Patents

Virtuelles Untersuchungssystem für innere Hohlräume

Info

Publication number
DE19543410A1
DE19543410A1 DE19543410A DE19543410A DE19543410A1 DE 19543410 A1 DE19543410 A1 DE 19543410A1 DE 19543410 A DE19543410 A DE 19543410A DE 19543410 A DE19543410 A DE 19543410A DE 19543410 A1 DE19543410 A1 DE 19543410A1
Authority
DE
Germany
Prior art keywords
viewpoint
path
image
images
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE19543410A
Other languages
English (en)
Other versions
DE19543410B4 (de
Inventor
William Edward Lorensen
Ferenc Andras Jolesz
Ron Kikinis
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of DE19543410A1 publication Critical patent/DE19543410A1/de
Application granted granted Critical
Publication of DE19543410B4 publication Critical patent/DE19543410B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • G09B23/285Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine for injections, endoscopy, bronchoscopy, sigmoidscopy, insertion of contraceptive devices or enemas

Description

Die vorliegende Erfindung bezieht sich auf die Darstellung von Durchgängen bzw. Verbindungsgängen innerhalb eines festen Kör­ pers, insbesondere auf die nicht-eindringende Simulation von Ansichten innerhalb von Durchgängen aus Abbildungsdaten.
Manchmal ist es erforderlich Ansichten von Durchgängen bzw. Verbindungsgängen, die sich durch feste Objekte erstrecken, von einem Ansichtspunkt innerhalb des Durchgangs bzw. Verbindungs­ gangs aus zu erhalten. Falls das Objekt ein Patient ist, ist es erforderlich, Blockierungen oder Strukturen im Dickdarm, in Eingeweiden, Bronchien, Arterien, usw. zu sehen. Ein Endoskop ist eine derartige Einrichtung, die Echtzeitansichten mit hoher Auflösung von dem inneren von hohlen Organen und Hohlräumen innerhalb des menschlichen Körpers erzeugt. Obwohl eine endos­ kopische Untersuchung meist nicht-eindringend ist, erfordern die Verfahren immer noch einige Beruhigungsmittel oder Narkoti­ ka, um die Unbequemlichkeit für den Patienten zu verringern.
Innere Ansichtseinrichtungen ähnlich dem Endoskop können bei nicht-medizinischen Anwendungen verwendet werden, um die Durch­ gänge bzw. Verbindungsgänge innerhalb einer festen Struktur zu sehen. Einige dieser Einrichtungen ermöglichen innere Ansichten nicht, da der Durchgang bzw. Verbindungsgang oder Hohlraum kei­ ne Öffnung zur Außenseite besitzen kann oder eine fortlaufende Öffnung zur Außenseite besitzt, die nicht groß genug ist, um die innere Ansichtseinrichtung aufzunehmen.
Ein weiteres Problem der inneren Ansichtseinrichtungen besteht darin, daß das Gesichtsfeld auf einen kleinen Bereich innerhalb des Durchgangs bzw. Verbindungsgangs beschränkt ist. Es ist sehr schwierig, die genaue Position innerhalb des Objekts fest­ zustellen, um das Bild von der inneren Abbildungseinrichtung mit der Gesamtstruktur des Objekts in Beziehung zu setzen bzw. zu korrelieren.
Um die Position innerhalb der Objekts zu bestimmen, wurde die Röntgenstrahl-Computer-Tomographie (CT) oder die Magnetreso­ nanz-Abbildung (MRI) verwendet, um innere anatomische Struktu­ ren des Objekts anzuzeigen. Diese Verfahren sind nicht-zer­ störende/nicht-eindringende Abbildungstechniken. Typischer­ weise wurden sie verwendet, um die mittels der inneren Abbil­ dungseinrichtung erhaltenen Bilder zu ergänzen, um zu versu­ chen, das gesehene Bild mit einer Lokalisierung innerhalb des Objekts in Beziehung zu setzen bzw. zu korrelieren.
Bei einer medizinischen Anwendung sieht ein Radiologe typi­ scherweise zweidimensionale (2D) Querschnitte und erzeugt ein mentales Bild von dreidimensionalen (3D) Strukturen und korre­ liert bzw. setzt die Bilder in Beziehung zu von innerhalb der Durchgänge bzw. Verbindungsgänge mit ihrer dreidimensionalen (3D) Lokalisierung innerhalb des Objekts. Jedoch, wenn das Ob­ jekt komplexe innere Strukturen besitzt, wie beispielsweise röhrenförmige Strukturen im Körper, die wiederholt vor und zu­ rück durch die Querschnitte verlaufen, treten Probleme auf.
Gegenwärtig besteht ein Bedarf nach einer Einrichtung, die nicht-eindringend Bilder von inneren Durchgängen bzw. Verbin­ dungsgängen eines festen Körpers anzeigt, zusammen mit einer Darstellung, wo innerhalb des Objekts die Ansicht erfaßt wird.
Eine Aufgabe der vorliegenden Erfindung besteht darin, ein An­ zeigesystem zu schaffen, das nicht-eindringend Bilder von Hohl­ räumen innerhalb eines Objekts zusammen mit einem Bild zum Identifizieren des Ansichtspunkts des inneren Bilds in Bezie­ hung zum gesamten Objekt erzeugt.
Eine weitere Aufgabe der vorliegenden Erfindung besteht darin, ein System zu schaffen, das einem Bediener ermöglicht, Struktu­ ren und Oberflächen innerhalb eines Hohlraums eines Objekts mit keiner Öffnung zur Außenseite des Objekts zu sehen.
Die vorliegende Erfindung erzeugt beide Arten von Ansichten, innere "virtuelle endoskopische" Ansichten und eine Gesamtan­ sicht zum Anzeigen der augenblicklichen Endoskop-Position.
Die Merkmale der Erfindung, die für neu gehalten werden, sind genau in den Ansprüchen angegeben. Die Erfindung selbst jedoch, sowohl die Anordnung als auch das Betriebsverfahren, zusammen mit weiteren Aufgaben und Vorteilen werden am besten anhand der folgenden Beschreibung in Verbindung mit der Zeichnung ver­ standen.
Es zeigen:
Fig. 1 ein vereinfachtes Blockschaltbild des erfindungsgemäßen Systems,
Fig. 2 eine Darstellung einer zweidimensionalen (2D) Abstands­ bezeichnung zur Verwendung bei der Pfadplanung der vorliegenden Erfindung,
Fig. 3 eine Darstellung der Pfadplanung entsprechend einem Aus­ führungsbeispiel der vorliegenden Erfindung,
Fig. 4 eine computererzeugte Ansicht der Innenseite eines Dick­ darms eines Objekts, und
Fig. 5 ein Gesamt-"Kartenbild", das mit einem Zylindersymbol als Anzeige des Ansichtspunkts des Bilds aus Fig. 4 erzeugt ist.
Die vorliegende Erfindung ermöglicht die Darstellung von Durch­ gängen bzw. Verbindungsgängen innen in einem Objekt und die Untersuchung von Oberflächen und Strukturen innerhalb dieser Durchgänge bzw. Verbindungsgänge.
In Fig. 1 ist ein virtuelles Untersuchungssystem für Hohlräume mit zahlreichen Untersystemen gezeigt:
  • 1. eine Bilderfassungseinrichtung 21, die zum nicht-eindrin­ genden Erzeugen von Abbildungsinformationen von inneren Struk­ turen eines Objekt geeignet ist. Dies können Röntgenstrahl- Computer-Tomographie- (Röntgenstrahl-CT) und Magnetresonanz- Abbildungs- (MRI) oder Ultraschall-Systeme sein,
  • 2. eine Segmentierungs- bzw. Gliederungseinrichtung 23, die interessierendes Gewebe innerhalb eines durch die Bildinforma­ tion beschriebenen Volumens identifiziert bzw. erkennt,
  • 3. eine Oberflächenextraktionseinrichtung 25, die polygonische bzw. vieleckige Modelle von jedem ausgewählten Gewebe erzeugt,
  • 4. eine Modellwiedergabeeinrichtung 29, die fähig ist, den po­ lygonischen bzw. vieleckigen Datensatz zu transformieren bzw. umzuwandeln und zu manipulieren,
  • 5. eine funktionell partitionierte bzw. aufgeteilte Speicher­ einrichtung zum Speichern von Abbildungsinformation, und
  • 6. optional ein Pfadfinder-Untersystem 35, das eine "sichere" Durchlaßkurve durch ein vom Bediener ausgewähltes Organ be­ rechnet.
Bilderfassung
Röntgenstrahl-, Computer-Tomographie- (CT), Magnetresonanz- Abbildungs- (MRI) oder Ultraschall-Systeme können als Erfassungs­ einrichtung 21 verwendet werden, um mehrdimensionale Abbil­ dungsinformationen bezüglich innerer Strukturen eines Objekts 3 zu erfassen. Diese Informationen kann zu einer vorausgehenden Zeit erfaßt und in einer Speichereinrichtung bzw. einem Spei­ cher 10 gespeichert werden oder kann interaktiv bzw. im Dialog­ betrieb erfaßt werden, so wie erforderlich. Die Speicherein­ richtung 10 ist funktionell derart aufgeteilt, daß zahlreiche Arten von Informationen unabhängig gespeichert werden und wiederaufgefunden werden können, ohne andere in der Speicher­ einrichtung 10 gespeicherte Informationen zu unterbrechen.
Segmentierung bzw. Gliederung
Die in der Speichereinrichtung 10 gespeicherten Informationen werden einer Segmentierungs- bzw. Gliederungseinrichtung 23 zugeführt, die die Abbildungsinformationen analysiert und an­ grenzende Lokalisierungen mit demselben Gewebetyp bestimmt und alle diese Lokalisierungen als ein Organ identifiziert bzw. erkennt. Dies segmentiert bzw. gliedert die Informationen mit­ tels der Lokalisierung in identifizierbare bzw. erkennbare feste Strukturen. Herkömmliche Segmentierungs- bzw. Gliede­ rungsverfahren können hier verwendet werden. Ein mit der vor­ liegenden Erfindung kompatibles bzw. zusammenpassendes Verfah­ ren ist im U.S. Patent 4 751 643, erteilt am 14. Juni 1988, mit dem Titel "Method and Apparatus for Determining Connected Sub­ structures Within a Body" von W. Lorensen und H. Cline, be­ schrieben. Ein zweites Verfahren, das verwendet werden kann, ist im U.S. Patent 5 187 658, erteilt am 16. Februar 1993, mit dem Titel "System and Method for Segmenting Internal Structures Contained Within The Interior Region of a Solid Object" von H. Cline und W. Lorensen, beschrieben.
Oberflächenextraktionseinrichtung
Wenn einmal die Volumenelemente (Voxel) der Abbildungsinforma­ tionen segmentiert bzw. gegliedert sind, werden sie mit Gewebe/ Organ-Identifizierungen- bzw. Kennzeichnungen bezeichnet, wobei Oberflächenmodelle aus den Volumendaten von der Abbildungsein­ richtung 21 mittels der Oberflächenextraktionseinrichtung 25 erzeugt werden können, wobei herkömmliche Techniken, wie der "Marching Cubes" Algorithmus bzw. der Algorithmus "sich fortbe­ wegender Würfel", der im U.S. Patent 4 710 876, erteilt am 1. Dezember 1987, mit dem Titel "System and Method for the Display of Surface Structures Contained Within the Interior Region of a Solid Body" von Harvey E. Cline und William E. Lorensen ("Marching Cubes Method") beschrieben ist.
Das "Marching Cubes" Verfahren bzw. das Verfahren "sich fortbe­ wegender Würfel" lokalisiert Oberflächenpunkte eines identifi­ zierten bzw. erkannten Gewebes unter Verwendung von linearer Interpolation, um die Gewebegrenze innerhalb eines "Würfels" zu lokalisieren, der durch acht benachbarte Volumenelemente (Voxel) definiert ist. Ein Einheitsvektor senkrecht zur Ober­ fläche wird für jeden Dreiecksvertex (triangle vertex) bzw. jede Dreiecksspitze aus dem Gradienten der Volumenelementdaten (Voxeldaten) abgeleitet. Für die endoskopische Anwendung wird eine durch Dreiecke (triangles) definierte Oberfläche über Punkte oder direkte Volumenwiedergaben bevorzugt, da die Wieder-Interpolation der Volumendaten zu berechnungsaufwendig für die gewünschten interaktiven Wiedergabegeschwindigkeiten ist.
Da häufig eine große Anzahl von Dreiecken erforderlich ist, um die Oberflächen zu bilden, wird die Anzahl der Dreiecke in re­ lativ flachen Teilen der Oberfläche mittels einer Dezimierungs- bzw. Verminderungseinrichtung 27 verringert. Die Dezimierungs- bzw. Verminderungseinrichtung 27 kann viele verschiedene be­ kannte Dezimierungs- bzw. Verminderungsverfahren verwenden, wie beispielsweise die "Dezimierungs- bzw. Verminderungs-Anwendung bzw. "Decimation application" von Zarge und Schroeder in der U.S. Patentanmeldung Nr. 07/815 772, eingereicht am 2. Januar 1992 mit dem Titel "A Method for Reducing the Complexity of a Polygonal Mesh" von Jonathan A. Zarge und William J. Schroeder. Die dezimierte bzw. verminderte Oberfläche verbessert die Wie­ dergabegeschwindigkeiten mit lediglich einem geringen Verlust an Details.
Ein weiteres Verfahren zum Anzeigen von Modellen ist im U.S. Patent 4 719 585, erteilt am 12. Januar 1988, mit dem Titel "Dividing Cubes System and Method for the Display of Surface Structures Contained Within the Interior Region of a Solid Body" von Harvey E. Cline, Siegwalt Ludke und William E. Loren­ sen ("Dividing Cubes") beschrieben. Das Verfahren beginnt mit Volumendaten und erzeugt eine durch eine Anzahl von Punkten und mit jedem Punkt verbundenen Normal-Vektoren beschriebene Ober­ fläche eher als Polygone bzw. Vielecke. Das "Würfel-Auftei­ lungs"- bzw. "Dividing Cubes"-Verfahren wurde verwendet, um innerhalb volumetrischer Daten enthaltene Oberflächen anzu­ zeigen.
Dezimierung bzw. Verminderung kann nicht-für Anzeigen verwendet werden, die regelmäßig beabstandete Informationen benötigen, wie beispielsweise Punkt- oder normale Anzeigen.
Die dezimierten bzw. verringerten Abbildungsinformationen von der Dezimierungs- bzw. Verminderungseinrichtung 27 beschreiben ein dreidimensionales (3D) Oberflächenmodell und werden in der Speichereinrichtung 10 gespeichert. Eine Modellwiedergabeein­ richtung 29 erzeugt ein Bild des dreidimensionalen (3D) Ober­ flächenmodells, wie vom ausgewählten Ansichtspunkt aus gesehen. Die Wiedergabeeinrichtung 29 kann entsprechend herkömmlichen Computergraphik-Wiedergabeentwürfen konstruiert sein.
Virtueller Kameraansichtspunkt
Die vorliegende Erfindung kann irgendeinen von drei Wegen ver­ wenden, um einen Bildansichtspunkt des dreidimensionalen (3D) Oberflächenmodells oder eine Serie von Bildansichtspunkten, die kollektiv als ein Ansichtspunktpfad bezeichnet werden, aus­ wählen.
Bei dem ersten Weg steuert ein Bediener den Ansichtspunkt mit einer graphischen Schnittstelleneinrichtung 31, wie beispiels­ weise einer Computermaus. Die graphische Schnittstelleneinrich­ tung 31 ermöglicht die Bewegung des Bildansichtspunkts. Der Bediener 5 kann auch das Gesichtsfeld und andere Abbildungspa­ rameter der Wiedergabeeinrichtung 29 mit der graphischen Schnittstelleneinrichtung 31 steuern. Diese manuelle Technik ist am besten geeignet für Anwendungen wie Operationsplanung und Operationssimulation.
Ein zweiter Weg verwendet eine Computeranimationstechnik, ge­ nannt "Hauptinformationsbildausschnitt-Technik" bzw. "Key fra­ ming". Die Wiedergabeeinrichtung 29 bildet ein Bild von inneren Strukturen des Objekts 3 und zeigt auch die inneren Durchgänge bzw. Verbindungsgänge an. Der Bediener 5 verwendet eine graphi­ sche Schnittstelleneinrichtung 31, um verschiedene Ansichts­ punkte zum Ansehen eines Bilds auszuwählen, bekannt als "Haupt­ informationsbildausschnitte" bzw. "Key frames". Wenn die "Hauptinformationsbildausschnitte" bzw. "Key frames" einmal eingerichtet sind, erzeugt eine Pfad-Glättungseinrichtung 37 einen Pfad, der die "Hauptinformationsbildausschnitte "bzw. "Key frames" verbindet. Bekannte Glättungstechniken, wie bei­ spielsweise kubische Splinefunktionen (cubic splines), können verwendet werden. Ein virtueller Film kann mittels der Wieder­ gabeeinrichtung 29 abgespielt werden, indem nacheinander Bilder von Ansichtspunkten entlang dem geglätteten Pfad aus erzeugt werden. Dies erzeugt den Eindruck, daß der Bediener 5 eine vir­ tuelle Kamera den Pfad entlang bewegt. Die "Hauptinformations­ bildausschnitt-Technik" bzw. das "Key framing" ist geeignet für Gesamtkamerabewegungen durch offene innere und äußere Umge­ bungen.
Pfadplanung
Das Durchqueren von hohlen Organen, die der Bediener 5 untersu­ chen will, stellt eine Herausforderung für die vorstehenden er­ sten und zweiten Wege dar. Manuelle Ansichtspunktbewegung in begrenzten Räumen ist schwierig. Eine ähnliche Technik zum au­ tomatisieren der Pfadplanung wird bei der Auswahl von Ansichts­ punkten für Bilder in engen Räumen verwendet.
Dieser Weg findet automatisch einen Pfad durch einen Durchgang bzw. Verbindungsgang. Der Bediener 5 verwendet die graphische Schnittstelleneinrichtung 31 zum Spezifizieren bzw. Bestimmen einer dreidimensionalen (3D) Lokalisierung, die das endgültige Ziel für den Bildansichtspunkt ist.
Eine Navigations-Volumenberechnungs-Einrichtung 33 kennzeichnet alle Volumenelemente (Voxel) mit ihrem Abstand vom Ziel. Fig. 2 zeigt eine zweidimensionale (2D) Darstellung von Abstands­ kennzeichnung für einen einzelnen Schnitt. Das Ziel ist der Punkt G. Die Anwendung von Fig. 2 verwendet eine Wellenfront- Ausbreitungs-Technik über die Volumenelemente (Voxel). Abstände werden auf einem Gitter bestimmt, beispielsweise der Effektivi­ tät halber als "Manhattan-("Stadtblock") Abstand". Jedes Volu­ menelement (Voxel) im Navigationsvolumen, das nicht Teil eines "Hindernisses" ist, wird mit einem Integer-Abstand zum Ziel gekennzeichnet. Volumenelemente (Voxel), die Hindernisse ent­ halten werden nicht gekennzeichnet. Dies wird für alle benach­ barten Volumenelemente (Voxel) wiederholt, die nicht verarbei­ tet wurden, was in einer Verarbeitung einer "Wellenfront" re­ sultiert. Die Abstandskennzeichnung endet, wenn keine neuen Nachbarn der Wellenfront gekennzeichnet werden können.
Wenn einmal das Navigationsvolumen erzeugt ist, können Schnitte der segmentierten bzw. gegliederten Modells angezeigt werden, als ob sie anatomische Schnitte wären.
Der Bediener 5 wählt auch einen Startpunkt. Ein vorgeschlagener Ansichtspunktpfad von dem gewählten Startpunkt im Volumen zum Ziel wird von einer Pfadberechnungseinrichtung 35 mittels her­ kömmlicher Verfahren berechnet, bevorzugterweise unter Verwen­ dung einer "steilster Abfall"-Technik bzw. "Steepest descent"- Technik auf den Werten des Navigationsvolumens, die in der Speichereinrichtung 10 gespeichert sind. Die Pfadberechnungs­ einrichtung 35 kann auch einen Abstand von jedem Startpunkt zum Zielpunkt berechnen und ihn dem Bediener 5 anzeigen. Fig. 3 zeigt berechnete Pfade von zwei Startpunkten.
Eine Pfadglättungseinrichtung 37 berechnet einen glatten "Flug­ pfad", der die ausgewählten Pfadpunkte zwischen dem Startpunkt und dem Ziel unter Verwendung herkömmlicher Glättungstechniken verbindet. Da die Pfadberechnungseinrichtung 35 kleine Schritte erzeugt, während sie sich auf das Ziel zu bewegt, ist die An­ zahl der Punkte auf dem Ansichtspunktpfad typischerweise um einen Faktor 2 oder 3 zu vor der Glättung verringert.
Wenn einmal der Ansichtspunktpfad erzeugt ist, kann der Bedie­ ner 5 starten, stoppen und sich schrittweise entlang dem be­ rechneten Ansichtspunktpfad bewegen, indem geeignete Signale zur Wiedergabeeinrichtung 29 gesendet werden.
Anzeigewiedergabe
Die Wiedergabeeinrichtung 29 kann ebenso zahlreiche verschiede­ ne Anzeigealternativen verwenden.
  • 1. Dreidimensionales (3D) Einzelbild - Eine Oberflächenwieder­ gabe von inneren Strukturen eines Objekts 3 kann unter Verwen­ dung kommerziell verfügbarer Hardware bzw. Geräteausrüstung erfolgen. Transparente Wiedergaben von großen einschließenden Geweben (wie beispielsweise der Haut) ermöglichen eine ungehin­ derte Ansicht von tieferen Strukturen, während ein dreidimen­ sionaler Zusammenhang für den Benutzer geschaffen wird, wie in der U.S. Patentanmeldung Nr. 08/144 270, eingereicht am 28. Oktober 1993, mit dem Titel "Geometric Clipping Using Boolean Textures" von William E. Lorensen im Teil "Texture Mapping" ("Strukturabbildung") beschrieben.
  • 2. Stereo - Stereoskopische Betrachtung kann verwendet werden, um die Wahrnehmung von dreidimensionalen Beziehungen zu ver­ stärken. Dies erfordert, daß dem Bediener 5 zwei separate Bil­ der zugeführt werden: eines entsprechend der Ansicht des linken Auges und eines entsprechend der Ansicht des rechten Auges.
  • 3. Aufgespaltene Ansicht - Zwei Ansichten werden gleichzeitig durch die Wiedergabeeinrichtung 29 auf einer Anzeige 39 ange­ zeigt. Ein Bild ist von einem vom Bediener 5 ausgewählten An­ sichtspunkt aus, der als Gesamt-Bezugsansicht des Objekts 3 dient, die als eine Karte wirkt. Das zweite Bild ist von einem Ansichtspunkt innerhalb des Hohlraums aus.
  • 4. Wo bin ich? - Während sich entlang des erzeugten Ansichts­ punktpfads bewegende Bilder angezeigt werden, kann der Bediener 5 einen "Wo bin ich?"-Knopf auf der graphischen Schnittstelle­ neinrichtung 31 drücken, der bewirkt, das das gegenwärtige in­ nere Bild in ein Überblicksbild mit einem Symbol zum Anzeigen der Lokalisierung des inneren Ansichtspunkts des vorhergehenden inneren Bilds wechselt.
  • 5. Kamera-Nachführung in Querschnitten - Ein anderes durch die Wiedergabeeinrichtung 29 erzeugtes Fenster zeigt den gegenwär­ tigen, durch ein Symbol gekennzeichneten Ansichtspunkt auf den Original CT- oder MRI-Schnitten, die durch die Erfassungein­ richtung 21 erfaßt wurden. Dies ermöglicht die Lokalisierung in Bezug auf gewohnte Querschnittbilder.
Experimentelle Ergebnisse
Das virtuelle Untersuchungssystem für Hohlräume wurde in Berei­ chen eines lebenden Objekts getestet.
In Fig. 4 wurde eine Röntgenstrahl-Computer-Tomographie- ("CT") Einrichtung als Erfassungseinrichtung 21 verwendet, um Abbil­ dungsinformationen von inneren Strukturen eines Objekts zu er­ fassen. Die Oberflächenextraktionseinrichtung 25 extrahiert eine durch 60.000 Dreiecke beschriebene Oberfläche. Die Ansicht aus Fig. 4 ist von einem Ansichtspunkt entlang einem Ansichts­ punktpfad durch den Dickdarm aus. Die Auswahl des Ansichts­ punkts simuliert auf diese Weise ein herkömmliches Endoskop.
Fig. 5 stellt eine vergrößerte Gesamtansicht des Dickdarms dar, ein "Karten"bild, mit einem als Symbol verwendeten Zylinder zum Darstellen des bei der Erzeugung des Bilds aus Fig. 4 verwende­ ten Ansichtspunkts. Dieses "Karten"bild kann gleichzeitig durch die Wiedergabeeinrichtung 29 erzeugt und auf der Anzeigeein­ richtung 39 angezeigt werden, um die Lokalisierung der simu­ lierten endoskopischen Ansicht aus Fig. 4 zu ermöglichen.
Die vorliegende Erfindung wurde auch beim einem Schädel, Ge­ hirnadern und der Aorta eines lebenden Objekts verwendet, wobei alle hervorragende Bilder erzeugten. Die vorliegende Erfindung bildet nicht-eindringend eine vergrößerte Darstellung von medi­ zinisch wichtigen Strukturen, wie beispielsweise Ablagerungen in Adern, Polypen im gastrointestinalen bzw. Magen und Darm betreffenden Trakt bzw. System, um zu einer frühzeitigen Erken­ nung und Behandlung potentieller ernsthafter Krankheiten zu führen.
Die vorliegende Erfindung kann auch bei nicht-lebenden oder leblosen Objekten verwendet werden. Alles, was erforderlich ist, sind Abbildungsinformationen über die inneren Strukturen. Diese können, wie vorstehend beschrieben, erfaßt werden oder mittels von rechnergestützten Entwicklungs- und Konstruktions-/Fer­ tigungs- (CAD/CAM) Verfahren synthetisiert werden.
Die Abbildungsinformationen können in zahlreichen Formen zuge­ führt werden und erfordern nicht alle Verarbeitungsschritte, wie sie vorstehend beschrieben sind. Beispielsweise können die Abbildungsinformationen bereits als segmentierte bzw. geglie­ derte Informationen gebildet werden und daher ist die Segmen­ tierungs- bzw. Gliederungseinrichtung 23 nicht erforderlich. Ähnlich, falls die Abbildungsinformationen als Oberflächen ge­ bildet werden, ist die Oberflächenextraktionseinrichtung 25 nicht erforderlich. Ebenso können die Oberflächen bereits dezi­ miert bzw. vermindert werden, wodurch die Dezimierungs- bzw. Verminderungseinrichtung 27 wegfällt.
Die mittels der vorliegenden Erfindung erzeugten inneren An­ sichten simulieren die Arten von Ansichten, die mit Hohlraum- Untersuchungseinrichtungen erhalten werden können, wie bei­ spielsweise mit Endoskopen. Verglichen mit realen endosko­ pischen Ansichten besitzt die vorliegende Erfindung die folgen­ den Vorteile:
  • 1. Interaktive Steuerung aller virtuellen Kameraparameter ein­ schließlich des Gesichtsfelds,
  • 2. Möglichkeit die Wände des Organs zu passieren, um benachbar­ te Anatomie zu sehen,
  • 3. Möglichkeit die dreidimensionale (3D) Position des Ansichts­ punkts eines inneren Bildhohlraums zu lokalisieren,
  • 4. Benutzergesteuerte Bewegung entlang einem computererzeugten Pfad, und
  • 5. unbegrenzte Schärfentiefe.
Während einige derzeit bevorzugte Ausführungsbeispiele der Er­ findung vorstehend detailliert beschrieben wurden, werden zahl­ reiche Modifizierungen und Veränderungen für den Fachmann of­ fensichtlich sein. Es ist daher verständlich, daß die Ansprüche alle derartigen Modifizierungen und Veränderungen, die in ihren Schutzbereich fallen, abdecken sollen.
Die vorliegende Erfindung erzeugt nicht-eindringend Bilder von Hohlräumen eines Objekts von einem Ansichtspunkt innerhalb des Hohlraums aus. Eine Erfassungseinrichtung erfaßt Abbildungsin­ formationen über innere Strukturen eines Objekts. Diese Abbil­ dungsinformationen werden in einzelne Strukturen segmentiert bzw. gegliedert und ein dreidimensionales (3D) Oberflächenmo­ dell wird konstruiert. Ein Bediener sieht ein Bild des dreidi­ mensionalen (3D) Modells, um einen Ziel-Ansichtspunkt und einen Start-Ansichtspunkt auszuwählen. Ein Ansichtspunktpfad wird erzeugt, der den Start-Ansichtspunkt und den Ziel-Ansichtspunkt verbindet. Bilder werden mit Ansichtspunkten entlang dem An­ sichtspunktpfad erzeugt. Eine Vielzahl von zusätzlichen Dar­ stellungstechniken unterstützt die Lokalisierung des gegenwär­ tigen Bild-Ansichtspunkts durch den Betrachter und seine Bezie­ hung zum Objekt.

Claims (9)

1. Verfahren zum Simulieren von Endoskopie, mit den Schritten:
  • a) Erfassen von Abbildungsinformationen von inneren Strukturen eines Objekts (3);
  • b) Erzeugen eines dreidimensionalen (3D) Oberflächenmodells der Abbildungsinformationen;
  • c) Auswählen eines Start-Ansichtspunkts;
  • d) Auswählen eines Ziel-Ansichtspunkts;
  • e) Berechnen eines Ansichtspunktpfads um Hindernisse herum, der den Start-Ansichtspunkt und den Ziel-Ansichtspunkt verbindet;
  • f) Erzeugen einer Vielzahl von inneren Bildern mit Ansichts­ punkten entlang dem Ansichtspunktpfad; und
  • g) Anzeigen der Bilder in Aufeinanderfolge entsprechend der Position entlang dem Ansichtspunktpfad, wodurch Endoskopie si­ muliert wird.
2. Verfahren nach Anspruch 1, wobei der Schritt des Berechnen eines Ansichtspunktpfads die folgenden Schritte umfaßt:
  • a) Berechnen eines Abstands, in Umgehung von Hindernissen, von jedem Volumenelement des Oberflächenmodells zum Zielpunkt;
  • b) Kennzeichnen jedes Volumenelements mit seinem berechneten Abstand;
  • c) Einstellen eines Volumenelements, das den Start-Ansichts­ punkt enthält, als das gegenwärtige Volumenelement;
  • d) Hinzufügen des gegenwärtigen Volumenelements zum Ansichts­ punktpfad;
  • e) Bestimmen eines Volumenelements benachbart zum gegenwärtigen Volumenelement mit dem geringsten gekennzeichneten Abstands­ wert;
  • f) Einstellen des Volumenelements mit dem niedrigsten gekenn­ zeichneten Abstandswert als gegenwärtiges Volumenelement; und
  • g) Wiederholen der Schritte "d" bis "f", bis ein Volumenele­ ment, das das Ziel enthält, erreicht ist.
3. Verfahren nach Anspruch 1, wobei der Schritt des Berechnens eines Ansichtspunktpfads folgende Schritte umfaßt:
  • a) Anzeigen von Bildern des dreidimensionalen (3D) Modells für einen Bediener (5);
  • b) Wechselwirken mit dem Bediener (5), um Lokalisierungen aus­ zuwählen, die "Hauptinformationsbildausschnitte" sind, die der Ansichtspunktpfad passiert; und
  • c) Einpassen des Start-Ansichtspunkts, des Ziel-Ansichtspunkts und dazwischenliegender "Hauptinformationsbildausschnitte" in einen geglätteten Ansichtspunktpfad.
4. Verfahren nach Anspruch 1, mit den weiteren Schritten:
  • a) Auswählen eines Ansichtspunkts außerhalb des Ansichtspunkt­ pfads;
  • b) Erzeugen eines anderen Bildes mit einem im wesentlichen grö­ ßeren Gesichtsfeld als die mit einem Ansichtspunkt entlang des Ansichtspunktpfads erzeugten inneren Bilder, um als "Karten­ bild" zu dienen;
  • c) Anzeigen eines beliebigen Symbols auf dem Kartenbild, um den verwendeten Ansichtspunkt anzuzeigen, der verwendet wird, um das gegenwärtig angezeigte innere Bild zu erzeugen.
5. Verfahren nach Anspruch 1, mit den weiteren Schritten:
  • a) Erzeugen eines Schnittbilds aus den Abbildungsinformationen von inneren Strukturen des Objekts (3) mit einem im wesentli­ chen größeren Gesichtsfeld als die inneren Bilder, die mit ei­ nem Ansichtspunkt entlang dem Ansichtspunktpfad erzeugt wurden, um als ein "Kartenbild" zu dienen; und
  • b) Anzeigen eines beliebigen Symbols auf dem Schnittbild, das den zur Erzeugung des gegenwärtig angezeigten inneren Bilds verwendeten Ansichtspunkt anzeigt.
6. Verfahren nach Anspruch 1, wobei
  • a) eine Vielzahl von stereoskopischen Paaren innerer Bilder mit Ansichtspunkten entlang dem Ansichtspunktpfad erzeugt werden; und
  • b) die stereoskopischen Paare dem Bediener (5) aufeinanderfol­ gend entsprechend der Position entlang dem Ansichtspunktpfad zugeführt werden, wodurch stereoskopische Endoskopie simuliert wird.
7. Virtuelles Untersuchungssystem zum Betrachten innerer Hohl­ räume eines Objekts, mit:
  • a) einer Speichereinrichtung (10) zum Speichern von Abbildungs­ informationen;
  • b) einer Anzeigevorrichtung (39) für dreidimensionale (3D) Mo­ delle, die mit der Speichereinrichtung (10) verbunden ist, zum Anzeigen vom in der Speichereinrichtung (10) gespeicherten Bil­ dinformationen, wie sie von ausgewählten Ansichtspunkten ent­ lang einem Ansichtspunktpfad gesehen werden;
  • c) einer graphischen Schnittstelleneinrichtung (31) zum Wech­ selwirken mit einem Bediener (5), um Start- und Ziel-Ansichts­ punkte zu definieren;
  • d) eine Navigationsvolumen-Berechnungseinrichtung (33), die mit der Speichereinrichtung (10) verbunden ist, zum Bestimmen von Abständen von jedem Volumenelement durch den Hohlraum zum Ziel- Ansichtspunkt und zum Erzeugen eines Navigationsvolumens mit Volumenelementen, von denen jedes mit seinem entsprechenden Abstand gekennzeichnet ist; und
  • e) einer Pfadberechnungseinrichtung (35), die mit der Speicher­ einrichtung (10) verbunden ist, zum Bestimmen eines kürzesten Abstands zwischen dem Start-Ansichtspunkt und dem Ziel-An­ sichtspunkt, der der Ansichtspunktpfad ist, und zum Speichern diese Pfades in der Speichereinrichtung (10), um der Anzeige­ einrichtung (30) für dreidimensionale (3D) Modelle zu ermög­ lichen, eine Serie von Bildern zu erzeugen, wie sie von Punkten entlang diesem berechneten Ansichtspunktpfad gesehen werden.
8. Virtuelles Untersuchungssystem nach Anspruch 7, mit einer Pfadglättungseinrichtung (37), die mit der Speicherein­ richtung (10) verbunden ist, zum Glätten des Ansichtspunktpfads bevor die Anzeigeeinrichtung (39) für das dreidimensionale (3D) Modell die Serie von Bildern erzeugt.
9. Virtuelles Untersuchungssystem zum Betrachten innerer Hohl­ räume eines Objekts, mit
  • a) einer Speichereinrichtung (10) zum Speichern von Abbildungs­ informationen;
  • b) einer Anzeigeeinrichtung (39) für dreidimensionale (3D) Mo­ delle, die mit der Speichereinrichtung (10) verbunden ist, zum Anzeigen der in der Speichereinrichtung (10) gespeicherten Ab­ bildungsinformationen, wie sie von ausgewählten Ansichtspunkten entlang einem Ansichtspunktpfad gesehen werden;
  • c) einer graphischen Schnittstelleneinrichtung (31) zum Wech­ selwirken mit einem Bediener (5), zum Definieren eines Start- Ansichtspunkts, eines Ziel-Ansichtspunkts und dazwischenliegen­ der Ansichtspunkte innerhalb des inneren Hohlraums, die als "Hauptinformationsbildausschnitte" bezeichnet werden; und
  • d) einer Pfadglättungseinrichtung (37), die mit der Speicher­ einrichtung (10) gekoppelt ist, zum Erzeugen eines geglätteten Ansichtspunktpfads, der den Start-, den Ziel- und dazwischen­ liegende Ansichtspunkte verbindet, und zum Speichern des Pfads in der Speichereinrichtung (10), um der Anzeigeeinrichtung (39) für dreidimensionale (3D) Modelle zu ermöglichen, eine Serie von Bildern zu erzeugen, wie sie von Punkten entlang diesem berechneten Ansichtspunktpfad gesehen werden.
DE19543410A 1994-11-23 1995-11-21 Verfahren zum Simulieren von Endoskopie und virtuelles Untersuchungssystem zum Betrachten innerer Hohlräume Expired - Fee Related DE19543410B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/344,445 1994-11-23
US08/344,445 US5611025A (en) 1994-11-23 1994-11-23 Virtual internal cavity inspection system

Publications (2)

Publication Number Publication Date
DE19543410A1 true DE19543410A1 (de) 1996-06-27
DE19543410B4 DE19543410B4 (de) 2009-06-04

Family

ID=23350583

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19543410A Expired - Fee Related DE19543410B4 (de) 1994-11-23 1995-11-21 Verfahren zum Simulieren von Endoskopie und virtuelles Untersuchungssystem zum Betrachten innerer Hohlräume

Country Status (5)

Country Link
US (1) US5611025A (de)
JP (1) JP3874826B2 (de)
CN (1) CN1054921C (de)
DE (1) DE19543410B4 (de)
IL (1) IL116011A (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1012812A1 (de) * 1996-09-16 2000-06-28 The Research Foundation of State University of New York Verfahren und system zur durchführung einer virtuellen untersuchung
CN111000631A (zh) * 2019-12-17 2020-04-14 上海嘉奥信息科技发展有限公司 基于Unity3D体渲染的内窥镜模拟方法及系统

Families Citing this family (173)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2652928B1 (fr) 1989-10-05 1994-07-29 Diadix Sa Systeme interactif d'intervention locale a l'interieur d'une zone d'une structure non homogene.
DE69318304T2 (de) 1992-08-14 1998-08-20 British Telecomm Ortungssystem
US5694530A (en) * 1994-01-18 1997-12-02 Hitachi Medical Corporation Method of constructing three-dimensional image according to central projection method and apparatus for same
US5803089A (en) * 1994-09-15 1998-09-08 Visualization Technology, Inc. Position tracking and imaging system for use in medical applications
US6694163B1 (en) 1994-10-27 2004-02-17 Wake Forest University Health Sciences Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
US5920319A (en) * 1994-10-27 1999-07-06 Wake Forest University Automatic analysis in virtual endoscopy
US5782762A (en) * 1994-10-27 1998-07-21 Wake Forest University Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
US7190371B2 (en) 1996-02-08 2007-03-13 Palm Charles S 3D stereo browser for the internet
US7154506B2 (en) * 1996-02-08 2006-12-26 Palm Charles S 3D stereo browser for the internet
WO1997031305A2 (en) * 1996-02-08 1997-08-28 Synthonics Incorporated 3d stereo browser for the internet
JP3770280B2 (ja) * 1996-03-29 2006-04-26 株式会社日立メディコ 三次元画像の表示方法及び装置
US6167296A (en) 1996-06-28 2000-12-26 The Board Of Trustees Of The Leland Stanford Junior University Method for volumetric image navigation
US6040841A (en) * 1996-08-02 2000-03-21 Microsoft Corporation Method and system for virtual cinematography
US7486811B2 (en) * 1996-09-16 2009-02-03 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination of objects, such as internal organs
US6343936B1 (en) 1996-09-16 2002-02-05 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination, navigation and visualization
US7194117B2 (en) * 1999-06-29 2007-03-20 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination of objects, such as internal organs
US6331116B1 (en) 1996-09-16 2001-12-18 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual segmentation and examination
US8682045B2 (en) * 1997-02-25 2014-03-25 Wake Forest University Health Sciences Virtual endoscopy with improved image segmentation and lesion detection
US6346940B1 (en) 1997-02-27 2002-02-12 Kabushiki Kaisha Toshiba Virtualized endoscope system
US6272370B1 (en) 1998-08-07 2001-08-07 The Regents Of University Of Minnesota MR-visible medical device for neurological interventions using nonlinear magnetic stereotaxis and a method imaging
US6246784B1 (en) 1997-08-19 2001-06-12 The United States Of America As Represented By The Department Of Health And Human Services Method for segmenting medical images and detecting surface anomalies in anatomical structures
US6226548B1 (en) 1997-09-24 2001-05-01 Surgical Navigation Technologies, Inc. Percutaneous registration apparatus and method for use in computer-assisted surgical navigation
US6021343A (en) 1997-11-20 2000-02-01 Surgical Navigation Technologies Image guided awl/tap/screwdriver
US6369812B1 (en) 1997-11-26 2002-04-09 Philips Medical Systems, (Cleveland), Inc. Inter-active viewing system for generating virtual endoscopy studies of medical diagnostic data with a continuous sequence of spherical panoramic views and viewing the studies over networks
US6348058B1 (en) 1997-12-12 2002-02-19 Surgical Navigation Technologies, Inc. Image guided spinal surgery guide, system, and method for use thereof
DE69937651T2 (de) 1998-02-23 2008-06-19 Algotec Systems Ltd. System und Verfahren zur Strahlverfolgung
WO1999042977A1 (en) * 1998-02-23 1999-08-26 Algotec Systems Ltd. Automatic path planning system and method
US6463317B1 (en) 1998-05-19 2002-10-08 Regents Of The University Of Minnesota Device and method for the endovascular treatment of aneurysms
US6118845A (en) 1998-06-29 2000-09-12 Surgical Navigation Technologies, Inc. System and methods for the reduction and elimination of image artifacts in the calibration of X-ray imagers
US6477400B1 (en) 1998-08-20 2002-11-05 Sofamor Danek Holdings, Inc. Fluoroscopic image guided orthopaedic surgery system with intraoperative registration
EP2302595A3 (de) 1998-11-25 2011-04-06 Wake Forest University Health Sciences Virtuelle Endoskopie mit verbesserter Bildsegmentierung und Läsionsdetektion
US6470207B1 (en) 1999-03-23 2002-10-22 Surgical Navigation Technologies, Inc. Navigational guidance via computer-assisted fluoroscopic imaging
US6491699B1 (en) * 1999-04-20 2002-12-10 Surgical Navigation Technologies, Inc. Instrument guidance method and system for image guided surgery
JP2001008232A (ja) * 1999-06-25 2001-01-12 Matsushita Electric Ind Co Ltd 全方位映像出力方法と装置
US6499488B1 (en) 1999-10-28 2002-12-31 Winchester Development Associates Surgical sensor
US7366562B2 (en) 2003-10-17 2008-04-29 Medtronic Navigation, Inc. Method and apparatus for surgical navigation
US8644907B2 (en) 1999-10-28 2014-02-04 Medtronic Navigaton, Inc. Method and apparatus for surgical navigation
US11331150B2 (en) 1999-10-28 2022-05-17 Medtronic Navigation, Inc. Method and apparatus for surgical navigation
US6493573B1 (en) 1999-10-28 2002-12-10 Winchester Development Associates Method and system for navigating a catheter probe in the presence of field-influencing objects
US6235038B1 (en) 1999-10-28 2001-05-22 Medtronic Surgical Navigation Technologies System for translation of electromagnetic and optical localization systems
US8239001B2 (en) 2003-10-17 2012-08-07 Medtronic Navigation, Inc. Method and apparatus for surgical navigation
US6474341B1 (en) 1999-10-28 2002-11-05 Surgical Navigation Technologies, Inc. Surgical communication and power system
US6381485B1 (en) 1999-10-28 2002-04-30 Surgical Navigation Technologies, Inc. Registration of human anatomy integrated for electromagnetic localization
WO2001064124A1 (en) 2000-03-01 2001-09-07 Surgical Navigation Technologies, Inc. Multiple cannula image guided tool for image guided procedures
US6535756B1 (en) 2000-04-07 2003-03-18 Surgical Navigation Technologies, Inc. Trajectory storage apparatus and method for surgical navigation system
US7356367B2 (en) * 2000-06-06 2008-04-08 The Research Foundation Of State University Of New York Computer aided treatment planning and visualization with image registration and fusion
US7085400B1 (en) 2000-06-14 2006-08-01 Surgical Navigation Technologies, Inc. System and method for image based sensor calibration
WO2002029723A1 (en) 2000-10-02 2002-04-11 The Research Foundation Of State University Of Newyork Enhanced virtual navigation and examination
DE10102477A1 (de) 2001-01-19 2002-07-25 Storz Endoskop Gmbh Schaffhaus Vorrichtung zum Applizieren von Licht auf eine Gefäßwand
US7630750B2 (en) * 2001-02-05 2009-12-08 The Research Foundation For The State University Of New York Computer aided treatment planning
EP1393259B1 (de) * 2001-05-11 2018-06-13 Koninklijke Philips N.V. Verfahren, system und rechnerprogrammprodukt zur erstellung von medizinischen berichten
EP1393260A1 (de) * 2001-05-15 2004-03-03 Koninklijke Philips Electronics N.V. Analyse von multidimensionalen datensätzen
US6636757B1 (en) 2001-06-04 2003-10-21 Surgical Navigation Technologies, Inc. Method and apparatus for electromagnetic navigation of a surgical probe near a metal object
US7450749B2 (en) * 2001-07-06 2008-11-11 Koninklijke Electronics N.V. Image processing method for interacting with a 3-D surface represented in a 3-D image
US7324104B1 (en) 2001-09-14 2008-01-29 The Research Foundation Of State University Of New York Method of centerline generation in virtual objects
US7596256B1 (en) 2001-09-14 2009-09-29 The Research Foundation For The State University Of New York Computer assisted detection of lesions in volumetric medical images
US6711231B2 (en) * 2001-12-10 2004-03-23 Ge Medical Systems Global Technology Company, Llc Methods and apparatus to assist and facilitate vessel analysis
EP1458292A2 (de) * 2001-12-14 2004-09-22 Koninklijke Philips Electronics N.V. Verfahren, system und computerprogramm zur visualisierung der oberflächentextur der wand eines hohlorgans aus seiner dreidimensionalen abtastung
KR100439756B1 (ko) * 2002-01-09 2004-07-12 주식회사 인피니트테크놀로지 3차원 가상내시경 화면 표시장치 및 그 방법
US6947786B2 (en) 2002-02-28 2005-09-20 Surgical Navigation Technologies, Inc. Method and apparatus for perspective inversion
EP1493128A1 (de) * 2002-03-29 2005-01-05 Koninklijke Philips Electronics N.V. Verfahren, system und computerprogramm zur stereoskopischen betrachtung von medizinischen 3d-bildern
US6990368B2 (en) * 2002-04-04 2006-01-24 Surgical Navigation Technologies, Inc. Method and apparatus for virtual digital subtraction angiography
EP1500054A1 (de) * 2002-04-12 2005-01-26 Koninklijke Philips Electronics N.V. Graphische vorrichtung und verfahren zum verfolgen von volumen-bild untersuchung
US7998062B2 (en) 2004-03-29 2011-08-16 Superdimension, Ltd. Endoscope structures and techniques for navigating to a target in branched structure
US7260250B2 (en) * 2002-09-30 2007-08-21 The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services Computer-aided classification of anomalies in anatomical structures
US7697972B2 (en) 2002-11-19 2010-04-13 Medtronic Navigation, Inc. Navigation system for cardiac therapies
US7599730B2 (en) 2002-11-19 2009-10-06 Medtronic Navigation, Inc. Navigation system for cardiac therapies
US7202869B2 (en) * 2003-01-07 2007-04-10 Lucasfilm Entertainment Company Ltd. System and method of creating and animating a computer-generated image of a creature
US7542791B2 (en) 2003-01-30 2009-06-02 Medtronic Navigation, Inc. Method and apparatus for preplanning a surgical procedure
US7081088B2 (en) * 2003-01-30 2006-07-25 Siemens Corporate Research, Inc. Method and apparatus for automatic local path planning for virtual colonoscopy
US7660623B2 (en) 2003-01-30 2010-02-09 Medtronic Navigation, Inc. Six degree of freedom alignment display for medical procedures
US7304644B2 (en) * 2003-03-12 2007-12-04 Siemens Medical Solutions Usa, Inc. System and method for performing a virtual endoscopy
AU2003901625A0 (en) * 2003-03-28 2003-05-01 Commonwealth Scientific And Industrial Research Organisation Combining front propagation with shape knowledge for accurate curvilinear modelling
US7457444B2 (en) * 2003-05-14 2008-11-25 Siemens Medical Solutions Usa, Inc. Method and apparatus for fast automatic centerline extraction for virtual endoscopy
US7822461B2 (en) * 2003-07-11 2010-10-26 Siemens Medical Solutions Usa, Inc. System and method for endoscopic path planning
US7313430B2 (en) 2003-08-28 2007-12-25 Medtronic Navigation, Inc. Method and apparatus for performing stereotactic surgery
EP1667749B1 (de) 2003-09-15 2009-08-05 Super Dimension Ltd. System aus zubehör zur verwendung mit bronchoskopen
EP2316328B1 (de) 2003-09-15 2012-05-09 Super Dimension Ltd. Umhüllungsvorrichtung zur Fixierung von Bronchoskopen
US7835778B2 (en) * 2003-10-16 2010-11-16 Medtronic Navigation, Inc. Method and apparatus for surgical navigation of a multiple piece construct for implantation
US7840253B2 (en) 2003-10-17 2010-11-23 Medtronic Navigation, Inc. Method and apparatus for surgical navigation
WO2005043464A2 (en) * 2003-11-03 2005-05-12 Bracco Imaging S.P.A. Dynamic crop box determination for optimized display of a tube-like structure in endoscopic view (“crop box”)
JP3847744B2 (ja) * 2003-11-04 2006-11-22 オリンパス株式会社 挿入支援システム
US20060036162A1 (en) * 2004-02-02 2006-02-16 Ramin Shahidi Method and apparatus for guiding a medical instrument to a subsurface target site in a patient
US8764725B2 (en) 2004-02-09 2014-07-01 Covidien Lp Directional anchoring mechanism, method and applications thereof
WO2005096223A2 (en) * 2004-03-31 2005-10-13 British Telecommunications Public Limited Company Pathfinding system
CN1333360C (zh) * 2004-04-28 2007-08-22 复旦大学 虚拟内窥镜系统的中心线自动定位方法
US7567834B2 (en) 2004-05-03 2009-07-28 Medtronic Navigation, Inc. Method and apparatus for implantation between two vertebral bodies
DE602005024159D1 (de) * 2004-06-23 2010-11-25 Koninkl Philips Electronics Nv Virtuelle endoskopie
CN1779718B (zh) * 2004-11-18 2010-11-24 中国科学院自动化研究所 虚拟内窥镜的可见性分块绘制装置及其方法
US7586501B2 (en) 2005-05-24 2009-09-08 Siemens Medical Solutions Usa, Inc. Simultaneous projection of multi-branched vessels and their context on a single image
US7379062B2 (en) * 2005-08-01 2008-05-27 Barco Nv Method for determining a path along a biological object with a lumen
JP2007066291A (ja) * 2005-08-02 2007-03-15 Seiko Epson Corp 画像表示方法および画像表示装置、画像表示システム、サーバ、プログラム、記録媒体
US20070046661A1 (en) * 2005-08-31 2007-03-01 Siemens Medical Solutions Usa, Inc. Three or four-dimensional medical imaging navigation methods and systems
US7623900B2 (en) * 2005-09-02 2009-11-24 Toshiba Medical Visualization Systems Europe, Ltd. Method for navigating a virtual camera along a biological object with a lumen
US7835784B2 (en) 2005-09-21 2010-11-16 Medtronic Navigation, Inc. Method and apparatus for positioning a reference frame
DE102005046203B3 (de) * 2005-09-27 2007-01-04 Siemens Ag Verfahren und Vorrichtung zur selektiven Darstellung diagnostischer Bilddaten
US8079957B2 (en) * 2005-11-18 2011-12-20 Siemens Medical Solutions Usa, Inc. Synchronized three or four-dimensional medical ultrasound imaging and measurements
WO2007064981A2 (en) * 2005-11-30 2007-06-07 The Research Foundation Of State University Of New York Reducing false positives of polyp in cad
US8452061B2 (en) * 2005-11-30 2013-05-28 The Research Foundation Of State University Of New York Electronic colon cleansing method for virtual colonoscopy
US9168102B2 (en) 2006-01-18 2015-10-27 Medtronic Navigation, Inc. Method and apparatus for providing a container to a sterile environment
JP4832927B2 (ja) * 2006-03-14 2011-12-07 オリンパスメディカルシステムズ株式会社 医療用画像処理装置及び医療用画像処理方法
US8112292B2 (en) 2006-04-21 2012-02-07 Medtronic Navigation, Inc. Method and apparatus for optimizing a therapy
US8560047B2 (en) 2006-06-16 2013-10-15 Board Of Regents Of The University Of Nebraska Method and apparatus for computer aided surgery
JP4738270B2 (ja) * 2006-07-14 2011-08-03 株式会社日立メディコ 手術支援装置
CN100434044C (zh) * 2006-08-03 2008-11-19 上海交通大学 用特征点非刚性配准实现管道性脏器虚拟充气膨胀的方法
CN100464709C (zh) * 2006-08-03 2009-03-04 上海交通大学 用虚拟充气改进空腔性脏器可视化效果的方法
US8660635B2 (en) 2006-09-29 2014-02-25 Medtronic, Inc. Method and apparatus for optimizing a computer assisted surgical procedure
US20080144901A1 (en) * 2006-10-25 2008-06-19 General Electric Company Cartoon-like exaggeration of medical images to emphasize abnormalities
US20080117210A1 (en) * 2006-11-22 2008-05-22 Barco N.V. Virtual endoscopy
US7853058B2 (en) * 2006-11-22 2010-12-14 Toshiba Medical Visualization Systems Europe, Limited Determining a viewpoint for navigating a virtual camera through a biological object with a lumen
JP2008236195A (ja) * 2007-03-19 2008-10-02 Sony Corp 撮像ブロック及び撮像装置
US20090003528A1 (en) 2007-06-19 2009-01-01 Sankaralingam Ramraj Target location by tracking of imaging device
US9883818B2 (en) 2007-06-19 2018-02-06 Accuray Incorporated Fiducial localization
US8905920B2 (en) 2007-09-27 2014-12-09 Covidien Lp Bronchoscope adapter and method
US9575140B2 (en) 2008-04-03 2017-02-21 Covidien Lp Magnetic interference detection system and method
EP2297673B1 (de) 2008-06-03 2020-04-22 Covidien LP Registrationsverfahren auf merkmalbasis
US8218847B2 (en) 2008-06-06 2012-07-10 Superdimension, Ltd. Hybrid registration method
US8932207B2 (en) 2008-07-10 2015-01-13 Covidien Lp Integrated multi-functional endoscopic tool
US8165658B2 (en) 2008-09-26 2012-04-24 Medtronic, Inc. Method and apparatus for positioning a guide relative to a base
US8175681B2 (en) 2008-12-16 2012-05-08 Medtronic Navigation Inc. Combination of electromagnetic and electropotential localization
BRPI0918308A2 (pt) * 2008-12-29 2020-08-04 Koninklijke Philips Electronics N.V. método para planejar um trajeto de acordo com uma aplicação cirúrgica, e, sistema para planejar um trajeto de acordo com a aplicação cirúrgica
CN101849843B (zh) * 2009-03-31 2013-03-13 上海交通大学医学院附属新华医院 三维心脏超声虚拟内窥镜导航方法
US8611984B2 (en) 2009-04-08 2013-12-17 Covidien Lp Locatable catheter
US8494614B2 (en) 2009-08-31 2013-07-23 Regents Of The University Of Minnesota Combination localization system
US8494613B2 (en) 2009-08-31 2013-07-23 Medtronic, Inc. Combination localization system
US8348831B2 (en) * 2009-12-15 2013-01-08 Zhejiang University Device and method for computer simulated marking targeting biopsy
JP5551955B2 (ja) * 2010-03-31 2014-07-16 富士フイルム株式会社 投影画像生成装置、方法、及びプログラム
WO2011159834A1 (en) 2010-06-15 2011-12-22 Superdimension, Ltd. Locatable expandable working channel and method
JP5520804B2 (ja) * 2010-12-20 2014-06-11 本田技研工業株式会社 境界要素法の計算で用いる表面メッシュモデルを生成する表面メッシュモデル生成装置、表面メッシュモデル生成方法およびコンピュータプログラム
US11911117B2 (en) 2011-06-27 2024-02-27 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US10219811B2 (en) 2011-06-27 2019-03-05 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US9498231B2 (en) 2011-06-27 2016-11-22 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
WO2013059358A2 (en) * 2011-10-17 2013-04-25 Butterfly Network, Inc. Transmissive imaging and related apparatus and methods
CN103957834B (zh) 2011-12-03 2017-06-30 皇家飞利浦有限公司 用于半自动路径规划的自动深度滚动和方向调节
US10139985B2 (en) 2012-06-22 2018-11-27 Matterport, Inc. Defining, displaying and interacting with tags in a three-dimensional model
US9786097B2 (en) 2012-06-22 2017-10-10 Matterport, Inc. Multi-modal method for interacting with 3D models
US10163261B2 (en) 2014-03-19 2018-12-25 Matterport, Inc. Selecting two-dimensional imagery data for display within a three-dimensional model
US10127722B2 (en) 2015-06-30 2018-11-13 Matterport, Inc. Mobile capture visualization incorporating three-dimensional and two-dimensional imagery
JP5930539B2 (ja) * 2012-09-12 2016-06-08 富士フイルム株式会社 医用画像表示装置および方法並びにプログラム
US10105149B2 (en) 2013-03-15 2018-10-23 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US9925009B2 (en) 2013-03-15 2018-03-27 Covidien Lp Pathway planning system and method
US9459770B2 (en) 2013-03-15 2016-10-04 Covidien Lp Pathway planning system and method
US9639666B2 (en) 2013-03-15 2017-05-02 Covidien Lp Pathway planning system and method
US9667889B2 (en) 2013-04-03 2017-05-30 Butterfly Network, Inc. Portable electronic devices with integrated imaging capabilities
US10952593B2 (en) 2014-06-10 2021-03-23 Covidien Lp Bronchoscope adapter
CN106659453B (zh) 2014-07-02 2020-05-26 柯惠有限合伙公司 用于分割肺部的系统和方法
US9530219B2 (en) 2014-07-02 2016-12-27 Covidien Lp System and method for detecting trachea
US9754367B2 (en) 2014-07-02 2017-09-05 Covidien Lp Trachea marking
US20160000414A1 (en) 2014-07-02 2016-01-07 Covidien Lp Methods for marking biopsy location
US9770216B2 (en) 2014-07-02 2017-09-26 Covidien Lp System and method for navigating within the lung
CA2953267C (en) 2014-07-02 2022-11-15 Covidien Lp Real-time automatic registration feedback
US9603668B2 (en) 2014-07-02 2017-03-28 Covidien Lp Dynamic 3D lung map view for tool navigation inside the lung
US11227427B2 (en) 2014-08-11 2022-01-18 Covidien Lp Treatment procedure planning system and method
CN104887175A (zh) * 2015-06-03 2015-09-09 皖南医学院 一种虚拟胃镜检查与诊断系统
US10426555B2 (en) 2015-06-03 2019-10-01 Covidien Lp Medical instrument with sensor for use in a system and method for electromagnetic navigation
US10986990B2 (en) 2015-09-24 2021-04-27 Covidien Lp Marker placement
US10709352B2 (en) 2015-10-27 2020-07-14 Covidien Lp Method of using lung airway carina locations to improve ENB registration
US9962134B2 (en) 2015-10-28 2018-05-08 Medtronic Navigation, Inc. Apparatus and method for maintaining image quality while minimizing X-ray dosage of a patient
US10478254B2 (en) 2016-05-16 2019-11-19 Covidien Lp System and method to access lung tissue
US10615500B2 (en) 2016-10-28 2020-04-07 Covidien Lp System and method for designing electromagnetic navigation antenna assemblies
US10446931B2 (en) 2016-10-28 2019-10-15 Covidien Lp Electromagnetic navigation antenna assembly and electromagnetic navigation system including the same
US10638952B2 (en) 2016-10-28 2020-05-05 Covidien Lp Methods, systems, and computer-readable media for calibrating an electromagnetic navigation system
US10418705B2 (en) 2016-10-28 2019-09-17 Covidien Lp Electromagnetic navigation antenna assembly and electromagnetic navigation system including the same
US10792106B2 (en) 2016-10-28 2020-10-06 Covidien Lp System for calibrating an electromagnetic navigation system
US10722311B2 (en) 2016-10-28 2020-07-28 Covidien Lp System and method for identifying a location and/or an orientation of an electromagnetic sensor based on a map
US10751126B2 (en) 2016-10-28 2020-08-25 Covidien Lp System and method for generating a map for electromagnetic navigation
US10517505B2 (en) 2016-10-28 2019-12-31 Covidien Lp Systems, methods, and computer-readable media for optimizing an electromagnetic navigation system
US11547490B2 (en) * 2016-12-08 2023-01-10 Intuitive Surgical Operations, Inc. Systems and methods for navigation in image-guided medical procedures
US11219489B2 (en) 2017-10-31 2022-01-11 Covidien Lp Devices and systems for providing sensors in parallel with medical tools
US11224392B2 (en) 2018-02-01 2022-01-18 Covidien Lp Mapping disease spread
US11132830B2 (en) * 2018-03-29 2021-09-28 Biosense Webster (Israel) Ltd. Static virtual camera positioning
US11771505B2 (en) 2019-12-31 2023-10-03 Biosense Webster (Israel) Ltd. Three dimensional mapping system for cranial surgical pathways and method
US11413097B2 (en) 2019-12-31 2022-08-16 Biosense Webster (Israel) Ltd. Three dimensional mapping system for cranial surgical pathways with semi-targets and method

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4710876A (en) * 1985-06-05 1987-12-01 General Electric Company System and method for the display of surface structures contained within the interior region of a solid body
US4719585A (en) * 1985-08-28 1988-01-12 General Electric Company Dividing cubes system and method for the display of surface structures contained within the interior region of a solid body
US4751643A (en) * 1986-08-04 1988-06-14 General Electric Company Method and apparatus for determining connected substructures within a body
US5233687A (en) * 1987-03-25 1993-08-03 Xerox Corporation User interface with multiple workspaces for sharing display system objects
FR2636451A1 (fr) * 1988-09-13 1990-03-16 Gen Electric Cgr Procede de reconstruction d'arborescence a trois dimensions par etiquetage
US4907973A (en) * 1988-11-14 1990-03-13 Hon David C Expert system simulator for modeling realistic internal environments and performance
US5187658A (en) * 1990-01-17 1993-02-16 General Electric Company System and method for segmenting internal structures contained within the interior region of a solid object
FR2662525B1 (fr) * 1990-05-25 1992-08-28 Gen Electric Cgr Procede de visualisation d'une partie de l'image d'une structure physique.
US5287446A (en) * 1990-10-15 1994-02-15 Sierra On-Line, Inc. System and methods for intelligent movement on computer displays
US5313567A (en) * 1991-06-13 1994-05-17 At&T Bell Laboratories Arrangement for determining and displaying volumetric data in an imaging system
US5347459A (en) * 1993-03-17 1994-09-13 National Research Council Of Canada Real time collision detection

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1012812A1 (de) * 1996-09-16 2000-06-28 The Research Foundation of State University of New York Verfahren und system zur durchführung einer virtuellen untersuchung
EP1012812A4 (de) * 1996-09-16 2002-06-12 Univ New York State Res Found Verfahren und system zur durchführung einer virtuellen untersuchung
CN111000631A (zh) * 2019-12-17 2020-04-14 上海嘉奥信息科技发展有限公司 基于Unity3D体渲染的内窥镜模拟方法及系统
CN111000631B (zh) * 2019-12-17 2021-04-06 上海嘉奥信息科技发展有限公司 基于Unity3D体渲染的内窥镜模拟方法及系统

Also Published As

Publication number Publication date
CN1054921C (zh) 2000-07-26
IL116011A (en) 1999-05-09
CN1135047A (zh) 1996-11-06
DE19543410B4 (de) 2009-06-04
IL116011A0 (en) 1996-01-31
JPH08252217A (ja) 1996-10-01
US5611025A (en) 1997-03-11
JP3874826B2 (ja) 2007-01-31

Similar Documents

Publication Publication Date Title
DE19543410B4 (de) Verfahren zum Simulieren von Endoskopie und virtuelles Untersuchungssystem zum Betrachten innerer Hohlräume
Lorensen et al. The exploration of cross-sectional data with a virtual endoscope
DE102015221998B4 (de) Verfahren zur Unterstützung eines Befunders bei der Ortsbeschreibung einer Zielstruktur in einer Brust, Vorrichtung und Computerprogramm
DE102006055173B4 (de) Verfahren, medizinisches diagnostisches bildgebendes System sowie computerlesbares Speichermedium für die halbautomatische Segmentierungstechnik für röhrenförmige Objekte mit niedrigem Kontrast
DE69737720T2 (de) Verbessertes bildverarbeitungsverfahren für ein dreidimensionales bilderzeugungssystem
DE112004000128B4 (de) Verfahren und Vorrichtung für die automatische lokale Wegplanung bei der virtuellen Kolonoskopie
US6058218A (en) Enhanced visualization of weak image sources in the vicinity of dominant sources
DE102004043676B4 (de) Verfahren zur Visualisierung von Plaqueablagerungen aus 3D-Bilddatensätzen von Gefäßstrukturen
DE102009035441B4 (de) Verfahren und Bildverarbeitungssystem zur Erzeugung eines Volumenansichtsbilds vom Inneren eines Körpers
WO2015154069A1 (en) Dynamic and interactive navigation in a surgical environment
DE19955690A1 (de) System und Verfahren zur auf einer Volumendarstellung basierenden Segmentation
DE112004000722T5 (de) Verfahren und Vorrichtung zur schnellen automatischen Mittellinien-Extraktion für die virtuelle Endoskopie
DE102017214447B4 (de) Planare Visualisierung von anatomischen Strukturen
DE102007030960A1 (de) Verfahren zur Darstellung von 3-D-Strukturen in 2-D-Projektionsbildern
EP1654710B1 (de) Darstellung von 3D-Bilddaten
CN113017832A (zh) 一种基于虚拟现实技术的穿刺手术模拟方法
Blank et al. Medical volume exploration: gaining insights virtually
EP1920422B1 (de) Verfahren und vorrichtung zur navigation und messung in einem mehrdimensionalen bilddatensatz
Neubauer et al. STEPS-an application for simulation of transsphenoidal endonasal pituitary surgery
DE69636578T2 (de) Anatomisches anzeigesystem
DE69935768T2 (de) Herleitung einer isofläche in einem mehrdimensionalen datenfeld
DE19542605A1 (de) Anzeigesystem zur Verbesserung der Darstellung von Körperstrukturen während medizinischer Verfahren
DE10210644B4 (de) Verfahren zum Erstellen einer Sequenz
Yagel et al. Multisensory platform for surgical simulation
Neubauer Virtual Endoscopy for preoperative planning and training of endonasal transsphenoidal pituitary surgery

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20130601