DE19543410A1 - Virtuelles Untersuchungssystem für innere Hohlräume - Google Patents
Virtuelles Untersuchungssystem für innere HohlräumeInfo
- Publication number
- DE19543410A1 DE19543410A1 DE19543410A DE19543410A DE19543410A1 DE 19543410 A1 DE19543410 A1 DE 19543410A1 DE 19543410 A DE19543410 A DE 19543410A DE 19543410 A DE19543410 A DE 19543410A DE 19543410 A1 DE19543410 A1 DE 19543410A1
- Authority
- DE
- Germany
- Prior art keywords
- viewpoint
- path
- image
- images
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000011835 investigation Methods 0.000 title description 3
- 238000004364 calculation method Methods 0.000 claims abstract description 6
- 238000001839 endoscopy Methods 0.000 claims abstract description 5
- 238000003384 imaging method Methods 0.000 claims description 12
- 238000009499 grossing Methods 0.000 claims description 8
- 239000007787 solid Substances 0.000 claims description 8
- 238000002372 labelling Methods 0.000 claims 1
- 238000002591 computed tomography Methods 0.000 description 9
- 230000004807 localization Effects 0.000 description 7
- 238000013507 mapping Methods 0.000 description 7
- 210000001519 tissue Anatomy 0.000 description 7
- 210000000056 organ Anatomy 0.000 description 6
- 238000009877 rendering Methods 0.000 description 5
- 230000011218 segmentation Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 238000002595 magnetic resonance imaging Methods 0.000 description 4
- 210000001072 colon Anatomy 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 210000003484 anatomy Anatomy 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000009432 framing Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 210000000709 aorta Anatomy 0.000 description 1
- 210000001367 artery Anatomy 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000000621 bronchi Anatomy 0.000 description 1
- 210000004298 cerebral vein Anatomy 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000004090 dissolution Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000005755 formation reaction Methods 0.000 description 1
- 230000002496 gastric effect Effects 0.000 description 1
- 210000000936 intestine Anatomy 0.000 description 1
- 210000002429 large intestine Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 239000004081 narcotic agent Substances 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 229940125723 sedative agent Drugs 0.000 description 1
- 239000000932 sedative agent Substances 0.000 description 1
- 210000003625 skull Anatomy 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
- 210000001835 viscera Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B23/00—Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
- G09B23/28—Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
- G09B23/285—Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine for injections, endoscopy, bronchoscopy, sigmoidscopy, insertion of contraceptive devices or enemas
Description
Die vorliegende Erfindung bezieht sich auf die Darstellung von
Durchgängen bzw. Verbindungsgängen innerhalb eines festen Kör
pers, insbesondere auf die nicht-eindringende Simulation von
Ansichten innerhalb von Durchgängen aus Abbildungsdaten.
Manchmal ist es erforderlich Ansichten von Durchgängen bzw.
Verbindungsgängen, die sich durch feste Objekte erstrecken, von
einem Ansichtspunkt innerhalb des Durchgangs bzw. Verbindungs
gangs aus zu erhalten. Falls das Objekt ein Patient ist, ist es
erforderlich, Blockierungen oder Strukturen im Dickdarm, in
Eingeweiden, Bronchien, Arterien, usw. zu sehen. Ein Endoskop
ist eine derartige Einrichtung, die Echtzeitansichten mit hoher
Auflösung von dem inneren von hohlen Organen und Hohlräumen
innerhalb des menschlichen Körpers erzeugt. Obwohl eine endos
kopische Untersuchung meist nicht-eindringend ist, erfordern
die Verfahren immer noch einige Beruhigungsmittel oder Narkoti
ka, um die Unbequemlichkeit für den Patienten zu verringern.
Innere Ansichtseinrichtungen ähnlich dem Endoskop können bei
nicht-medizinischen Anwendungen verwendet werden, um die Durch
gänge bzw. Verbindungsgänge innerhalb einer festen Struktur zu
sehen. Einige dieser Einrichtungen ermöglichen innere Ansichten
nicht, da der Durchgang bzw. Verbindungsgang oder Hohlraum kei
ne Öffnung zur Außenseite besitzen kann oder eine fortlaufende
Öffnung zur Außenseite besitzt, die nicht groß genug ist, um
die innere Ansichtseinrichtung aufzunehmen.
Ein weiteres Problem der inneren Ansichtseinrichtungen besteht
darin, daß das Gesichtsfeld auf einen kleinen Bereich innerhalb
des Durchgangs bzw. Verbindungsgangs beschränkt ist. Es ist
sehr schwierig, die genaue Position innerhalb des Objekts fest
zustellen, um das Bild von der inneren Abbildungseinrichtung
mit der Gesamtstruktur des Objekts in Beziehung zu setzen bzw.
zu korrelieren.
Um die Position innerhalb der Objekts zu bestimmen, wurde die
Röntgenstrahl-Computer-Tomographie (CT) oder die Magnetreso
nanz-Abbildung (MRI) verwendet, um innere anatomische Struktu
ren des Objekts anzuzeigen. Diese Verfahren sind nicht-zer
störende/nicht-eindringende Abbildungstechniken. Typischer
weise wurden sie verwendet, um die mittels der inneren Abbil
dungseinrichtung erhaltenen Bilder zu ergänzen, um zu versu
chen, das gesehene Bild mit einer Lokalisierung innerhalb des
Objekts in Beziehung zu setzen bzw. zu korrelieren.
Bei einer medizinischen Anwendung sieht ein Radiologe typi
scherweise zweidimensionale (2D) Querschnitte und erzeugt ein
mentales Bild von dreidimensionalen (3D) Strukturen und korre
liert bzw. setzt die Bilder in Beziehung zu von innerhalb der
Durchgänge bzw. Verbindungsgänge mit ihrer dreidimensionalen
(3D) Lokalisierung innerhalb des Objekts. Jedoch, wenn das Ob
jekt komplexe innere Strukturen besitzt, wie beispielsweise
röhrenförmige Strukturen im Körper, die wiederholt vor und zu
rück durch die Querschnitte verlaufen, treten Probleme auf.
Gegenwärtig besteht ein Bedarf nach einer Einrichtung, die
nicht-eindringend Bilder von inneren Durchgängen bzw. Verbin
dungsgängen eines festen Körpers anzeigt, zusammen mit einer
Darstellung, wo innerhalb des Objekts die Ansicht erfaßt wird.
Eine Aufgabe der vorliegenden Erfindung besteht darin, ein An
zeigesystem zu schaffen, das nicht-eindringend Bilder von Hohl
räumen innerhalb eines Objekts zusammen mit einem Bild zum
Identifizieren des Ansichtspunkts des inneren Bilds in Bezie
hung zum gesamten Objekt erzeugt.
Eine weitere Aufgabe der vorliegenden Erfindung besteht darin,
ein System zu schaffen, das einem Bediener ermöglicht, Struktu
ren und Oberflächen innerhalb eines Hohlraums eines Objekts mit
keiner Öffnung zur Außenseite des Objekts zu sehen.
Die vorliegende Erfindung erzeugt beide Arten von Ansichten,
innere "virtuelle endoskopische" Ansichten und eine Gesamtan
sicht zum Anzeigen der augenblicklichen Endoskop-Position.
Die Merkmale der Erfindung, die für neu gehalten werden, sind
genau in den Ansprüchen angegeben. Die Erfindung selbst jedoch,
sowohl die Anordnung als auch das Betriebsverfahren, zusammen
mit weiteren Aufgaben und Vorteilen werden am besten anhand der
folgenden Beschreibung in Verbindung mit der Zeichnung ver
standen.
Es zeigen:
Fig. 1 ein vereinfachtes Blockschaltbild des erfindungsgemäßen
Systems,
Fig. 2 eine Darstellung einer zweidimensionalen (2D) Abstands
bezeichnung zur Verwendung bei der Pfadplanung der vorliegenden
Erfindung,
Fig. 3 eine Darstellung der Pfadplanung entsprechend einem Aus
führungsbeispiel der vorliegenden Erfindung,
Fig. 4 eine computererzeugte Ansicht der Innenseite eines Dick
darms eines Objekts, und
Fig. 5 ein Gesamt-"Kartenbild", das mit einem Zylindersymbol
als Anzeige des Ansichtspunkts des Bilds aus Fig. 4 erzeugt
ist.
Die vorliegende Erfindung ermöglicht die Darstellung von Durch
gängen bzw. Verbindungsgängen innen in einem Objekt und die
Untersuchung von Oberflächen und Strukturen innerhalb dieser
Durchgänge bzw. Verbindungsgänge.
In Fig. 1 ist ein virtuelles Untersuchungssystem für Hohlräume
mit zahlreichen Untersystemen gezeigt:
- 1. eine Bilderfassungseinrichtung 21, die zum nicht-eindrin genden Erzeugen von Abbildungsinformationen von inneren Struk turen eines Objekt geeignet ist. Dies können Röntgenstrahl- Computer-Tomographie- (Röntgenstrahl-CT) und Magnetresonanz- Abbildungs- (MRI) oder Ultraschall-Systeme sein,
- 2. eine Segmentierungs- bzw. Gliederungseinrichtung 23, die interessierendes Gewebe innerhalb eines durch die Bildinforma tion beschriebenen Volumens identifiziert bzw. erkennt,
- 3. eine Oberflächenextraktionseinrichtung 25, die polygonische bzw. vieleckige Modelle von jedem ausgewählten Gewebe erzeugt,
- 4. eine Modellwiedergabeeinrichtung 29, die fähig ist, den po lygonischen bzw. vieleckigen Datensatz zu transformieren bzw. umzuwandeln und zu manipulieren,
- 5. eine funktionell partitionierte bzw. aufgeteilte Speicher einrichtung zum Speichern von Abbildungsinformation, und
- 6. optional ein Pfadfinder-Untersystem 35, das eine "sichere" Durchlaßkurve durch ein vom Bediener ausgewähltes Organ be rechnet.
Röntgenstrahl-, Computer-Tomographie- (CT), Magnetresonanz-
Abbildungs- (MRI) oder Ultraschall-Systeme können als Erfassungs
einrichtung 21 verwendet werden, um mehrdimensionale Abbil
dungsinformationen bezüglich innerer Strukturen eines Objekts 3
zu erfassen. Diese Informationen kann zu einer vorausgehenden
Zeit erfaßt und in einer Speichereinrichtung bzw. einem Spei
cher 10 gespeichert werden oder kann interaktiv bzw. im Dialog
betrieb erfaßt werden, so wie erforderlich. Die Speicherein
richtung 10 ist funktionell derart aufgeteilt, daß zahlreiche
Arten von Informationen unabhängig gespeichert werden und
wiederaufgefunden werden können, ohne andere in der Speicher
einrichtung 10 gespeicherte Informationen zu unterbrechen.
Die in der Speichereinrichtung 10 gespeicherten Informationen
werden einer Segmentierungs- bzw. Gliederungseinrichtung 23
zugeführt, die die Abbildungsinformationen analysiert und an
grenzende Lokalisierungen mit demselben Gewebetyp bestimmt und
alle diese Lokalisierungen als ein Organ identifiziert bzw.
erkennt. Dies segmentiert bzw. gliedert die Informationen mit
tels der Lokalisierung in identifizierbare bzw. erkennbare
feste Strukturen. Herkömmliche Segmentierungs- bzw. Gliede
rungsverfahren können hier verwendet werden. Ein mit der vor
liegenden Erfindung kompatibles bzw. zusammenpassendes Verfah
ren ist im U.S. Patent 4 751 643, erteilt am 14. Juni 1988, mit
dem Titel "Method and Apparatus for Determining Connected Sub
structures Within a Body" von W. Lorensen und H. Cline, be
schrieben. Ein zweites Verfahren, das verwendet werden kann,
ist im U.S. Patent 5 187 658, erteilt am 16. Februar 1993, mit
dem Titel "System and Method for Segmenting Internal Structures
Contained Within The Interior Region of a Solid Object" von H.
Cline und W. Lorensen, beschrieben.
Wenn einmal die Volumenelemente (Voxel) der Abbildungsinforma
tionen segmentiert bzw. gegliedert sind, werden sie mit Gewebe/
Organ-Identifizierungen- bzw. Kennzeichnungen bezeichnet, wobei
Oberflächenmodelle aus den Volumendaten von der Abbildungsein
richtung 21 mittels der Oberflächenextraktionseinrichtung 25
erzeugt werden können, wobei herkömmliche Techniken, wie der
"Marching Cubes" Algorithmus bzw. der Algorithmus "sich fortbe
wegender Würfel", der im U.S. Patent 4 710 876, erteilt am 1.
Dezember 1987, mit dem Titel "System and Method for the Display
of Surface Structures Contained Within the Interior Region of a
Solid Body" von Harvey E. Cline und William E. Lorensen
("Marching Cubes Method") beschrieben ist.
Das "Marching Cubes" Verfahren bzw. das Verfahren "sich fortbe
wegender Würfel" lokalisiert Oberflächenpunkte eines identifi
zierten bzw. erkannten Gewebes unter Verwendung von linearer
Interpolation, um die Gewebegrenze innerhalb eines "Würfels" zu
lokalisieren, der durch acht benachbarte Volumenelemente
(Voxel) definiert ist. Ein Einheitsvektor senkrecht zur Ober
fläche wird für jeden Dreiecksvertex (triangle vertex) bzw.
jede Dreiecksspitze aus dem Gradienten der Volumenelementdaten
(Voxeldaten) abgeleitet. Für die endoskopische Anwendung wird
eine durch Dreiecke (triangles) definierte Oberfläche über
Punkte oder direkte Volumenwiedergaben bevorzugt, da die
Wieder-Interpolation der Volumendaten zu berechnungsaufwendig
für die gewünschten interaktiven Wiedergabegeschwindigkeiten
ist.
Da häufig eine große Anzahl von Dreiecken erforderlich ist, um
die Oberflächen zu bilden, wird die Anzahl der Dreiecke in re
lativ flachen Teilen der Oberfläche mittels einer Dezimierungs- bzw.
Verminderungseinrichtung 27 verringert. Die Dezimierungs- bzw.
Verminderungseinrichtung 27 kann viele verschiedene be
kannte Dezimierungs- bzw. Verminderungsverfahren verwenden, wie
beispielsweise die "Dezimierungs- bzw. Verminderungs-Anwendung
bzw. "Decimation application" von Zarge und Schroeder in der
U.S. Patentanmeldung Nr. 07/815 772, eingereicht am 2. Januar
1992 mit dem Titel "A Method for Reducing the Complexity of a
Polygonal Mesh" von Jonathan A. Zarge und William J. Schroeder.
Die dezimierte bzw. verminderte Oberfläche verbessert die Wie
dergabegeschwindigkeiten mit lediglich einem geringen Verlust
an Details.
Ein weiteres Verfahren zum Anzeigen von Modellen ist im U.S.
Patent 4 719 585, erteilt am 12. Januar 1988, mit dem Titel
"Dividing Cubes System and Method for the Display of Surface
Structures Contained Within the Interior Region of a Solid
Body" von Harvey E. Cline, Siegwalt Ludke und William E. Loren
sen ("Dividing Cubes") beschrieben. Das Verfahren beginnt mit
Volumendaten und erzeugt eine durch eine Anzahl von Punkten und
mit jedem Punkt verbundenen Normal-Vektoren beschriebene Ober
fläche eher als Polygone bzw. Vielecke. Das "Würfel-Auftei
lungs"- bzw. "Dividing Cubes"-Verfahren wurde verwendet, um
innerhalb volumetrischer Daten enthaltene Oberflächen anzu
zeigen.
Dezimierung bzw. Verminderung kann nicht-für Anzeigen verwendet
werden, die regelmäßig beabstandete Informationen benötigen,
wie beispielsweise Punkt- oder normale Anzeigen.
Die dezimierten bzw. verringerten Abbildungsinformationen von
der Dezimierungs- bzw. Verminderungseinrichtung 27 beschreiben
ein dreidimensionales (3D) Oberflächenmodell und werden in der
Speichereinrichtung 10 gespeichert. Eine Modellwiedergabeein
richtung 29 erzeugt ein Bild des dreidimensionalen (3D) Ober
flächenmodells, wie vom ausgewählten Ansichtspunkt aus gesehen.
Die Wiedergabeeinrichtung 29 kann entsprechend herkömmlichen
Computergraphik-Wiedergabeentwürfen konstruiert sein.
Die vorliegende Erfindung kann irgendeinen von drei Wegen ver
wenden, um einen Bildansichtspunkt des dreidimensionalen (3D)
Oberflächenmodells oder eine Serie von Bildansichtspunkten, die
kollektiv als ein Ansichtspunktpfad bezeichnet werden, aus
wählen.
Bei dem ersten Weg steuert ein Bediener den Ansichtspunkt mit
einer graphischen Schnittstelleneinrichtung 31, wie beispiels
weise einer Computermaus. Die graphische Schnittstelleneinrich
tung 31 ermöglicht die Bewegung des Bildansichtspunkts. Der
Bediener 5 kann auch das Gesichtsfeld und andere Abbildungspa
rameter der Wiedergabeeinrichtung 29 mit der graphischen
Schnittstelleneinrichtung 31 steuern. Diese manuelle Technik
ist am besten geeignet für Anwendungen wie Operationsplanung
und Operationssimulation.
Ein zweiter Weg verwendet eine Computeranimationstechnik, ge
nannt "Hauptinformationsbildausschnitt-Technik" bzw. "Key fra
ming". Die Wiedergabeeinrichtung 29 bildet ein Bild von inneren
Strukturen des Objekts 3 und zeigt auch die inneren Durchgänge
bzw. Verbindungsgänge an. Der Bediener 5 verwendet eine graphi
sche Schnittstelleneinrichtung 31, um verschiedene Ansichts
punkte zum Ansehen eines Bilds auszuwählen, bekannt als "Haupt
informationsbildausschnitte" bzw. "Key frames". Wenn die
"Hauptinformationsbildausschnitte" bzw. "Key frames" einmal
eingerichtet sind, erzeugt eine Pfad-Glättungseinrichtung 37
einen Pfad, der die "Hauptinformationsbildausschnitte "bzw.
"Key frames" verbindet. Bekannte Glättungstechniken, wie bei
spielsweise kubische Splinefunktionen (cubic splines), können
verwendet werden. Ein virtueller Film kann mittels der Wieder
gabeeinrichtung 29 abgespielt werden, indem nacheinander Bilder
von Ansichtspunkten entlang dem geglätteten Pfad aus erzeugt
werden. Dies erzeugt den Eindruck, daß der Bediener 5 eine vir
tuelle Kamera den Pfad entlang bewegt. Die "Hauptinformations
bildausschnitt-Technik" bzw. das "Key framing" ist geeignet für
Gesamtkamerabewegungen durch offene innere und äußere Umge
bungen.
Das Durchqueren von hohlen Organen, die der Bediener 5 untersu
chen will, stellt eine Herausforderung für die vorstehenden er
sten und zweiten Wege dar. Manuelle Ansichtspunktbewegung in
begrenzten Räumen ist schwierig. Eine ähnliche Technik zum au
tomatisieren der Pfadplanung wird bei der Auswahl von Ansichts
punkten für Bilder in engen Räumen verwendet.
Dieser Weg findet automatisch einen Pfad durch einen Durchgang
bzw. Verbindungsgang. Der Bediener 5 verwendet die graphische
Schnittstelleneinrichtung 31 zum Spezifizieren bzw. Bestimmen
einer dreidimensionalen (3D) Lokalisierung, die das endgültige
Ziel für den Bildansichtspunkt ist.
Eine Navigations-Volumenberechnungs-Einrichtung 33 kennzeichnet
alle Volumenelemente (Voxel) mit ihrem Abstand vom Ziel. Fig.
2 zeigt eine zweidimensionale (2D) Darstellung von Abstands
kennzeichnung für einen einzelnen Schnitt. Das Ziel ist der
Punkt G. Die Anwendung von Fig. 2 verwendet eine Wellenfront-
Ausbreitungs-Technik über die Volumenelemente (Voxel). Abstände
werden auf einem Gitter bestimmt, beispielsweise der Effektivi
tät halber als "Manhattan-("Stadtblock") Abstand". Jedes Volu
menelement (Voxel) im Navigationsvolumen, das nicht Teil eines
"Hindernisses" ist, wird mit einem Integer-Abstand zum Ziel
gekennzeichnet. Volumenelemente (Voxel), die Hindernisse ent
halten werden nicht gekennzeichnet. Dies wird für alle benach
barten Volumenelemente (Voxel) wiederholt, die nicht verarbei
tet wurden, was in einer Verarbeitung einer "Wellenfront" re
sultiert. Die Abstandskennzeichnung endet, wenn keine neuen
Nachbarn der Wellenfront gekennzeichnet werden können.
Wenn einmal das Navigationsvolumen erzeugt ist, können Schnitte
der segmentierten bzw. gegliederten Modells angezeigt werden,
als ob sie anatomische Schnitte wären.
Der Bediener 5 wählt auch einen Startpunkt. Ein vorgeschlagener
Ansichtspunktpfad von dem gewählten Startpunkt im Volumen zum
Ziel wird von einer Pfadberechnungseinrichtung 35 mittels her
kömmlicher Verfahren berechnet, bevorzugterweise unter Verwen
dung einer "steilster Abfall"-Technik bzw. "Steepest descent"-
Technik auf den Werten des Navigationsvolumens, die in der
Speichereinrichtung 10 gespeichert sind. Die Pfadberechnungs
einrichtung 35 kann auch einen Abstand von jedem Startpunkt zum
Zielpunkt berechnen und ihn dem Bediener 5 anzeigen. Fig. 3
zeigt berechnete Pfade von zwei Startpunkten.
Eine Pfadglättungseinrichtung 37 berechnet einen glatten "Flug
pfad", der die ausgewählten Pfadpunkte zwischen dem Startpunkt
und dem Ziel unter Verwendung herkömmlicher Glättungstechniken
verbindet. Da die Pfadberechnungseinrichtung 35 kleine Schritte
erzeugt, während sie sich auf das Ziel zu bewegt, ist die An
zahl der Punkte auf dem Ansichtspunktpfad typischerweise um
einen Faktor 2 oder 3 zu vor der Glättung verringert.
Wenn einmal der Ansichtspunktpfad erzeugt ist, kann der Bedie
ner 5 starten, stoppen und sich schrittweise entlang dem be
rechneten Ansichtspunktpfad bewegen, indem geeignete Signale
zur Wiedergabeeinrichtung 29 gesendet werden.
Die Wiedergabeeinrichtung 29 kann ebenso zahlreiche verschiede
ne Anzeigealternativen verwenden.
- 1. Dreidimensionales (3D) Einzelbild - Eine Oberflächenwieder gabe von inneren Strukturen eines Objekts 3 kann unter Verwen dung kommerziell verfügbarer Hardware bzw. Geräteausrüstung erfolgen. Transparente Wiedergaben von großen einschließenden Geweben (wie beispielsweise der Haut) ermöglichen eine ungehin derte Ansicht von tieferen Strukturen, während ein dreidimen sionaler Zusammenhang für den Benutzer geschaffen wird, wie in der U.S. Patentanmeldung Nr. 08/144 270, eingereicht am 28. Oktober 1993, mit dem Titel "Geometric Clipping Using Boolean Textures" von William E. Lorensen im Teil "Texture Mapping" ("Strukturabbildung") beschrieben.
- 2. Stereo - Stereoskopische Betrachtung kann verwendet werden, um die Wahrnehmung von dreidimensionalen Beziehungen zu ver stärken. Dies erfordert, daß dem Bediener 5 zwei separate Bil der zugeführt werden: eines entsprechend der Ansicht des linken Auges und eines entsprechend der Ansicht des rechten Auges.
- 3. Aufgespaltene Ansicht - Zwei Ansichten werden gleichzeitig durch die Wiedergabeeinrichtung 29 auf einer Anzeige 39 ange zeigt. Ein Bild ist von einem vom Bediener 5 ausgewählten An sichtspunkt aus, der als Gesamt-Bezugsansicht des Objekts 3 dient, die als eine Karte wirkt. Das zweite Bild ist von einem Ansichtspunkt innerhalb des Hohlraums aus.
- 4. Wo bin ich? - Während sich entlang des erzeugten Ansichts punktpfads bewegende Bilder angezeigt werden, kann der Bediener 5 einen "Wo bin ich?"-Knopf auf der graphischen Schnittstelle neinrichtung 31 drücken, der bewirkt, das das gegenwärtige in nere Bild in ein Überblicksbild mit einem Symbol zum Anzeigen der Lokalisierung des inneren Ansichtspunkts des vorhergehenden inneren Bilds wechselt.
- 5. Kamera-Nachführung in Querschnitten - Ein anderes durch die Wiedergabeeinrichtung 29 erzeugtes Fenster zeigt den gegenwär tigen, durch ein Symbol gekennzeichneten Ansichtspunkt auf den Original CT- oder MRI-Schnitten, die durch die Erfassungein richtung 21 erfaßt wurden. Dies ermöglicht die Lokalisierung in Bezug auf gewohnte Querschnittbilder.
Das virtuelle Untersuchungssystem für Hohlräume wurde in Berei
chen eines lebenden Objekts getestet.
In Fig. 4 wurde eine Röntgenstrahl-Computer-Tomographie- ("CT")
Einrichtung als Erfassungseinrichtung 21 verwendet, um Abbil
dungsinformationen von inneren Strukturen eines Objekts zu er
fassen. Die Oberflächenextraktionseinrichtung 25 extrahiert
eine durch 60.000 Dreiecke beschriebene Oberfläche. Die Ansicht
aus Fig. 4 ist von einem Ansichtspunkt entlang einem Ansichts
punktpfad durch den Dickdarm aus. Die Auswahl des Ansichts
punkts simuliert auf diese Weise ein herkömmliches Endoskop.
Fig. 5 stellt eine vergrößerte Gesamtansicht des Dickdarms dar,
ein "Karten"bild, mit einem als Symbol verwendeten Zylinder zum
Darstellen des bei der Erzeugung des Bilds aus Fig. 4 verwende
ten Ansichtspunkts. Dieses "Karten"bild kann gleichzeitig durch
die Wiedergabeeinrichtung 29 erzeugt und auf der Anzeigeein
richtung 39 angezeigt werden, um die Lokalisierung der simu
lierten endoskopischen Ansicht aus Fig. 4 zu ermöglichen.
Die vorliegende Erfindung wurde auch beim einem Schädel, Ge
hirnadern und der Aorta eines lebenden Objekts verwendet, wobei
alle hervorragende Bilder erzeugten. Die vorliegende Erfindung
bildet nicht-eindringend eine vergrößerte Darstellung von medi
zinisch wichtigen Strukturen, wie beispielsweise Ablagerungen
in Adern, Polypen im gastrointestinalen bzw. Magen und Darm
betreffenden Trakt bzw. System, um zu einer frühzeitigen Erken
nung und Behandlung potentieller ernsthafter Krankheiten zu
führen.
Die vorliegende Erfindung kann auch bei nicht-lebenden oder
leblosen Objekten verwendet werden. Alles, was erforderlich
ist, sind Abbildungsinformationen über die inneren Strukturen.
Diese können, wie vorstehend beschrieben, erfaßt werden oder
mittels von rechnergestützten Entwicklungs- und Konstruktions-/Fer
tigungs- (CAD/CAM) Verfahren synthetisiert werden.
Die Abbildungsinformationen können in zahlreichen Formen zuge
führt werden und erfordern nicht alle Verarbeitungsschritte,
wie sie vorstehend beschrieben sind. Beispielsweise können die
Abbildungsinformationen bereits als segmentierte bzw. geglie
derte Informationen gebildet werden und daher ist die Segmen
tierungs- bzw. Gliederungseinrichtung 23 nicht erforderlich.
Ähnlich, falls die Abbildungsinformationen als Oberflächen ge
bildet werden, ist die Oberflächenextraktionseinrichtung 25
nicht erforderlich. Ebenso können die Oberflächen bereits dezi
miert bzw. vermindert werden, wodurch die Dezimierungs- bzw.
Verminderungseinrichtung 27 wegfällt.
Die mittels der vorliegenden Erfindung erzeugten inneren An
sichten simulieren die Arten von Ansichten, die mit Hohlraum-
Untersuchungseinrichtungen erhalten werden können, wie bei
spielsweise mit Endoskopen. Verglichen mit realen endosko
pischen Ansichten besitzt die vorliegende Erfindung die folgen
den Vorteile:
- 1. Interaktive Steuerung aller virtuellen Kameraparameter ein schließlich des Gesichtsfelds,
- 2. Möglichkeit die Wände des Organs zu passieren, um benachbar te Anatomie zu sehen,
- 3. Möglichkeit die dreidimensionale (3D) Position des Ansichts punkts eines inneren Bildhohlraums zu lokalisieren,
- 4. Benutzergesteuerte Bewegung entlang einem computererzeugten Pfad, und
- 5. unbegrenzte Schärfentiefe.
Während einige derzeit bevorzugte Ausführungsbeispiele der Er
findung vorstehend detailliert beschrieben wurden, werden zahl
reiche Modifizierungen und Veränderungen für den Fachmann of
fensichtlich sein. Es ist daher verständlich, daß die Ansprüche
alle derartigen Modifizierungen und Veränderungen, die in ihren
Schutzbereich fallen, abdecken sollen.
Die vorliegende Erfindung erzeugt nicht-eindringend Bilder von
Hohlräumen eines Objekts von einem Ansichtspunkt innerhalb des
Hohlraums aus. Eine Erfassungseinrichtung erfaßt Abbildungsin
formationen über innere Strukturen eines Objekts. Diese Abbil
dungsinformationen werden in einzelne Strukturen segmentiert
bzw. gegliedert und ein dreidimensionales (3D) Oberflächenmo
dell wird konstruiert. Ein Bediener sieht ein Bild des dreidi
mensionalen (3D) Modells, um einen Ziel-Ansichtspunkt und einen
Start-Ansichtspunkt auszuwählen. Ein Ansichtspunktpfad wird
erzeugt, der den Start-Ansichtspunkt und den Ziel-Ansichtspunkt
verbindet. Bilder werden mit Ansichtspunkten entlang dem An
sichtspunktpfad erzeugt. Eine Vielzahl von zusätzlichen Dar
stellungstechniken unterstützt die Lokalisierung des gegenwär
tigen Bild-Ansichtspunkts durch den Betrachter und seine Bezie
hung zum Objekt.
Claims (9)
1. Verfahren zum Simulieren von Endoskopie, mit den Schritten:
- a) Erfassen von Abbildungsinformationen von inneren Strukturen eines Objekts (3);
- b) Erzeugen eines dreidimensionalen (3D) Oberflächenmodells der Abbildungsinformationen;
- c) Auswählen eines Start-Ansichtspunkts;
- d) Auswählen eines Ziel-Ansichtspunkts;
- e) Berechnen eines Ansichtspunktpfads um Hindernisse herum, der den Start-Ansichtspunkt und den Ziel-Ansichtspunkt verbindet;
- f) Erzeugen einer Vielzahl von inneren Bildern mit Ansichts punkten entlang dem Ansichtspunktpfad; und
- g) Anzeigen der Bilder in Aufeinanderfolge entsprechend der Position entlang dem Ansichtspunktpfad, wodurch Endoskopie si muliert wird.
2. Verfahren nach Anspruch 1, wobei der Schritt des Berechnen
eines Ansichtspunktpfads die folgenden Schritte umfaßt:
- a) Berechnen eines Abstands, in Umgehung von Hindernissen, von jedem Volumenelement des Oberflächenmodells zum Zielpunkt;
- b) Kennzeichnen jedes Volumenelements mit seinem berechneten Abstand;
- c) Einstellen eines Volumenelements, das den Start-Ansichts punkt enthält, als das gegenwärtige Volumenelement;
- d) Hinzufügen des gegenwärtigen Volumenelements zum Ansichts punktpfad;
- e) Bestimmen eines Volumenelements benachbart zum gegenwärtigen Volumenelement mit dem geringsten gekennzeichneten Abstands wert;
- f) Einstellen des Volumenelements mit dem niedrigsten gekenn zeichneten Abstandswert als gegenwärtiges Volumenelement; und
- g) Wiederholen der Schritte "d" bis "f", bis ein Volumenele ment, das das Ziel enthält, erreicht ist.
3. Verfahren nach Anspruch 1, wobei der Schritt des Berechnens
eines Ansichtspunktpfads folgende Schritte umfaßt:
- a) Anzeigen von Bildern des dreidimensionalen (3D) Modells für einen Bediener (5);
- b) Wechselwirken mit dem Bediener (5), um Lokalisierungen aus zuwählen, die "Hauptinformationsbildausschnitte" sind, die der Ansichtspunktpfad passiert; und
- c) Einpassen des Start-Ansichtspunkts, des Ziel-Ansichtspunkts und dazwischenliegender "Hauptinformationsbildausschnitte" in einen geglätteten Ansichtspunktpfad.
4. Verfahren nach Anspruch 1, mit den weiteren Schritten:
- a) Auswählen eines Ansichtspunkts außerhalb des Ansichtspunkt pfads;
- b) Erzeugen eines anderen Bildes mit einem im wesentlichen grö ßeren Gesichtsfeld als die mit einem Ansichtspunkt entlang des Ansichtspunktpfads erzeugten inneren Bilder, um als "Karten bild" zu dienen;
- c) Anzeigen eines beliebigen Symbols auf dem Kartenbild, um den verwendeten Ansichtspunkt anzuzeigen, der verwendet wird, um das gegenwärtig angezeigte innere Bild zu erzeugen.
5. Verfahren nach Anspruch 1, mit den weiteren Schritten:
- a) Erzeugen eines Schnittbilds aus den Abbildungsinformationen von inneren Strukturen des Objekts (3) mit einem im wesentli chen größeren Gesichtsfeld als die inneren Bilder, die mit ei nem Ansichtspunkt entlang dem Ansichtspunktpfad erzeugt wurden, um als ein "Kartenbild" zu dienen; und
- b) Anzeigen eines beliebigen Symbols auf dem Schnittbild, das den zur Erzeugung des gegenwärtig angezeigten inneren Bilds verwendeten Ansichtspunkt anzeigt.
6. Verfahren nach Anspruch 1, wobei
- a) eine Vielzahl von stereoskopischen Paaren innerer Bilder mit Ansichtspunkten entlang dem Ansichtspunktpfad erzeugt werden; und
- b) die stereoskopischen Paare dem Bediener (5) aufeinanderfol gend entsprechend der Position entlang dem Ansichtspunktpfad zugeführt werden, wodurch stereoskopische Endoskopie simuliert wird.
7. Virtuelles Untersuchungssystem zum Betrachten innerer Hohl
räume eines Objekts, mit:
- a) einer Speichereinrichtung (10) zum Speichern von Abbildungs informationen;
- b) einer Anzeigevorrichtung (39) für dreidimensionale (3D) Mo delle, die mit der Speichereinrichtung (10) verbunden ist, zum Anzeigen vom in der Speichereinrichtung (10) gespeicherten Bil dinformationen, wie sie von ausgewählten Ansichtspunkten ent lang einem Ansichtspunktpfad gesehen werden;
- c) einer graphischen Schnittstelleneinrichtung (31) zum Wech selwirken mit einem Bediener (5), um Start- und Ziel-Ansichts punkte zu definieren;
- d) eine Navigationsvolumen-Berechnungseinrichtung (33), die mit der Speichereinrichtung (10) verbunden ist, zum Bestimmen von Abständen von jedem Volumenelement durch den Hohlraum zum Ziel- Ansichtspunkt und zum Erzeugen eines Navigationsvolumens mit Volumenelementen, von denen jedes mit seinem entsprechenden Abstand gekennzeichnet ist; und
- e) einer Pfadberechnungseinrichtung (35), die mit der Speicher einrichtung (10) verbunden ist, zum Bestimmen eines kürzesten Abstands zwischen dem Start-Ansichtspunkt und dem Ziel-An sichtspunkt, der der Ansichtspunktpfad ist, und zum Speichern diese Pfades in der Speichereinrichtung (10), um der Anzeige einrichtung (30) für dreidimensionale (3D) Modelle zu ermög lichen, eine Serie von Bildern zu erzeugen, wie sie von Punkten entlang diesem berechneten Ansichtspunktpfad gesehen werden.
8. Virtuelles Untersuchungssystem nach Anspruch 7, mit
einer Pfadglättungseinrichtung (37), die mit der Speicherein
richtung (10) verbunden ist, zum Glätten des Ansichtspunktpfads
bevor die Anzeigeeinrichtung (39) für das dreidimensionale (3D)
Modell die Serie von Bildern erzeugt.
9. Virtuelles Untersuchungssystem zum Betrachten innerer Hohl
räume eines Objekts, mit
- a) einer Speichereinrichtung (10) zum Speichern von Abbildungs informationen;
- b) einer Anzeigeeinrichtung (39) für dreidimensionale (3D) Mo delle, die mit der Speichereinrichtung (10) verbunden ist, zum Anzeigen der in der Speichereinrichtung (10) gespeicherten Ab bildungsinformationen, wie sie von ausgewählten Ansichtspunkten entlang einem Ansichtspunktpfad gesehen werden;
- c) einer graphischen Schnittstelleneinrichtung (31) zum Wech selwirken mit einem Bediener (5), zum Definieren eines Start- Ansichtspunkts, eines Ziel-Ansichtspunkts und dazwischenliegen der Ansichtspunkte innerhalb des inneren Hohlraums, die als "Hauptinformationsbildausschnitte" bezeichnet werden; und
- d) einer Pfadglättungseinrichtung (37), die mit der Speicher einrichtung (10) gekoppelt ist, zum Erzeugen eines geglätteten Ansichtspunktpfads, der den Start-, den Ziel- und dazwischen liegende Ansichtspunkte verbindet, und zum Speichern des Pfads in der Speichereinrichtung (10), um der Anzeigeeinrichtung (39) für dreidimensionale (3D) Modelle zu ermöglichen, eine Serie von Bildern zu erzeugen, wie sie von Punkten entlang diesem berechneten Ansichtspunktpfad gesehen werden.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US08/344,445 | 1994-11-23 | ||
US08/344,445 US5611025A (en) | 1994-11-23 | 1994-11-23 | Virtual internal cavity inspection system |
Publications (2)
Publication Number | Publication Date |
---|---|
DE19543410A1 true DE19543410A1 (de) | 1996-06-27 |
DE19543410B4 DE19543410B4 (de) | 2009-06-04 |
Family
ID=23350583
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19543410A Expired - Fee Related DE19543410B4 (de) | 1994-11-23 | 1995-11-21 | Verfahren zum Simulieren von Endoskopie und virtuelles Untersuchungssystem zum Betrachten innerer Hohlräume |
Country Status (5)
Country | Link |
---|---|
US (1) | US5611025A (de) |
JP (1) | JP3874826B2 (de) |
CN (1) | CN1054921C (de) |
DE (1) | DE19543410B4 (de) |
IL (1) | IL116011A (de) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1012812A1 (de) * | 1996-09-16 | 2000-06-28 | The Research Foundation of State University of New York | Verfahren und system zur durchführung einer virtuellen untersuchung |
CN111000631A (zh) * | 2019-12-17 | 2020-04-14 | 上海嘉奥信息科技发展有限公司 | 基于Unity3D体渲染的内窥镜模拟方法及系统 |
Families Citing this family (173)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2652928B1 (fr) | 1989-10-05 | 1994-07-29 | Diadix Sa | Systeme interactif d'intervention locale a l'interieur d'une zone d'une structure non homogene. |
DE69318304T2 (de) | 1992-08-14 | 1998-08-20 | British Telecomm | Ortungssystem |
US5694530A (en) * | 1994-01-18 | 1997-12-02 | Hitachi Medical Corporation | Method of constructing three-dimensional image according to central projection method and apparatus for same |
US5803089A (en) * | 1994-09-15 | 1998-09-08 | Visualization Technology, Inc. | Position tracking and imaging system for use in medical applications |
US6694163B1 (en) | 1994-10-27 | 2004-02-17 | Wake Forest University Health Sciences | Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen |
US5920319A (en) * | 1994-10-27 | 1999-07-06 | Wake Forest University | Automatic analysis in virtual endoscopy |
US5782762A (en) * | 1994-10-27 | 1998-07-21 | Wake Forest University | Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen |
US7190371B2 (en) | 1996-02-08 | 2007-03-13 | Palm Charles S | 3D stereo browser for the internet |
US7154506B2 (en) * | 1996-02-08 | 2006-12-26 | Palm Charles S | 3D stereo browser for the internet |
WO1997031305A2 (en) * | 1996-02-08 | 1997-08-28 | Synthonics Incorporated | 3d stereo browser for the internet |
JP3770280B2 (ja) * | 1996-03-29 | 2006-04-26 | 株式会社日立メディコ | 三次元画像の表示方法及び装置 |
US6167296A (en) | 1996-06-28 | 2000-12-26 | The Board Of Trustees Of The Leland Stanford Junior University | Method for volumetric image navigation |
US6040841A (en) * | 1996-08-02 | 2000-03-21 | Microsoft Corporation | Method and system for virtual cinematography |
US7486811B2 (en) * | 1996-09-16 | 2009-02-03 | The Research Foundation Of State University Of New York | System and method for performing a three-dimensional virtual examination of objects, such as internal organs |
US6343936B1 (en) | 1996-09-16 | 2002-02-05 | The Research Foundation Of State University Of New York | System and method for performing a three-dimensional virtual examination, navigation and visualization |
US7194117B2 (en) * | 1999-06-29 | 2007-03-20 | The Research Foundation Of State University Of New York | System and method for performing a three-dimensional virtual examination of objects, such as internal organs |
US6331116B1 (en) | 1996-09-16 | 2001-12-18 | The Research Foundation Of State University Of New York | System and method for performing a three-dimensional virtual segmentation and examination |
US8682045B2 (en) * | 1997-02-25 | 2014-03-25 | Wake Forest University Health Sciences | Virtual endoscopy with improved image segmentation and lesion detection |
US6346940B1 (en) | 1997-02-27 | 2002-02-12 | Kabushiki Kaisha Toshiba | Virtualized endoscope system |
US6272370B1 (en) | 1998-08-07 | 2001-08-07 | The Regents Of University Of Minnesota | MR-visible medical device for neurological interventions using nonlinear magnetic stereotaxis and a method imaging |
US6246784B1 (en) | 1997-08-19 | 2001-06-12 | The United States Of America As Represented By The Department Of Health And Human Services | Method for segmenting medical images and detecting surface anomalies in anatomical structures |
US6226548B1 (en) | 1997-09-24 | 2001-05-01 | Surgical Navigation Technologies, Inc. | Percutaneous registration apparatus and method for use in computer-assisted surgical navigation |
US6021343A (en) | 1997-11-20 | 2000-02-01 | Surgical Navigation Technologies | Image guided awl/tap/screwdriver |
US6369812B1 (en) | 1997-11-26 | 2002-04-09 | Philips Medical Systems, (Cleveland), Inc. | Inter-active viewing system for generating virtual endoscopy studies of medical diagnostic data with a continuous sequence of spherical panoramic views and viewing the studies over networks |
US6348058B1 (en) | 1997-12-12 | 2002-02-19 | Surgical Navigation Technologies, Inc. | Image guided spinal surgery guide, system, and method for use thereof |
DE69937651T2 (de) | 1998-02-23 | 2008-06-19 | Algotec Systems Ltd. | System und Verfahren zur Strahlverfolgung |
WO1999042977A1 (en) * | 1998-02-23 | 1999-08-26 | Algotec Systems Ltd. | Automatic path planning system and method |
US6463317B1 (en) | 1998-05-19 | 2002-10-08 | Regents Of The University Of Minnesota | Device and method for the endovascular treatment of aneurysms |
US6118845A (en) | 1998-06-29 | 2000-09-12 | Surgical Navigation Technologies, Inc. | System and methods for the reduction and elimination of image artifacts in the calibration of X-ray imagers |
US6477400B1 (en) | 1998-08-20 | 2002-11-05 | Sofamor Danek Holdings, Inc. | Fluoroscopic image guided orthopaedic surgery system with intraoperative registration |
EP2302595A3 (de) | 1998-11-25 | 2011-04-06 | Wake Forest University Health Sciences | Virtuelle Endoskopie mit verbesserter Bildsegmentierung und Läsionsdetektion |
US6470207B1 (en) | 1999-03-23 | 2002-10-22 | Surgical Navigation Technologies, Inc. | Navigational guidance via computer-assisted fluoroscopic imaging |
US6491699B1 (en) * | 1999-04-20 | 2002-12-10 | Surgical Navigation Technologies, Inc. | Instrument guidance method and system for image guided surgery |
JP2001008232A (ja) * | 1999-06-25 | 2001-01-12 | Matsushita Electric Ind Co Ltd | 全方位映像出力方法と装置 |
US6499488B1 (en) | 1999-10-28 | 2002-12-31 | Winchester Development Associates | Surgical sensor |
US7366562B2 (en) | 2003-10-17 | 2008-04-29 | Medtronic Navigation, Inc. | Method and apparatus for surgical navigation |
US8644907B2 (en) | 1999-10-28 | 2014-02-04 | Medtronic Navigaton, Inc. | Method and apparatus for surgical navigation |
US11331150B2 (en) | 1999-10-28 | 2022-05-17 | Medtronic Navigation, Inc. | Method and apparatus for surgical navigation |
US6493573B1 (en) | 1999-10-28 | 2002-12-10 | Winchester Development Associates | Method and system for navigating a catheter probe in the presence of field-influencing objects |
US6235038B1 (en) | 1999-10-28 | 2001-05-22 | Medtronic Surgical Navigation Technologies | System for translation of electromagnetic and optical localization systems |
US8239001B2 (en) | 2003-10-17 | 2012-08-07 | Medtronic Navigation, Inc. | Method and apparatus for surgical navigation |
US6474341B1 (en) | 1999-10-28 | 2002-11-05 | Surgical Navigation Technologies, Inc. | Surgical communication and power system |
US6381485B1 (en) | 1999-10-28 | 2002-04-30 | Surgical Navigation Technologies, Inc. | Registration of human anatomy integrated for electromagnetic localization |
WO2001064124A1 (en) | 2000-03-01 | 2001-09-07 | Surgical Navigation Technologies, Inc. | Multiple cannula image guided tool for image guided procedures |
US6535756B1 (en) | 2000-04-07 | 2003-03-18 | Surgical Navigation Technologies, Inc. | Trajectory storage apparatus and method for surgical navigation system |
US7356367B2 (en) * | 2000-06-06 | 2008-04-08 | The Research Foundation Of State University Of New York | Computer aided treatment planning and visualization with image registration and fusion |
US7085400B1 (en) | 2000-06-14 | 2006-08-01 | Surgical Navigation Technologies, Inc. | System and method for image based sensor calibration |
WO2002029723A1 (en) | 2000-10-02 | 2002-04-11 | The Research Foundation Of State University Of Newyork | Enhanced virtual navigation and examination |
DE10102477A1 (de) | 2001-01-19 | 2002-07-25 | Storz Endoskop Gmbh Schaffhaus | Vorrichtung zum Applizieren von Licht auf eine Gefäßwand |
US7630750B2 (en) * | 2001-02-05 | 2009-12-08 | The Research Foundation For The State University Of New York | Computer aided treatment planning |
EP1393259B1 (de) * | 2001-05-11 | 2018-06-13 | Koninklijke Philips N.V. | Verfahren, system und rechnerprogrammprodukt zur erstellung von medizinischen berichten |
EP1393260A1 (de) * | 2001-05-15 | 2004-03-03 | Koninklijke Philips Electronics N.V. | Analyse von multidimensionalen datensätzen |
US6636757B1 (en) | 2001-06-04 | 2003-10-21 | Surgical Navigation Technologies, Inc. | Method and apparatus for electromagnetic navigation of a surgical probe near a metal object |
US7450749B2 (en) * | 2001-07-06 | 2008-11-11 | Koninklijke Electronics N.V. | Image processing method for interacting with a 3-D surface represented in a 3-D image |
US7324104B1 (en) | 2001-09-14 | 2008-01-29 | The Research Foundation Of State University Of New York | Method of centerline generation in virtual objects |
US7596256B1 (en) | 2001-09-14 | 2009-09-29 | The Research Foundation For The State University Of New York | Computer assisted detection of lesions in volumetric medical images |
US6711231B2 (en) * | 2001-12-10 | 2004-03-23 | Ge Medical Systems Global Technology Company, Llc | Methods and apparatus to assist and facilitate vessel analysis |
EP1458292A2 (de) * | 2001-12-14 | 2004-09-22 | Koninklijke Philips Electronics N.V. | Verfahren, system und computerprogramm zur visualisierung der oberflächentextur der wand eines hohlorgans aus seiner dreidimensionalen abtastung |
KR100439756B1 (ko) * | 2002-01-09 | 2004-07-12 | 주식회사 인피니트테크놀로지 | 3차원 가상내시경 화면 표시장치 및 그 방법 |
US6947786B2 (en) | 2002-02-28 | 2005-09-20 | Surgical Navigation Technologies, Inc. | Method and apparatus for perspective inversion |
EP1493128A1 (de) * | 2002-03-29 | 2005-01-05 | Koninklijke Philips Electronics N.V. | Verfahren, system und computerprogramm zur stereoskopischen betrachtung von medizinischen 3d-bildern |
US6990368B2 (en) * | 2002-04-04 | 2006-01-24 | Surgical Navigation Technologies, Inc. | Method and apparatus for virtual digital subtraction angiography |
EP1500054A1 (de) * | 2002-04-12 | 2005-01-26 | Koninklijke Philips Electronics N.V. | Graphische vorrichtung und verfahren zum verfolgen von volumen-bild untersuchung |
US7998062B2 (en) | 2004-03-29 | 2011-08-16 | Superdimension, Ltd. | Endoscope structures and techniques for navigating to a target in branched structure |
US7260250B2 (en) * | 2002-09-30 | 2007-08-21 | The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services | Computer-aided classification of anomalies in anatomical structures |
US7697972B2 (en) | 2002-11-19 | 2010-04-13 | Medtronic Navigation, Inc. | Navigation system for cardiac therapies |
US7599730B2 (en) | 2002-11-19 | 2009-10-06 | Medtronic Navigation, Inc. | Navigation system for cardiac therapies |
US7202869B2 (en) * | 2003-01-07 | 2007-04-10 | Lucasfilm Entertainment Company Ltd. | System and method of creating and animating a computer-generated image of a creature |
US7542791B2 (en) | 2003-01-30 | 2009-06-02 | Medtronic Navigation, Inc. | Method and apparatus for preplanning a surgical procedure |
US7081088B2 (en) * | 2003-01-30 | 2006-07-25 | Siemens Corporate Research, Inc. | Method and apparatus for automatic local path planning for virtual colonoscopy |
US7660623B2 (en) | 2003-01-30 | 2010-02-09 | Medtronic Navigation, Inc. | Six degree of freedom alignment display for medical procedures |
US7304644B2 (en) * | 2003-03-12 | 2007-12-04 | Siemens Medical Solutions Usa, Inc. | System and method for performing a virtual endoscopy |
AU2003901625A0 (en) * | 2003-03-28 | 2003-05-01 | Commonwealth Scientific And Industrial Research Organisation | Combining front propagation with shape knowledge for accurate curvilinear modelling |
US7457444B2 (en) * | 2003-05-14 | 2008-11-25 | Siemens Medical Solutions Usa, Inc. | Method and apparatus for fast automatic centerline extraction for virtual endoscopy |
US7822461B2 (en) * | 2003-07-11 | 2010-10-26 | Siemens Medical Solutions Usa, Inc. | System and method for endoscopic path planning |
US7313430B2 (en) | 2003-08-28 | 2007-12-25 | Medtronic Navigation, Inc. | Method and apparatus for performing stereotactic surgery |
EP1667749B1 (de) | 2003-09-15 | 2009-08-05 | Super Dimension Ltd. | System aus zubehör zur verwendung mit bronchoskopen |
EP2316328B1 (de) | 2003-09-15 | 2012-05-09 | Super Dimension Ltd. | Umhüllungsvorrichtung zur Fixierung von Bronchoskopen |
US7835778B2 (en) * | 2003-10-16 | 2010-11-16 | Medtronic Navigation, Inc. | Method and apparatus for surgical navigation of a multiple piece construct for implantation |
US7840253B2 (en) | 2003-10-17 | 2010-11-23 | Medtronic Navigation, Inc. | Method and apparatus for surgical navigation |
WO2005043464A2 (en) * | 2003-11-03 | 2005-05-12 | Bracco Imaging S.P.A. | Dynamic crop box determination for optimized display of a tube-like structure in endoscopic view (“crop box”) |
JP3847744B2 (ja) * | 2003-11-04 | 2006-11-22 | オリンパス株式会社 | 挿入支援システム |
US20060036162A1 (en) * | 2004-02-02 | 2006-02-16 | Ramin Shahidi | Method and apparatus for guiding a medical instrument to a subsurface target site in a patient |
US8764725B2 (en) | 2004-02-09 | 2014-07-01 | Covidien Lp | Directional anchoring mechanism, method and applications thereof |
WO2005096223A2 (en) * | 2004-03-31 | 2005-10-13 | British Telecommunications Public Limited Company | Pathfinding system |
CN1333360C (zh) * | 2004-04-28 | 2007-08-22 | 复旦大学 | 虚拟内窥镜系统的中心线自动定位方法 |
US7567834B2 (en) | 2004-05-03 | 2009-07-28 | Medtronic Navigation, Inc. | Method and apparatus for implantation between two vertebral bodies |
DE602005024159D1 (de) * | 2004-06-23 | 2010-11-25 | Koninkl Philips Electronics Nv | Virtuelle endoskopie |
CN1779718B (zh) * | 2004-11-18 | 2010-11-24 | 中国科学院自动化研究所 | 虚拟内窥镜的可见性分块绘制装置及其方法 |
US7586501B2 (en) | 2005-05-24 | 2009-09-08 | Siemens Medical Solutions Usa, Inc. | Simultaneous projection of multi-branched vessels and their context on a single image |
US7379062B2 (en) * | 2005-08-01 | 2008-05-27 | Barco Nv | Method for determining a path along a biological object with a lumen |
JP2007066291A (ja) * | 2005-08-02 | 2007-03-15 | Seiko Epson Corp | 画像表示方法および画像表示装置、画像表示システム、サーバ、プログラム、記録媒体 |
US20070046661A1 (en) * | 2005-08-31 | 2007-03-01 | Siemens Medical Solutions Usa, Inc. | Three or four-dimensional medical imaging navigation methods and systems |
US7623900B2 (en) * | 2005-09-02 | 2009-11-24 | Toshiba Medical Visualization Systems Europe, Ltd. | Method for navigating a virtual camera along a biological object with a lumen |
US7835784B2 (en) | 2005-09-21 | 2010-11-16 | Medtronic Navigation, Inc. | Method and apparatus for positioning a reference frame |
DE102005046203B3 (de) * | 2005-09-27 | 2007-01-04 | Siemens Ag | Verfahren und Vorrichtung zur selektiven Darstellung diagnostischer Bilddaten |
US8079957B2 (en) * | 2005-11-18 | 2011-12-20 | Siemens Medical Solutions Usa, Inc. | Synchronized three or four-dimensional medical ultrasound imaging and measurements |
WO2007064981A2 (en) * | 2005-11-30 | 2007-06-07 | The Research Foundation Of State University Of New York | Reducing false positives of polyp in cad |
US8452061B2 (en) * | 2005-11-30 | 2013-05-28 | The Research Foundation Of State University Of New York | Electronic colon cleansing method for virtual colonoscopy |
US9168102B2 (en) | 2006-01-18 | 2015-10-27 | Medtronic Navigation, Inc. | Method and apparatus for providing a container to a sterile environment |
JP4832927B2 (ja) * | 2006-03-14 | 2011-12-07 | オリンパスメディカルシステムズ株式会社 | 医療用画像処理装置及び医療用画像処理方法 |
US8112292B2 (en) | 2006-04-21 | 2012-02-07 | Medtronic Navigation, Inc. | Method and apparatus for optimizing a therapy |
US8560047B2 (en) | 2006-06-16 | 2013-10-15 | Board Of Regents Of The University Of Nebraska | Method and apparatus for computer aided surgery |
JP4738270B2 (ja) * | 2006-07-14 | 2011-08-03 | 株式会社日立メディコ | 手術支援装置 |
CN100434044C (zh) * | 2006-08-03 | 2008-11-19 | 上海交通大学 | 用特征点非刚性配准实现管道性脏器虚拟充气膨胀的方法 |
CN100464709C (zh) * | 2006-08-03 | 2009-03-04 | 上海交通大学 | 用虚拟充气改进空腔性脏器可视化效果的方法 |
US8660635B2 (en) | 2006-09-29 | 2014-02-25 | Medtronic, Inc. | Method and apparatus for optimizing a computer assisted surgical procedure |
US20080144901A1 (en) * | 2006-10-25 | 2008-06-19 | General Electric Company | Cartoon-like exaggeration of medical images to emphasize abnormalities |
US20080117210A1 (en) * | 2006-11-22 | 2008-05-22 | Barco N.V. | Virtual endoscopy |
US7853058B2 (en) * | 2006-11-22 | 2010-12-14 | Toshiba Medical Visualization Systems Europe, Limited | Determining a viewpoint for navigating a virtual camera through a biological object with a lumen |
JP2008236195A (ja) * | 2007-03-19 | 2008-10-02 | Sony Corp | 撮像ブロック及び撮像装置 |
US20090003528A1 (en) | 2007-06-19 | 2009-01-01 | Sankaralingam Ramraj | Target location by tracking of imaging device |
US9883818B2 (en) | 2007-06-19 | 2018-02-06 | Accuray Incorporated | Fiducial localization |
US8905920B2 (en) | 2007-09-27 | 2014-12-09 | Covidien Lp | Bronchoscope adapter and method |
US9575140B2 (en) | 2008-04-03 | 2017-02-21 | Covidien Lp | Magnetic interference detection system and method |
EP2297673B1 (de) | 2008-06-03 | 2020-04-22 | Covidien LP | Registrationsverfahren auf merkmalbasis |
US8218847B2 (en) | 2008-06-06 | 2012-07-10 | Superdimension, Ltd. | Hybrid registration method |
US8932207B2 (en) | 2008-07-10 | 2015-01-13 | Covidien Lp | Integrated multi-functional endoscopic tool |
US8165658B2 (en) | 2008-09-26 | 2012-04-24 | Medtronic, Inc. | Method and apparatus for positioning a guide relative to a base |
US8175681B2 (en) | 2008-12-16 | 2012-05-08 | Medtronic Navigation Inc. | Combination of electromagnetic and electropotential localization |
BRPI0918308A2 (pt) * | 2008-12-29 | 2020-08-04 | Koninklijke Philips Electronics N.V. | método para planejar um trajeto de acordo com uma aplicação cirúrgica, e, sistema para planejar um trajeto de acordo com a aplicação cirúrgica |
CN101849843B (zh) * | 2009-03-31 | 2013-03-13 | 上海交通大学医学院附属新华医院 | 三维心脏超声虚拟内窥镜导航方法 |
US8611984B2 (en) | 2009-04-08 | 2013-12-17 | Covidien Lp | Locatable catheter |
US8494614B2 (en) | 2009-08-31 | 2013-07-23 | Regents Of The University Of Minnesota | Combination localization system |
US8494613B2 (en) | 2009-08-31 | 2013-07-23 | Medtronic, Inc. | Combination localization system |
US8348831B2 (en) * | 2009-12-15 | 2013-01-08 | Zhejiang University | Device and method for computer simulated marking targeting biopsy |
JP5551955B2 (ja) * | 2010-03-31 | 2014-07-16 | 富士フイルム株式会社 | 投影画像生成装置、方法、及びプログラム |
WO2011159834A1 (en) | 2010-06-15 | 2011-12-22 | Superdimension, Ltd. | Locatable expandable working channel and method |
JP5520804B2 (ja) * | 2010-12-20 | 2014-06-11 | 本田技研工業株式会社 | 境界要素法の計算で用いる表面メッシュモデルを生成する表面メッシュモデル生成装置、表面メッシュモデル生成方法およびコンピュータプログラム |
US11911117B2 (en) | 2011-06-27 | 2024-02-27 | Board Of Regents Of The University Of Nebraska | On-board tool tracking system and methods of computer assisted surgery |
US10219811B2 (en) | 2011-06-27 | 2019-03-05 | Board Of Regents Of The University Of Nebraska | On-board tool tracking system and methods of computer assisted surgery |
US9498231B2 (en) | 2011-06-27 | 2016-11-22 | Board Of Regents Of The University Of Nebraska | On-board tool tracking system and methods of computer assisted surgery |
WO2013059358A2 (en) * | 2011-10-17 | 2013-04-25 | Butterfly Network, Inc. | Transmissive imaging and related apparatus and methods |
CN103957834B (zh) | 2011-12-03 | 2017-06-30 | 皇家飞利浦有限公司 | 用于半自动路径规划的自动深度滚动和方向调节 |
US10139985B2 (en) | 2012-06-22 | 2018-11-27 | Matterport, Inc. | Defining, displaying and interacting with tags in a three-dimensional model |
US9786097B2 (en) | 2012-06-22 | 2017-10-10 | Matterport, Inc. | Multi-modal method for interacting with 3D models |
US10163261B2 (en) | 2014-03-19 | 2018-12-25 | Matterport, Inc. | Selecting two-dimensional imagery data for display within a three-dimensional model |
US10127722B2 (en) | 2015-06-30 | 2018-11-13 | Matterport, Inc. | Mobile capture visualization incorporating three-dimensional and two-dimensional imagery |
JP5930539B2 (ja) * | 2012-09-12 | 2016-06-08 | 富士フイルム株式会社 | 医用画像表示装置および方法並びにプログラム |
US10105149B2 (en) | 2013-03-15 | 2018-10-23 | Board Of Regents Of The University Of Nebraska | On-board tool tracking system and methods of computer assisted surgery |
US9925009B2 (en) | 2013-03-15 | 2018-03-27 | Covidien Lp | Pathway planning system and method |
US9459770B2 (en) | 2013-03-15 | 2016-10-04 | Covidien Lp | Pathway planning system and method |
US9639666B2 (en) | 2013-03-15 | 2017-05-02 | Covidien Lp | Pathway planning system and method |
US9667889B2 (en) | 2013-04-03 | 2017-05-30 | Butterfly Network, Inc. | Portable electronic devices with integrated imaging capabilities |
US10952593B2 (en) | 2014-06-10 | 2021-03-23 | Covidien Lp | Bronchoscope adapter |
CN106659453B (zh) | 2014-07-02 | 2020-05-26 | 柯惠有限合伙公司 | 用于分割肺部的系统和方法 |
US9530219B2 (en) | 2014-07-02 | 2016-12-27 | Covidien Lp | System and method for detecting trachea |
US9754367B2 (en) | 2014-07-02 | 2017-09-05 | Covidien Lp | Trachea marking |
US20160000414A1 (en) | 2014-07-02 | 2016-01-07 | Covidien Lp | Methods for marking biopsy location |
US9770216B2 (en) | 2014-07-02 | 2017-09-26 | Covidien Lp | System and method for navigating within the lung |
CA2953267C (en) | 2014-07-02 | 2022-11-15 | Covidien Lp | Real-time automatic registration feedback |
US9603668B2 (en) | 2014-07-02 | 2017-03-28 | Covidien Lp | Dynamic 3D lung map view for tool navigation inside the lung |
US11227427B2 (en) | 2014-08-11 | 2022-01-18 | Covidien Lp | Treatment procedure planning system and method |
CN104887175A (zh) * | 2015-06-03 | 2015-09-09 | 皖南医学院 | 一种虚拟胃镜检查与诊断系统 |
US10426555B2 (en) | 2015-06-03 | 2019-10-01 | Covidien Lp | Medical instrument with sensor for use in a system and method for electromagnetic navigation |
US10986990B2 (en) | 2015-09-24 | 2021-04-27 | Covidien Lp | Marker placement |
US10709352B2 (en) | 2015-10-27 | 2020-07-14 | Covidien Lp | Method of using lung airway carina locations to improve ENB registration |
US9962134B2 (en) | 2015-10-28 | 2018-05-08 | Medtronic Navigation, Inc. | Apparatus and method for maintaining image quality while minimizing X-ray dosage of a patient |
US10478254B2 (en) | 2016-05-16 | 2019-11-19 | Covidien Lp | System and method to access lung tissue |
US10615500B2 (en) | 2016-10-28 | 2020-04-07 | Covidien Lp | System and method for designing electromagnetic navigation antenna assemblies |
US10446931B2 (en) | 2016-10-28 | 2019-10-15 | Covidien Lp | Electromagnetic navigation antenna assembly and electromagnetic navigation system including the same |
US10638952B2 (en) | 2016-10-28 | 2020-05-05 | Covidien Lp | Methods, systems, and computer-readable media for calibrating an electromagnetic navigation system |
US10418705B2 (en) | 2016-10-28 | 2019-09-17 | Covidien Lp | Electromagnetic navigation antenna assembly and electromagnetic navigation system including the same |
US10792106B2 (en) | 2016-10-28 | 2020-10-06 | Covidien Lp | System for calibrating an electromagnetic navigation system |
US10722311B2 (en) | 2016-10-28 | 2020-07-28 | Covidien Lp | System and method for identifying a location and/or an orientation of an electromagnetic sensor based on a map |
US10751126B2 (en) | 2016-10-28 | 2020-08-25 | Covidien Lp | System and method for generating a map for electromagnetic navigation |
US10517505B2 (en) | 2016-10-28 | 2019-12-31 | Covidien Lp | Systems, methods, and computer-readable media for optimizing an electromagnetic navigation system |
US11547490B2 (en) * | 2016-12-08 | 2023-01-10 | Intuitive Surgical Operations, Inc. | Systems and methods for navigation in image-guided medical procedures |
US11219489B2 (en) | 2017-10-31 | 2022-01-11 | Covidien Lp | Devices and systems for providing sensors in parallel with medical tools |
US11224392B2 (en) | 2018-02-01 | 2022-01-18 | Covidien Lp | Mapping disease spread |
US11132830B2 (en) * | 2018-03-29 | 2021-09-28 | Biosense Webster (Israel) Ltd. | Static virtual camera positioning |
US11771505B2 (en) | 2019-12-31 | 2023-10-03 | Biosense Webster (Israel) Ltd. | Three dimensional mapping system for cranial surgical pathways and method |
US11413097B2 (en) | 2019-12-31 | 2022-08-16 | Biosense Webster (Israel) Ltd. | Three dimensional mapping system for cranial surgical pathways with semi-targets and method |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4710876A (en) * | 1985-06-05 | 1987-12-01 | General Electric Company | System and method for the display of surface structures contained within the interior region of a solid body |
US4719585A (en) * | 1985-08-28 | 1988-01-12 | General Electric Company | Dividing cubes system and method for the display of surface structures contained within the interior region of a solid body |
US4751643A (en) * | 1986-08-04 | 1988-06-14 | General Electric Company | Method and apparatus for determining connected substructures within a body |
US5233687A (en) * | 1987-03-25 | 1993-08-03 | Xerox Corporation | User interface with multiple workspaces for sharing display system objects |
FR2636451A1 (fr) * | 1988-09-13 | 1990-03-16 | Gen Electric Cgr | Procede de reconstruction d'arborescence a trois dimensions par etiquetage |
US4907973A (en) * | 1988-11-14 | 1990-03-13 | Hon David C | Expert system simulator for modeling realistic internal environments and performance |
US5187658A (en) * | 1990-01-17 | 1993-02-16 | General Electric Company | System and method for segmenting internal structures contained within the interior region of a solid object |
FR2662525B1 (fr) * | 1990-05-25 | 1992-08-28 | Gen Electric Cgr | Procede de visualisation d'une partie de l'image d'une structure physique. |
US5287446A (en) * | 1990-10-15 | 1994-02-15 | Sierra On-Line, Inc. | System and methods for intelligent movement on computer displays |
US5313567A (en) * | 1991-06-13 | 1994-05-17 | At&T Bell Laboratories | Arrangement for determining and displaying volumetric data in an imaging system |
US5347459A (en) * | 1993-03-17 | 1994-09-13 | National Research Council Of Canada | Real time collision detection |
-
1994
- 1994-11-23 US US08/344,445 patent/US5611025A/en not_active Expired - Lifetime
-
1995
- 1995-11-15 IL IL11601195A patent/IL116011A/xx not_active IP Right Cessation
- 1995-11-21 DE DE19543410A patent/DE19543410B4/de not_active Expired - Fee Related
- 1995-11-22 CN CN95118185.8A patent/CN1054921C/zh not_active Expired - Fee Related
- 1995-11-22 JP JP30405995A patent/JP3874826B2/ja not_active Expired - Fee Related
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1012812A1 (de) * | 1996-09-16 | 2000-06-28 | The Research Foundation of State University of New York | Verfahren und system zur durchführung einer virtuellen untersuchung |
EP1012812A4 (de) * | 1996-09-16 | 2002-06-12 | Univ New York State Res Found | Verfahren und system zur durchführung einer virtuellen untersuchung |
CN111000631A (zh) * | 2019-12-17 | 2020-04-14 | 上海嘉奥信息科技发展有限公司 | 基于Unity3D体渲染的内窥镜模拟方法及系统 |
CN111000631B (zh) * | 2019-12-17 | 2021-04-06 | 上海嘉奥信息科技发展有限公司 | 基于Unity3D体渲染的内窥镜模拟方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN1054921C (zh) | 2000-07-26 |
IL116011A (en) | 1999-05-09 |
CN1135047A (zh) | 1996-11-06 |
DE19543410B4 (de) | 2009-06-04 |
IL116011A0 (en) | 1996-01-31 |
JPH08252217A (ja) | 1996-10-01 |
US5611025A (en) | 1997-03-11 |
JP3874826B2 (ja) | 2007-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19543410B4 (de) | Verfahren zum Simulieren von Endoskopie und virtuelles Untersuchungssystem zum Betrachten innerer Hohlräume | |
Lorensen et al. | The exploration of cross-sectional data with a virtual endoscope | |
DE102015221998B4 (de) | Verfahren zur Unterstützung eines Befunders bei der Ortsbeschreibung einer Zielstruktur in einer Brust, Vorrichtung und Computerprogramm | |
DE102006055173B4 (de) | Verfahren, medizinisches diagnostisches bildgebendes System sowie computerlesbares Speichermedium für die halbautomatische Segmentierungstechnik für röhrenförmige Objekte mit niedrigem Kontrast | |
DE69737720T2 (de) | Verbessertes bildverarbeitungsverfahren für ein dreidimensionales bilderzeugungssystem | |
DE112004000128B4 (de) | Verfahren und Vorrichtung für die automatische lokale Wegplanung bei der virtuellen Kolonoskopie | |
US6058218A (en) | Enhanced visualization of weak image sources in the vicinity of dominant sources | |
DE102004043676B4 (de) | Verfahren zur Visualisierung von Plaqueablagerungen aus 3D-Bilddatensätzen von Gefäßstrukturen | |
DE102009035441B4 (de) | Verfahren und Bildverarbeitungssystem zur Erzeugung eines Volumenansichtsbilds vom Inneren eines Körpers | |
WO2015154069A1 (en) | Dynamic and interactive navigation in a surgical environment | |
DE19955690A1 (de) | System und Verfahren zur auf einer Volumendarstellung basierenden Segmentation | |
DE112004000722T5 (de) | Verfahren und Vorrichtung zur schnellen automatischen Mittellinien-Extraktion für die virtuelle Endoskopie | |
DE102017214447B4 (de) | Planare Visualisierung von anatomischen Strukturen | |
DE102007030960A1 (de) | Verfahren zur Darstellung von 3-D-Strukturen in 2-D-Projektionsbildern | |
EP1654710B1 (de) | Darstellung von 3D-Bilddaten | |
CN113017832A (zh) | 一种基于虚拟现实技术的穿刺手术模拟方法 | |
Blank et al. | Medical volume exploration: gaining insights virtually | |
EP1920422B1 (de) | Verfahren und vorrichtung zur navigation und messung in einem mehrdimensionalen bilddatensatz | |
Neubauer et al. | STEPS-an application for simulation of transsphenoidal endonasal pituitary surgery | |
DE69636578T2 (de) | Anatomisches anzeigesystem | |
DE69935768T2 (de) | Herleitung einer isofläche in einem mehrdimensionalen datenfeld | |
DE19542605A1 (de) | Anzeigesystem zur Verbesserung der Darstellung von Körperstrukturen während medizinischer Verfahren | |
DE10210644B4 (de) | Verfahren zum Erstellen einer Sequenz | |
Yagel et al. | Multisensory platform for surgical simulation | |
Neubauer | Virtual Endoscopy for preoperative planning and training of endonasal transsphenoidal pituitary surgery |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
8364 | No opposition during term of opposition | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20130601 |