DE102005037806A1 - Verfahren und Vorrichtung zur Vergrösserung des Sichtfelds bei der Ultraschallbildgebung - Google Patents

Verfahren und Vorrichtung zur Vergrösserung des Sichtfelds bei der Ultraschallbildgebung Download PDF

Info

Publication number
DE102005037806A1
DE102005037806A1 DE102005037806A DE102005037806A DE102005037806A1 DE 102005037806 A1 DE102005037806 A1 DE 102005037806A1 DE 102005037806 A DE102005037806 A DE 102005037806A DE 102005037806 A DE102005037806 A DE 102005037806A DE 102005037806 A1 DE102005037806 A1 DE 102005037806A1
Authority
DE
Germany
Prior art keywords
volume
scanning
scan
transducer
data sets
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102005037806A
Other languages
English (en)
Inventor
Richard Yung Issaquah Chiao
Steven Charles Waukesha Miller
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of DE102005037806A1 publication Critical patent/DE102005037806A1/de
Ceased legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data

Abstract

Es ist ein Verfahren und eine Vorrichtung zur Erweiterung des Sichtfelds bei einem medizinischen bildgebenden System (100) geschaffen. Das Verfahren beinhaltet das Scannen einer Fläche (402) eines Objekts (200) unter Verwendung eines Ultraschalltransducers (106), wobei eine Anzahl von volumetrischen 3-D-Datensätzen (408, 410, 414, 418) erhalten wird, wobei wenigstens einer der vielen Datensätze einen Abschnitt (412, 416, 420) aufweist, der sich mit einem anderen der vielen Datensätze überlappt, und wobei ein 3-D-Panoramavolumenbild erzeugt wird, das den überlappenden Bereich zur räumlichen Ausrichtung einander benachbarter 3-D-Volumendatensätze nutzt.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gegenstand der Erfindung sind allgemein Ultraschallbildgebungssysteme und spezieller Verfahren und Vorrichtungen zur Akquisition und Kombination von Bildern in Ultraschallsystemen.
  • Traditionelle 2D-Ultraschallscans erfassen zu einem Zeitpunkt einen einzelnen Bildschnitt eines Objekts und zeigen diesen an. Die Position und die Orientierung der Ultraschallsonde zu dem Zeitpunkt des Scans bestimmt das wieder gegebene Bild. Wenigstens einige der bekannten Ultraschallsysteme, beispielsweise eine Ultraschallmaschine oder ein Ultraschallscanner, sind in der Lage 2D-Bilder zu akquirieren und diese zu einem einzelnen Panoramabild zu kombinieren. Gegenwärtige Ultraschallsysteme haben außerdem die Fähigkeit, Bilddaten zu akquirieren, um 3D-Volumenbilder zu erzeugen. Die 3D-Bildgebung kann die Visualisierung von 3D-Strukturen erleichtern oder ermöglichen, die in 3D klarer als im 2D-Schnitt zu veranschaulichen sind und außerdem die Visualisierung von arrayorientierten Schnitten in dem Körper die durch direktes Scannen nicht zugänglich sind, die Führung und/oder Planung invasiver Abläufe, beispielsweise von Biopsien und chirurgischen Eingriffen, und den Austausch verbesserter Scaninformation mit Kollegen oder Patienten gestatten oder erleichtern.
  • Ein 3D-Ultraschallbild kann als ein Stapel von 2D- Bildern in einem gegebenen Volumen akquiriert werden. Beispielsweise wird bei einem Verfahren zur Akquisition dieses Stapels von 2D-Bildern eine Sonde über einen Körper manuell geschwenkt, so dass in jeder Position der Sonde ein 2D-Bild akquiriert wird. Die manuelle Überstreichung kann mehrere Sekunden erfordern, so dass dieses Verfahren „statische" 3D-Bilder erzeugt. Obwohl die 3D-Scans ein Körpervolumen abbilden, ist das Volumen ein finites Volumen und das Bild ist eine statische 3D-Repräsentation des Volumens.
  • KURZE BESCHREIBUNG DER ERFINDUNG
  • In einer Ausführungsform werden ein Verfahren und eine Vorrichtung zur Vergrößerung eines Sichtfelds für ein medizinisches Bildgebungssystem geschaffen. Das Verfahren beinhaltet das Abtasten einer Oberfläche eines Objekts unter Verwendung eines Ultraschallwandlers, wodurch eine Anzahl von volumetrischen 3D-Datensätzen erhalten wird, wobei wenigstens einer der vielen Datensätze einen Abschnitt hat, der sich mit einem anderen der vielen Datensätze überlappt und wobei ein Panorama-3D-Volumenbild erzeugt wird, das die überlappenden Bereiche dazu nutzt, die benachbarten volumetrischen 3D-Datensätze in räumliche Übereinstimmung zu bringen.
  • Es wird eine weitere Ausführungsform des Ultraschallsystems vorgeschlagen. Dieses Ultraschallsystem enthält einen Volumenrenderingprozessor, der dazu eingerichtet ist, Bilddaten aufzunehmen, die als Anzahl von Scanebenen, eine Anzahl von Scanlinien und/oder volumetrische Datensätze aufgenommen worden sind, wobei ein Matchingprozessor dazu eingerichtet ist, die projektierten Volumina in Echt zeit in ein kombiniertes Volumenbild umzurechnen.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Blockbild eines Ultraschallsystems gemäß einer exemplarischen Ausführungsform der vorliegenden Erfindung.
  • 2 ist ein Blockbild eines Ultraschallsystems gemäß einer anderen exemplarischen Ausführungsform der vorliegenden Erfindung.
  • 3 ist eine perspektivische Ansicht eines Bildes eines Objekts, das durch die Systeme gemäß den 1 und 2 gemäß exemplarischer Ausführungsformen der vorliegenden Erfindung aufgenommen worden ist und
  • 4 ist eine perspektivische Ansicht eines exemplarischen Scans, der ein Transducerarray nutzt, um ein Panorama-3D-Bild zu erzeugen, gemäß verschiedener Ausführungsformen der vorliegenden Erfindung.
  • DETAILLIERTE BESCHREIBUNG DER ERFINDUNG
  • Der hier verwendete Begriff „Echtzeit" erfasst definitionsgemäß Zeitintervalle, die von dem Nutzer als geringer oder fehlender Zeitverzug aufgefasst werden. Wenn beispielsweise ein Volumenrendering, das einen akquirierten Ultraschalldatensatz nutzt, als in Echtzeit ausgeführt beschrieben wird, legt ein Zeitintervall zwischen der Akquisition des Ultraschalldatensatzes und der Wiedergabe des darauf beruhenden Volumenrenderings im Bereich von weniger als ungefähr einer Sekunde. Dieses reduziert die Zeitverzögerung zwischen einer Einstellmaßnahme und einer Anzeige, die diese Einstellmaßnahme veranschaulicht. Beispielsweise arbeiten einige Systeme typischerweise mit Zeitintervallen von ungefähr 0,1 Sekunden. Es könnten aber auch Zeitintervalle von mehr als 1 Sekunde genutzt werden.
  • 1 ist ein Blockdiagramm eines einer exemplarischen Ausführungsform der vorliegenden Erfindung entsprechenden Ultraschallsystems. Das Ultraschallsystem 100 enthält einen Transmitter 102, der ein Array von Elementen 104 treibt (z.B. piezoelektrische Kristalle), die in einem Transducer 106 angeordnet oder als Teil desselben ausgebildet sind und in einem Körper oder einem Volumen gepulste Ultraschallsignale abgeben. Es kann eine Vielzahl von Geometrien angewendet werden und als Teil der Sonde können (nicht dargestellt) ein oder mehrere Transducer 106 Anwendung finden. Die gepulsten Ultraschallsignale werden von Dichtegrenzschichten und/oder Strukturen des Körpers, Blutzellen oder Muskelgewebe rückgestreut und erzeugen Echos, die zu den Elementen 104 zurückkehren. Die Echos werden von einem Empfänger 108 aufgenommen und zu einem Strahlformer 110 geliefert. Der Strahlformer führt an den empfangenen Echos einen Strahlformungsvorgang aus und liefert ein HF-Signal. Das HF-Signal wird dann von einem HF-Prozessor 112 verarbeitet. Der HF-Prozessor 112 kann einen (nicht veranschaulichten) komplexen Demodulator enthalten, der das HF-Signal demoduliert, um IQ-Datenpaare zu bilden, die die Echosignale repräsentieren. Die HF- oder IQ-Signaldaten können dann direkt zu dem HF/IQ-Puffer 114 zur Speicherung geleitet werden (z.B. zur temporären Speicherung).
  • Das Ultraschallsystem 100 enthält außerdem einen Sig nalprozessor 116 zur Verarbeitung der akquirierten Ultraschallinformation (d.h. HF-Signaldaten oder IQ-Datenpaare) und präpariert Frames aus der Ultraschallinformation zur Wiedergabe auf einem Wiedergabesystem 118. Der Signalprozessor 116 ist dazu eingerichtet, gemäß einer Anzahl auswählbarer Ultraschallmodalitäten an der akquirierten Ultraschallinformation ein oder mehrere Verarbeitungsoperationen durchzuführen. Die akquirierte Ultraschallinformation kann bei einer Scansitzung in Echtzeit verarbeitet werden, sowie die Echosignale empfangen werden. Zusätzlich oder alternativ kann die Ultraschallinformation während einer Scanningsitzung temporär in dem HF/IQ-Puffer 114 gespeichert und langsamer als in Echtzeit in einer Live- oder Off-Line-Operation verarbeitet werden.
  • Das Ultraschallsystem 100 kann fortwährend Ultraschallinformation mit einer Framerate akquirieren, die 20 Frames pro Sekunde übersteigt, was die für das menschliche Auge angemessene Wahrnehmungsrate ist. Die akquirierte Ultraschallinformation kann auf einem Displaysystem 118 mit niedriger Framerate veranschaulicht werden. Es kann ein Bildpufferspeicher 122 vorgesehen sein, um verarbeitete Frames und akquirierte Ultraschallinformation, die nicht zur unmittelbaren Anzeige vorgesehen sind, zu speichern. Bei einer exemplarischen Ausführungsform weist der Bildpufferspeicher 122 eine ausreichende Kapazität auf, um Frames der Ultraschallinformation von wenigstens einigen Sekunden zu speichern. Die Ultraschallinformationsframes können in einer Weise gespeichert werden, die den Abruf derselben entsprechend ihrer Reihenfolge oder Akquisitionszeit erleichtert. Der Bildpufferspeicher 122 kann auf jedem bekannten Datenspeichermedium beruhen.
  • Es kann eine Nutzereingabeeinrichtung 120 dazu ver wendet werden, den Betrieb des Ultraschallsystems 100 zu steuern. Die Nutzereingabeeinrichtung 120 kann jede geeignete Einrichtung und/oder jedes Nutzerinterface sein, das Nutzereingaben zur Steuerung, beispielsweise der Art des Scans oder des Typs des Transducers gestattet, der bei einem Scan zu verwenden ist.
  • 2 ist ein Blockbild eines Ultraschallsystems 150 gemäß einer anderen exemplarischen Ausführungsform der vorliegenden Erfindung. Bei dem System ist der Transducer 106 mit einem Transmitter 102 und einem Empfänger 108 verbunden. Der Transducer 106 sendet Ultraschallimpulse und empfängt Echos von Strukturen innerhalb eines gescannten Ultraschallvolumens 410 (veranschaulicht in 4). Ein Speicher 154 speichert Ultraschalldaten des Empfängers 108, die dieser von dem gescannten Ultraschallvolumen 410 erhalten hat. Das Volumen 410 kann durch verschiedene Techniken (z.B. 3D-Scanning, Echtzeit-3D-Scanning, Volumenscanning, 2D-Scanning mit einem Elementearray mit Positionssensoren, Freihandscanning mit Voxelkorrelationstechnik und/oder 2D-Matrixarraytransducern) erhalten worden sein.
  • Der Transducer 106 kann während der Abtastung oder des Scannings eines Volumens linear oder im Bogen bewegt werden, um ein 3D-Panoramabild zu erhalten. In jeder Linien- oder Bogenposition erhält der Transducer 106 eine Anzahl von Scanebenen, wenn der Transducer 106 bewegt wird. Die Scanebenen 156 werden in dem Speicher 154 gespeichert und dann zu einem Volumenrenderingprozessor 158 übertragen. Der Volumenrenderingprozessor 158 kann 3D-Bilddatensätze direkt empfangen. Alternativ können Scanebenen 156 aus dem Speicher 154 zu einem Volumenscankonverter 168, beispielsweise zur Durchführung einer geome trischen Translation und dann zu einem Volumenrenderingprozessor 158 übertragen werden. Nachdem die 3D-Bilddatensätze und/oder Scanebenen 156 von dem Volumenrenderingprozessor 158 verarbeitet worden sind, können die Datensätze und/oder Scanebenen 156 zu einem Matchingprozessor 160 übertragen und miteinander kombiniert werden, um ein kombiniertes Panoramavolumen zu erzeugen, wobei das kombinierte Panoramavolumen an einen Videoprozessor 164 übertragen wird. Es sollte verstanden werden, dass der Volumenscankonverter 168 Teil des Volumenrenderingprozessors 158 sein kann. Bei manchen Ausführungsformen kann der Transducer 106 an Stelle von Scanebenen 156 Scanlinien erhalten und der Speicher 154 kann die von dem Transducer 106 erhaltenen Scanlinien an Stelle der Scanebenen 156 speichern. Der Volumenscankonverter 168 kann die von dem Transducer 106 erhaltenen Scanlinien an Stelle der Scanebenen 156 verarbeiten und Datenschnitte erzeugen, die zu dem Volumenrenderingprozessor 158 übertragen werden. Die Ausgabe des Volumenrenderingprozessors 158 wird an den Matchingprozessor 160, den Videoprozessor 164 und das Display 166 übertragen. Der Volumenrenderingprozessor 158 kann Scanebenen, Scanlinien und/oder Volumenbilder direkt aufnehmen oder Scanebenen, Scanlinien und/oder Volumendaten über den Volumenscankonverter 168 erhalten. Der Matchingprozessor 160 verarbeitet die Scanebenen, Scanlinien und/oder Volumendaten zur Lokalisierung allgemeiner Dateneigenschaften und kombiniert 3D-Volumina auf der Basis der allgemeinen Dateneigenschaften in Echtzeitpanoramabilddatensätze, die wiedergegeben und/oder weiterverarbeitet werden können, um die Identifikation von Strukturen innerhalb eines Objekts 200 (veranschaulicht in 3) zu erleichtern, wie hier detaillierter beschrieben wird.
  • Die Position jedes Echosignalabtastwerts (Voxel) wird im Hinblick auf Genauigkeit (d.h. den Abstand eines Voxels zu dem nächsten) und der Ultraschallantwort (und aus der Ultraschallantwort abgeleiteten Werten) definiert. Geeignete Ultraschallantworten sind Grauwerte, Farbwerte und Angio- oder Powerdopplerinformation.
  • Das System 150 kann zwei oder mehr statische Volumina an unterschiedlichen, einander überlappenden Orten akquirieren, die dann zu einem kombinierten Volumen kombiniert werden. Beispielsweise kann an einem ersten Ort ein erstes statisches Volumen akquiriert und der Transducer 106 dann in eine zweite Position bewegt und ein zweites statisches Volumen akquiriert werden. Alternativ kann der Scan durch mechanische oder elektronische Mittel automatisch durchgeführt werden, die mehr als 20 Volumina pro Sekunde akquirieren können. Dieses Verfahren erzeugt 3D-Bilder in „Echtzeit". Echtzeit 3D-Bilder sind allgemein nützlicher als statische 3D-Bilder, weil sich bewegende Strukturen abgebildet und die räumlichen Dimensionen korrekt in Übereinstimmung gebracht werden können.
  • 3 ist eine Perspektivansicht eines Bildes eines von den Systemen nach den 1 und 2 gemäß exemplarischer Ausführungsform der vorliegenden Erfindung abgebildeten Objekts. Das Objekts 200 enthält ein Volumen 202, das durch eine Anzahl sektorförmiger Querschnitte mit Radialgrenzen 204 und 206 definiert ist, die von einander mit einem Winkel 208 divergieren. Der Transducer 106 (in den 1 und 2 veranschaulicht) fokussiert und richtet Ultraschallimpulse elektronisch in Längsrichtung, um einen Scan entlang benachbarter Abtastlinien in jeder Scanebene 156 (veranschaulicht in 2) durchzuführen und fokussiert und richtet Ultraschallimpulse elektronisch oder mechanisch seitlich, um benachbarte Scanebenen 156 zu scannen. Die von dem Transducer 106 erhaltenen Scanebenen werden, wie in 1 veranschaulicht, in dem Speicher 154 gespeichert und durch den Volumenscankonverter 168 von Kugelkoordinaten in kartesische Koordinaten umgewandelt. Ein mehrere Scanebenen 156 enthaltendes Volumen wird von dem Scankonverter 168 ausgegeben und in einen Schnittspeicher (nicht veranschaulicht) als ein Renderingbereich 210 gespeichert. Der Renderingbereich 210 wird in dem Schnittspeicher aus vielen benachbarten Scanebenen 156 gebildet.
  • Der Transducer 106 kann mit einer konstanten Geschwindigkeit verschoben werden während die Bilder akquiriert werden, so dass individuelle Scanebenen 156 in Bezug auf früher akquirierte Scanebenen 156 weder seitlich gedehnt noch komprimiert werden. Es wird für den Transducer 106 außerdem gewünscht, dass er in einer einzigen Ebene bewegt wird, so dass eine hohe Korrelation von jeder der Scanebenen 156 zu der jeweils nächsten besteht. Jedoch kann das manuelle Scannen eines unregelmäßig geformten Körpers bewirken, dass einer der beiden genannten wünschenswerten Zustände oder beide verlassen werden. Das automatische Scannen und/oder die Bewegungserfassung und 2D-Bildkorrektur können unerwünschte Zustände/Effekte des manuellen Scannen reduzieren.
  • Der Scanbereich 210 kann in seiner Größe durch einen Bediener definiert werden, der ein Nutzerinterface oder eine Eingabeeinrichtung nutzt, um eine Scheibendicke 212, eine Breite 214 und eine Höhe 216 anzugeben. Der Volumenscankonverter 168 (nicht veranschaulicht in 2) kann durch eine Scheibendickeneinstellungssteuerung (nicht veranschaulicht) gesteuert werden, um den Dickenparameter einer Scheibe 222 zu justieren, um einen Renderingbereich 210 der gewünschten Dicke zu bilden. Der Renderingbereich 210 definiert einen Teil des gescannten Ultraschallvolumens 410 (veranschaulicht in 4), das volumengerendert wird. Der Volumenrenderingprozessor 158 greift auf den Schnittspeicher zu und rendert entlang der Schnittdicke 212 des Renderingbereichs 210. Der Volumenrenderingprozessor 158 kann dazu eingerichtet sein, eine dreidimensionale Repräsentation der Bilddaten gemäß der über die Eingabeeinrichtung 120 von dem Nutzer auswählbaren Parameter zu rendern.
  • Während des Betriebs wird ein Schnitt mit einer vordefinierten, im Wesentlichen konstanten Dicke (ebenso bezeichnet als Renderingbereich 210) durch die Schnittdickeneinstellungssteuerung bestimmt und in dem Volumenscankonverter 168 verarbeitet. Die dem Renderingbereich 210 (veranschaulicht in 3) repräsentierenden Echodaten können in dem Schnittspeicher gespeichert werden. Vordefinierte Dicken zwischen 2 mm und ungefähr 20 mm sind typisch, wobei jedoch Dicken von weniger als 2 mm oder mehr 20 mm ebenfalls in Abhängigkeit von der Anwendung und der Größe des zu scannenden Bereichs geeignet sind. Die Schnittdickeneinstellungssteuerung kann ein Steuerelement, wie beispielsweise einen drehbaren Knopf mit diskreten oder kontinuierlichen Dickeneinstellungen aufweisen.
  • Der Volumenrenderingprozessor 158 projiziert den Renderingbereich 210 auf einen Bildabschnitt 220 eines Schnitts 222 (veranschaulicht in 3). Bei der Verarbeitung in dem Volumenrenderingprozessor 158 können Pixeldaten in dem Bildbereich 220 durch den Matchingprozessor 160 und den Videoprozessor 164 verarbeitet und dann auf dem Display 166 wiedergegeben werden. Der Renderingbereich 210 kann in jeder Position angeordnet und in dem Volumen 202 in jeder Richtung orientiert sein. In Abhän gigkeit von der Größe des zu scannenden Bereichs kann es für den Renderingbereich 210 in einigen Situationen vorteilhaft sein, wenn er lediglich einen kleinen Teil des Volumens 202 ausmacht. Es versteht sich, dass das hier geoffenbarte Volumenrendering ein gradientenbasiertes volumenrendering sein kann, das beispielsweise Umgebungskomponenten, diffuse Komponenten oder Spiegelkomponenten des 3D-Ultraschalldatensatzes nutzt, um die Volumina zu rendern, d.h. zusammenzufügen. Es können außerdem andere Komponenten genutzt werden. Es versteht sich, dass die Volumenrenderings Oberflächen aufweisen können, die Teil des äußeren eines Organs oder Teil von Innenstrukturen des Organs sein können. Beispielsweise können im Hinblick auf das Herz die gerenderten Volumina Außenflächen des Herzens oder Innenflächen des Herzens beinhalten, wo beispielsweise ein Katheter durch eine Arterie oder eine Herzkammer geführt wird.
  • 4 ist eine perspektivische Ansicht eines exemplarischen Scans 400 unter Nutzung eines Arraytransducers 106 zur Erzeugung eines 3D-Panoramabilds gemäß verschiedener Ausführungsformen der vorliegenden Erfindung. Der Arraytransducer 106 enthält Elemente 104 und ist in Berührung mit einer Oberfläche 402 eines Objekts 200 veranschaulicht. Um das Objekt 200 zu scannen, wird der Arraytransducer 106 über die Oberfläche 402 in einer Richtung 404 gestrichen. Wenn der Arraytransducer 106 in Richtung 404 (d.h. in X-Richtung) bewegt wird, werden aufeinander folgende Schnitte 202 akquiriert, wobei jeder (als eine Funktion der Geschwindigkeit der Transducerbewegung 106 und der Bildakquisitionsrate) gegen den vorausgehenden Schnitt 202 in Richtung 404 etwas versetzt ist. Der Versatz zwischen aufeinander folgenden Schnitten 202 wird berechnet und die Schnitte 202 werden ausgerichtet und auf der Basis der Verlagerungen kombiniert, um ein 3D-Volumenbild zu erzeugen.
  • Der Transducer 106 kann aufeinander folgende Volumina akquirieren, die 3D-Volumendaten in Tiefenrichtung 406 (d.h. in Z-Richtung) enthalten. Der Transducer 106 kann ein mechanischer Transducer mit einem Wobbelelement 104 oder einem Array von Elementen 104 haben, die automatisch gesteuert werden. Obwohl die Scansequenz gemäß 4 Daten repräsentiert, die unter Nutzung eines Lineartransducers 106 akquiriert worden sind, können andere Transducertypen genutzt werden. Beispielsweise kann der Transducer 106 ein 2D-Arraytransducer sein, der durch den Nutzer bewegt wird, um, wie oben diskutiert, aufeinander folgende Volumina zu akquirieren. Der Transducer 106 kann außerdem mechanisch über die Oberfläche 402 geschwenkt oder translatorisch bewegt werden. Wenn der Transducer 106 translatorisch bewegt wird, werden die Bilder der aufgenommenen Daten für den Bediener so wiedergegeben, dass der Fortschritt und die Qualität des Scans überwacht werden können. Wenn der Nutzer beschließt, dass ein Teil des Scans eine unzureichende Qualität hat, kann der Bediener den Scan stoppen und wahlweise Daten, die dem zu ersetztenden Scan entsprechen, beseitigen oder löschen. Wenn der Scan wieder gestartet wird, erfasst das System 100 die neuerlich akquirierten Scandaten und bringt diese in Aufrichtung zu den Daten der immer noch in dem Speicher befindlichen Volumina. Wenn das System 100 nicht in der Lage ist, die ankommenden Daten mit den in dem Speicher gespeicherten Daten in Ausrichtung zu bringen, beispielsweise, wenn der Scan nicht wieder gestartet worden ist, so dass eine Überlappung zwischen den Daten in dem Speicher und den neuerlich akquirierten Daten vorhanden ist, kann das System 100 den fehlausgerichteten Teil auf dem Display 166 identifizieren und/oder eine hörbare und/oder sichtbare Warnung ausgeben.
  • Der Transducer 106 akquiriert ein erstes Volumen 406. Der Transducer 106 kann durch den Bediener mit konstanter oder variabler Geschwindigkeit in einer Richtung 404 entlang der Fläche 402 bewegt werden, wenn die Datenvolumina akquiriert werden. Die Position, bei der das nächste Volumen akquiriert wird, basiert auf der Framerate der Akquisition und der physikalischen Bewegung des Transducers 106. Der Transducer 106 akquiriert dann ein zweites Volumen 410. Die Volumen 408 und 410 umfassen einen gemeinsamen Bereich 412. Der gemeinsame Bereich 412 enthält Bilddaten, die den gleichen Bereich innerhalb des Objekts 200 repräsentieren, wobei jedoch die Daten des Volumens 410 und die Daten des Volumens 408 in unterschiedlichen Koordinaten aufgenommen worden sind, weil der gemeinsame Bereich 412 unter unterschiedlichen Winkeln und an unterschiedlichen Orten in Bezug auf die X-, Y- und Z-Richtungen aufgenommen worden ist. Es kann ein drittes Volumen 414 akquiriert werden und einen gemeinsamen Bereich 416 beinhalten, der mit dem Volumen 410 geteilt wird. Ein viertes Volumen 418 kann akquiriert werden und einen gemeinsamen Bereich 420 beinhalten, der mit dem Volumen 414 geteilt wird. Dieser Volumenakquisitionsprozess kann wie gewünscht oder erforderlich fortgesetzt werden (d.h. beispielsweise auf Basis des interessierenden Sichtfelds).
  • Jedes Volumen 408, 418 weist äußere Grenzen auf, die den Scangrenzen des Transducers 106 entsprechen. Die äußeren Grenzen können als maximale Elevation, maximaler Azimuth und maximale Tiefe beschrieben werden. Die äußeren Grenzen können innerhalb der vordefinierten Grenzen beispielsweise durch Änderung der Scanparameter modifiziert werden, wie beispielsweise Sendefrequenz, Framerate und Fokuszonen.
  • Bei einer alternativen Ausführungsform kann in einer Folge entsprechender Zeitpunkte eine Serie von Volumendatensätzen des Objekts 200 erhalten werden. Beispielsweise kann das System 150 alle 0,05 Sekunden einen Volumendatensatz akquirieren. Die Volumendatensätze können zur späteren Untersuchung gespeichert und/oder in Echtzeit so wie sie erhalten werden angezeigt werden.
  • Das Ultraschallsystem 150 kann Ansichten der akquirierten Bilddaten wiedergeben, die in den 3D-Ultraschalldatensätzen enthalten sind. Diese Ansichten können beispielsweise Gewebeschnitte des Objekts 200 sein. Beispielsweise kann das System 150 eine Ansicht eines Schnitts liefern, der durch einen Teil des Objekts 200 verläuft. Das System 150 kann die Ansicht durch Auswahl von Bilddaten des 3D-Ultraschalldatensatzes liefern, der innerhalb eines auswählbaren Bereichs des Objekts 200 liegt.
  • Es sollte angemerkt werden, dass der Schnitt beispielsweise ein geneigter Schnitt, ein Schnitt mit konstanter Tiefe, ein B-Mode-Schnitt oder ein anderer Querschnitt des Objekts 200 in jeder Orientierung sein kann. Beispielsweise kann der Schnitt geneigt oder schräg mit einem wählbaren Winkel zu dem Objekt 200 angeordnet sein.
  • Es sind oben exemplarische Ausführungsformen der Vorrichtungen und der Verfahren beschrieben worden, die die Wiedergabe von Bilddaten in Ultraschallbildgebungssystemen erleichtern. Eine technische Wirkung der Erfassung der Bewegung während eines Scans und der Verbindung von 2D- Datenschnitten und 3D-Bildvolumina liegt darin, die Visualisierung von Volumina zu gestatten, die größer sind als die Bildvolumina, die direkt erzeugt werden können. Das Zusammenfügen von 3D-Bildvolumina in 3D-Panoramabildvolumina in Echtzeit erleichtert die Handhabung von Bilddaten für interessierende Visualisierungsbereiche in einem gescannten Objekt.
  • Es ist ersichtlich, dass, obwohl das System in den geoffenbarten Ausführungsformen programmierte Hardware, wie beispielsweise durch softwareprogrammierte Computer oder prozessorbasierte Steuersysteme umfasst, es in anderer Form einschließlich hartverdrahteter Hardwarekonfigurationen in integrierter Form ausgebildeter Hardware, Firmware oder anderem ausgeführt werden kann. Es versteht sich, dass der geoffenbarte Matchingprozessor als hardwaremäßige Einrichtung oder in Form eines Softwareprogramms ausgeführt werden kann, das auf einem eigens bereitgestellten oder mit anderen Prozessen geteilten Prozessor des Ultraschallsystems oder eines mit diesem verbundenen Systems ausgeführt wird.
  • Die oben beschriebenen Verfahren und die Vorrichtung liefern ein kosteneffizientes und verlässliches Mittel zur Erleichterung der Ansicht von Ultraschalldaten in 2D und in 3D unter Nutzung von Panoramatechniken in Echtzeit. Spezieller erleichtern die Verfahren und Vorrichtungen eine Verbesserung der Visualisierung von multidimensionalen Daten. Im Ergebnis erleichtern die Verfahren und hier beschriebene Einrichtung den Betrieb eines multidimensionalen Ultraschallsystems in kosteneffizienter und verlässlicher Weise.
  • Oben sind exemplarische Ausführungsformen des bild gebenden Ultraschallsystems detailliert beschrieben worden. Jedoch sind die Systeme nicht auf die hier speziell beschriebenen Ausführungsformen beschränkt – vielmehr können Komponenten jedes Systems unabhängig und separat von anderen, hier beschriebenen Komponenten verwendet werden. Jede Systemkomponente kann außerdem in Verbindung mit jeder anderen Systemkomponente verwendet werden.
  • Während die Erfindung in Bezug auf verschiedene spezielle Ausführungsformen beschrieben worden ist erkennt der Fachmann, dass die Erfindung innerhalb des Geistes und Bereichs der Ansprüche modifiziert werden kann.
  • Es ist ein Verfahren und eine Vorrichtung zur Erweiterung des Sichtfelds bei einem medizinischen bildgebenden System 100 geschaffen. Das Verfahren beinhaltet das Scannen einer Fläche 402 eines Objekts 200 unter Verwendung eines Ultraschalltransducers 106, wobei eine Anzahl von volumetrischen 3D-Datensätzen 408, 410, 414, 418 erhalten wird, wobei wenigstens einer der vielen Datensätze einen Abschnitt 412, 416, 420 aufweist, der sich mit einem anderen der vielen Datensätze überlappt und wobei ein 3D-Panoramavolumenbild erzeugt wird, das den überlappenden Bereich zur räumlichen Ausrichtung einander benachbarter 3D-Volumendatensätze nutzt.
  • 100
    Bildgebungseinrichtung
    102
    Transmitter
    104
    Elemente
    106
    Transducer
    108
    Empfänger
    110
    Strahlformer
    112
    HF-Prozessor
    114
    HF/IQ-Speicher
    116
    Signalprozessor
    118
    Wiedergabesystem
    120
    Eingabeeinrichtung
    122
    Bildpufferspeicher
    150
    Ultraschallsystem
    154
    Speicher
    156
    Scanebenen
    154
    Speicher
    158
    Volumenrenderingprozessor
    160
    Prozessor
    164
    Videoprozessor
    166
    Display
    168
    Volumenscankonverter
    200
    Objekt
    202
    Volumen
    204
    Grenze
    206
    Grenze
    208
    Winkel
    210
    Renderingbereich
    212
    Schnittdicke
    214
    Breite
    216
    Höhe
    220
    Bildausschnitt
    222
    Schnitt
    400
    Scan
    402
    Oberfläche
    404
    Richtung
    406
    Richtung
    408
    Volumen
    410
    Volumen
    412
    Gemeinsamer Bereich
    414
    Volumen
    416
    Gemeinsamer Bereich
    418
    Volumen
    420
    Gemeinsamer Bereich

Claims (10)

  1. Verfahren zur Erweiterung eines Sichtfelds bei einem medizinischen bildgebenden System (100), wobei das Verfahren beinhaltet: das Scannen einer Oberfläche (402) eines Objekts (200) unter Nutzung eines Ultraschalltransducers (106), der Erhalt einer Anzahl volumetrischer 3D-Datensätze (408, 410, 414, 418), wobei wenigstens einer der Anzahl der Datensätze einen Teil (412, 416, 420) aufweist, der sich mit einem anderen Teil der Anzahl der Datensätze überlappt und Erzeugung eines 3D-Panoramavolumenbilds unter Nutzung des überlappenden Abschnitts, um die räumlich benachbarten 3D-Volumendatensätze aufeinander auszurichten.
  2. Verfahren nach Anspruch 1, bei dem das Scannen einer Oberfläche des Objekts das Scannen einer Oberfläche des Objekts zum Erhalt einer Anzahl von 2D-Scanebenen des Objekts beinhaltet.
  3. Verfahren nach Anspruch 1, bei dem das Scannen einer Oberfläche des Objekts das Scannen einer Fläche des Objekts unter Nutzung eines 2D-Arraytransducers beinhaltet.
  4. Verfahren nach Anspruch 1, bei dem das Scannen einer Fläche des Objekts beinhaltet, dass ein Ultraschalltransducer über die Oberfläche des Objekts gestrichen wird.
  5. Verfahren nach Anspruch 1, wobei das Scannen einer Oberfläche des Objekts beinhaltet, dass ein Ultraschallwandler manuell über die Oberfläche des Oberfläche des Objekts gestrichen wird.
  6. Verfahren nach Anspruch 1, bei dem das Scannen einer Oberfläche des Objekts beinhaltet, dass die Bewegung des Ultraschallwandlers während eines Scans in Bezug auf eine anfängliche Transducerposition erfasst wird.
  7. Verfahren nach Anspruch 1, bei dem das Scannen einer Oberfläche des Objekts beinhaltet: die visuelle Wiedergabe der Qualität des Scans auf einem Display, das Anhalten des Scans wenn die Qualität wenigstens eines Teils des Scans geringer ist als eine Qualitätsschwelle, die von dem Nutzer festgelegt wird, das Neuscannen des Abschnitts des Scans und das Ausrichten bzw. Anschließen der überlappenden 3D-Datensätze.
  8. Verfahren nach Anspruch 1, bei dem außerdem benachbarte 3D-Volumendatensätze unter Nutzung wenigstens zweier spezifizierter Merkmale überlappender Bereiche des jeweiligen 3D-Volumendatensatzes kombiniert werden.
  9. Verfahren nach Anspruch 1, bei dem benachbarte 3D-Volumendatensätze unter Nutzung von wenigstens einem 2D-Schnitt kombiniert werden, der von einem gemeinsamen Volumen benachbarter 3D-Volumendatensätze erzeugt worden ist.
  10. Verfahren nach Anspruch 9, bei dem außerdem wenigstens ein geneigter Schnitt, ein Schnitt konstanter Tiefe und/oder ein B-Mode-Schnitt aus einem gemeinsamen Volumen benachbarter 3D-Volumendatensätze erzeugt wird.
DE102005037806A 2004-08-13 2005-08-08 Verfahren und Vorrichtung zur Vergrösserung des Sichtfelds bei der Ultraschallbildgebung Ceased DE102005037806A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/917,749 US20060058651A1 (en) 2004-08-13 2004-08-13 Method and apparatus for extending an ultrasound image field of view
US10/917,749 2004-08-13

Publications (1)

Publication Number Publication Date
DE102005037806A1 true DE102005037806A1 (de) 2006-02-23

Family

ID=35721758

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005037806A Ceased DE102005037806A1 (de) 2004-08-13 2005-08-08 Verfahren und Vorrichtung zur Vergrösserung des Sichtfelds bei der Ultraschallbildgebung

Country Status (5)

Country Link
US (1) US20060058651A1 (de)
JP (1) JP5283820B2 (de)
KR (1) KR101140525B1 (de)
CN (1) CN1748650B (de)
DE (1) DE102005037806A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007124953A1 (de) * 2006-05-02 2007-11-08 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur ortsaufgelösten, zerstörungsfreien werkstückuntersuchung
DE202015005446U1 (de) 2015-07-31 2015-10-01 Siemens Aktiengesellschaft Ultraschallsystem mit einem akustischen Aufnahmemittel
DE202015005445U1 (de) 2015-07-31 2015-10-02 Siemens Aktiengesellschaft Ultraschallkopf mit Signalgeber
WO2015150553A1 (de) * 2014-04-02 2015-10-08 Brückmann Andreas Verfahren und gerät zur simulation einer realen führung eines diagnostischen untersuchungsgerätes
DE102015218489A1 (de) 2015-09-25 2017-03-30 Siemens Aktiengesellschaft Verfahren und Ultraschallsystem zur Ermittlung einer Lage eines Ultraschallkopfes während einer Ultraschalluntersuchung

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070219444A1 (en) * 2004-01-14 2007-09-20 Diaz Cesar M Apparatus and method for guiding catheters
US20080188740A1 (en) * 2004-01-14 2008-08-07 Diaz Cesar M Apparatus and method for guiding catheters
WO2006044996A2 (en) * 2004-10-15 2006-04-27 The Trustees Of Columbia University In The City Of New York System and method for automated boundary detection of body structures
JP2006255083A (ja) * 2005-03-16 2006-09-28 Ge Medical Systems Global Technology Co Llc 超音波画像生成方法および超音波診断装置
US10687785B2 (en) 2005-05-12 2020-06-23 The Trustees Of Columbia Univeristy In The City Of New York System and method for electromechanical activation of arrhythmias
EP1937151A4 (de) * 2005-09-19 2011-07-06 Univ Columbia Systeme und verfahren zur öffnung der blut-hirn-schranke einer person mit ultraschall
EP1963805A4 (de) * 2005-12-09 2010-01-06 Univ Columbia Systeme und verfahren zur elastografie-bildgebung
US9612142B2 (en) * 2006-04-27 2017-04-04 General Electric Company Method and system for measuring flow through a heart valve
US20090149756A1 (en) * 2006-06-23 2009-06-11 Koninklijke Philips Electronics, N.V. Method, apparatus and computer program for three-dimensional ultrasound imaging
KR100948047B1 (ko) * 2006-06-29 2010-03-19 주식회사 메디슨 초음파 영상을 형성하는 초음파 시스템 및 방법
US8150128B2 (en) * 2006-08-30 2012-04-03 The Trustees Of Columbia University In The City Of New York Systems and method for composite elastography and wave imaging
US7600151B2 (en) * 2007-01-25 2009-10-06 Inventec Corporation RAID capacity expansion interruption recovery handling method and system
JP5179812B2 (ja) * 2007-09-07 2013-04-10 株式会社東芝 超音波診断装置、超音波画像処理装置、及び超音波画像処理プログラム
WO2009117419A2 (en) * 2008-03-17 2009-09-24 Worcester Polytechnic Institute Virtual interactive system for ultrasound training
WO2011035312A1 (en) 2009-09-21 2011-03-24 The Trustees Of Culumbia University In The City Of New York Systems and methods for opening of a tissue barrier
CN101601593B (zh) 2008-06-10 2013-01-16 株式会社东芝 超声波诊断装置
JP5292959B2 (ja) * 2008-07-14 2013-09-18 パナソニック株式会社 超音波診断装置
WO2010014977A1 (en) 2008-08-01 2010-02-04 The Trustees Of Columbia University In The City Of New York Systems and methods for matching and imaging tissue characteristics
WO2010030819A1 (en) 2008-09-10 2010-03-18 The Trustees Of Columbia University In The City Of New York Systems and methods for opening a tissue
US9020217B2 (en) * 2008-09-25 2015-04-28 Cae Healthcare Canada Inc. Simulation of medical imaging
JP5606025B2 (ja) * 2009-08-28 2014-10-15 株式会社東芝 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
CN102274042B (zh) 2010-06-08 2013-09-04 深圳迈瑞生物医疗电子股份有限公司 图像配准方法、宽景成像方法、超声成像方法及其系统
WO2012162664A1 (en) 2011-05-26 2012-11-29 The Trustees Of Columbia University In The City Of New York Systems and methods for opening of a tissue barrier in primates
KR101783000B1 (ko) * 2011-07-19 2017-09-28 삼성전자주식회사 복수의 3차원 볼륨 영상들을 이용하여 3차원 볼륨 파노라마 영상 생성 방법 및 장치
KR101880634B1 (ko) * 2011-08-09 2018-08-16 삼성전자주식회사 3차원 볼륨 파노라마 영상 생성 방법 및 장치
CN103117010B (zh) * 2011-11-17 2016-08-24 深圳迈瑞生物医疗电子股份有限公司 一种超声成像模拟系统
JP5779169B2 (ja) * 2011-12-28 2015-09-16 富士フイルム株式会社 音響画像生成装置およびそれを用いて画像を生成する際の進捗状況の表示方法
WO2013154079A1 (ja) * 2012-04-11 2013-10-17 株式会社東芝 超音波診断装置
KR101415021B1 (ko) 2012-08-31 2014-07-04 삼성메디슨 주식회사 파노라마 영상을 제공하는 초음파 시스템 및 방법
WO2014059170A1 (en) 2012-10-10 2014-04-17 The Trustees Of Columbia University In The City Of New York Systems and methods for mechanical mapping of cardiac rhythm
US9247921B2 (en) 2013-06-07 2016-02-02 The Trustees Of Columbia University In The City Of New York Systems and methods of high frame rate streaming for treatment monitoring
US10322178B2 (en) 2013-08-09 2019-06-18 The Trustees Of Columbia University In The City Of New York Systems and methods for targeted drug delivery
US10028723B2 (en) 2013-09-03 2018-07-24 The Trustees Of Columbia University In The City Of New York Systems and methods for real-time, transcranial monitoring of blood-brain barrier opening
WO2016006722A1 (ko) * 2014-07-07 2016-01-14 한국디지털병원수출사업협동조합 3차원 초음파 스캐닝 영상 데이터 변환 시스템 및 그 방법
US11129586B1 (en) * 2015-08-14 2021-09-28 Volumetrics Medical Systems, LLC Devices, methods, systems, and computer program products for 4-dimensional ultrasound imaging
US10722217B2 (en) 2016-05-26 2020-07-28 Canon Medical Systems Corporation Ultrasonic diagnostic apparatus and medical image processing apparatus
CN109937370A (zh) 2016-09-09 2019-06-25 皇家飞利浦有限公司 超声图像的稳定
JP7266523B2 (ja) 2016-12-15 2023-04-28 コーニンクレッカ フィリップス エヌ ヴェ 出産前超音波イメージング
US11696745B2 (en) 2017-03-16 2023-07-11 Koninklijke Philips N.V. Optimal scan plane selection for organ viewing
US10803612B2 (en) * 2018-09-25 2020-10-13 General Electric Company Method and system for structure recognition in three-dimensional ultrasound data based on volume renderings
CN111493931A (zh) * 2019-08-01 2020-08-07 深圳迈瑞生物医疗电子股份有限公司 一种超声成像方法及设备、计算机可读存储介质
US11559280B2 (en) * 2020-05-08 2023-01-24 GE Precision Healthcare LLC Ultrasound imaging system and method for determining acoustic contact

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5842473A (en) * 1993-11-29 1998-12-01 Life Imaging Systems Three-dimensional imaging system
US6115509A (en) * 1994-03-10 2000-09-05 International Business Machines Corp High volume document image archive system and method
EP0883860B1 (de) * 1996-02-29 2006-08-23 Acuson Corporation System, verfahren und wandler zum ausrichten mehrerer ultraschallbilder
US5787889A (en) * 1996-12-18 1998-08-04 University Of Washington Ultrasound imaging with real time 3D image reconstruction and visualization
US6019725A (en) * 1997-03-07 2000-02-01 Sonometrics Corporation Three-dimensional tracking and imaging system
CN1215872A (zh) * 1997-10-24 1999-05-05 吴传嘉 线段端点定位装置及定位补偿方法
JP4582827B2 (ja) * 1998-02-10 2010-11-17 株式会社東芝 超音波診断装置
US6135960A (en) * 1998-08-31 2000-10-24 Holmberg; Linda Jean High-resolution, three-dimensional whole body ultrasound imaging system
US5993390A (en) * 1998-09-18 1999-11-30 Hewlett- Packard Company Segmented 3-D cardiac ultrasound imaging method and apparatus
US6063032A (en) * 1998-09-28 2000-05-16 Scimed Systems, Inc. Ultrasound imaging with zoom having independent processing channels
US6159152A (en) * 1998-10-26 2000-12-12 Acuson Corporation Medical diagnostic ultrasound system and method for multiple image registration
JP2001087267A (ja) * 1999-09-27 2001-04-03 Seikosha:Kk 超音波体肢横断面画像撮影装置
JP2001095804A (ja) * 1999-09-30 2001-04-10 Matsushita Electric Ind Co Ltd 超音波画像診断装置
JP3752921B2 (ja) * 1999-10-08 2006-03-08 株式会社日立製作所 超音波像の立体パノラマ画像合成装置
KR20010038344A (ko) * 1999-10-25 2001-05-15 김남국 인체 내부의 형상물과 유사한 실물을 형성하는 방법 및 그 장치
GB2361396B (en) * 2000-04-10 2002-04-03 Voxar Ltd Imaging volume data
US7356367B2 (en) * 2000-06-06 2008-04-08 The Research Foundation Of State University Of New York Computer aided treatment planning and visualization with image registration and fusion
US6544175B1 (en) * 2000-09-15 2003-04-08 Koninklijke Philips Electronics N.V. Ultrasound apparatus and methods for display of a volume using interlaced data
US6872181B2 (en) * 2001-04-25 2005-03-29 Siemens Medical Solutions Usa, Inc. Compound image display system and method
JP4704630B2 (ja) * 2001-09-14 2011-06-15 アロカ株式会社 超音波パノラマ画像形成装置
JP2003093382A (ja) * 2001-09-26 2003-04-02 Matsushita Electric Ind Co Ltd 超音波診断装置
US6572549B1 (en) * 2001-12-18 2003-06-03 Koninklijke Philips Electronics Nv High frame rate extended field of view ultrasound imaging system and method
JP2003319939A (ja) * 2002-04-26 2003-11-11 Ge Medical Systems Global Technology Co Llc 超音波撮影装置
US20040106869A1 (en) * 2002-11-29 2004-06-03 Ron-Tech Medical Ltd. Ultrasound tracking device, system and method for intrabody guiding procedures
US7249513B1 (en) * 2003-10-02 2007-07-31 Gore Enterprise Holdings, Inc. Ultrasound probe

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007124953A1 (de) * 2006-05-02 2007-11-08 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur ortsaufgelösten, zerstörungsfreien werkstückuntersuchung
WO2015150553A1 (de) * 2014-04-02 2015-10-08 Brückmann Andreas Verfahren und gerät zur simulation einer realen führung eines diagnostischen untersuchungsgerätes
DE202015005446U1 (de) 2015-07-31 2015-10-01 Siemens Aktiengesellschaft Ultraschallsystem mit einem akustischen Aufnahmemittel
DE202015005445U1 (de) 2015-07-31 2015-10-02 Siemens Aktiengesellschaft Ultraschallkopf mit Signalgeber
DE102015218489A1 (de) 2015-09-25 2017-03-30 Siemens Aktiengesellschaft Verfahren und Ultraschallsystem zur Ermittlung einer Lage eines Ultraschallkopfes während einer Ultraschalluntersuchung

Also Published As

Publication number Publication date
JP5283820B2 (ja) 2013-09-04
CN1748650A (zh) 2006-03-22
JP2006051360A (ja) 2006-02-23
KR20060050433A (ko) 2006-05-19
KR101140525B1 (ko) 2012-05-02
CN1748650B (zh) 2010-09-08
US20060058651A1 (en) 2006-03-16

Similar Documents

Publication Publication Date Title
DE102005037806A1 (de) Verfahren und Vorrichtung zur Vergrösserung des Sichtfelds bei der Ultraschallbildgebung
DE69831138T2 (de) System zur darstellung eines zweidimensionalen ultraschallbildes in einer dreidimensionalen bildbetrachtungsumgebung
DE60309486T2 (de) Zwei-EBENEN ULTRASCHALLABBILDUNG MIT EINEM DIE GEGENSEITIGE EBENENORIENTIERUNG ABBILDENDEN SYMBOL
DE69727994T2 (de) Medizinisches Ultraschall Diagnose Bildsystem mit Abtastanzeige für eine dreidimensionale Bilddarstellung
DE69933851T2 (de) Verfahren zur Reduzierung der Bildschärfeverzerrung in räumlich vermehrten Diagnostikbildern
DE4344312C2 (de) Dreidimensionales Ultraschall-Abbildungssystem
DE69736549T2 (de) System, verfahren und wandler zum ausrichten mehrerer ultraschallbilder
DE19819892B4 (de) Verfahren und Einrichtung zum Segmentieren von B-Mode-Intensitätsdaten unter Verwendung von Doppler-Verschiebungsdaten bei dreidimensionaler Ultraschall-Bildgebung
DE60025438T2 (de) Verfahren und Gerät zum Einstellen eines interessanten Gebiets in einer Abbildung
DE19531419B4 (de) Verfahren zur Erzeugung anatomischer M-Modus-Anzeigebilder
DE19819832B4 (de) Verfahren zum Verbessern der Segmentierung bei einer dreidimensionalen Ultraschall-Bildgebung
DE69923430T2 (de) Diagnostisches Ultraschall-Bilderzeugungssystem mit variabler räumlicher Bildzusammensetzung
DE60309336T2 (de) Ultraschalldiagnoseabbildungssystem mit höhen-biebenenbildern
DE60222476T2 (de) Ultraschallwandler
DE102007019859A1 (de) Benutzerschnittstelle für Ultraschallsystem mit automatischer Mehrfachebenenbildung
DE10243152A1 (de) Ultraschalldiagnoseverfahren und Gerät zur Bilderzeugung aus mehreren 2D-Schnitten
DE102004040411A1 (de) Verfahren und Vorrichtung zum Gewinnen eines Volumenscans eines sich periodisch bewegenden Objekts
DE102007019652A1 (de) Benutzerschnittstelle und Verfahren zum Anzeigen von Informationen bei einem Ultraschallsystem
DE102005025835A1 (de) Verfahren und Vorrichtung zur Nebeneinanderdarstellung von Inversmodus-Ultraschallbildern und Histogrammen
DE19819800A1 (de) Verfahren und Einrichtung zum automatischen Verbessern des Kontrastes in projizierten Ultraschallbildern
DE102016105690A1 (de) Dreidimensionales Volumen von Interesse für die Ultraschall-Bildgebung
DE102016107222A1 (de) Erfassungssteuerung für Gemischtmodus-Ultraschallbildgebung
DE102005038394A1 (de) Verfahren und Systeme zur Bewegungskorrektur in einem volumetrischen Ultraschalldatensatz
DE102010061577A1 (de) Verfahren und System zur Verarbeitung von Ultraschalldaten
DE19819831A1 (de) Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung mittels Projektion von gefilterten Pixeldaten

Legal Events

Date Code Title Description
R012 Request for examination validly filed

Effective date: 20120622

R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final
R003 Refusal decision now final

Effective date: 20141125