DE69736549T2 - System, verfahren und wandler zum ausrichten mehrerer ultraschallbilder - Google Patents

System, verfahren und wandler zum ausrichten mehrerer ultraschallbilder Download PDF

Info

Publication number
DE69736549T2
DE69736549T2 DE69736549T DE69736549T DE69736549T2 DE 69736549 T2 DE69736549 T2 DE 69736549T2 DE 69736549 T DE69736549 T DE 69736549T DE 69736549 T DE69736549 T DE 69736549T DE 69736549 T2 DE69736549 T2 DE 69736549T2
Authority
DE
Germany
Prior art keywords
motion
array
transducer
image data
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69736549T
Other languages
English (en)
Other versions
DE69736549D1 (de
Inventor
A. John Palo Alto HOSSACK
W. John Los Altos SLIWA
H. Samuel Woodside MASLAK
A. Edward San Jose GARDNER
L. Gregory Mountain View HOLLEY
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Medical Solutions USA Inc
Original Assignee
Acuson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Acuson Corp filed Critical Acuson Corp
Application granted granted Critical
Publication of DE69736549D1 publication Critical patent/DE69736549D1/de
Publication of DE69736549T2 publication Critical patent/DE69736549T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • A61B8/145Echo-tomography characterised by scanning multiple planes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8934Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a dynamic transducer configuration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8979Combined Doppler and pulse-echo imaging systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8993Three dimensional imaging systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52085Details related to the ultrasound signal acquisition, e.g. scan sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/66Sonar tracking systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/87Combinations of sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52023Details of receivers
    • G01S7/52034Data rate converters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/5206Two-dimensional coordinated display of distance and direction; B-scan display
    • G01S7/52065Compound scan display, e.g. panoramic imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/52071Multicolour displays; using colour coding; Optimising colour or information content in displays, e.g. parametric imaging

Description

  • Hintergrund der Erfindung
  • Diese Erfindung betrifft ein verbessertes System, Verfahren und Aufnehmer zum Aufnehmen zweidimensionaler Bildinformation und relativer Positionsinformation betreffend die Bildinformation, um eine nachfolgende dreidimensionale Rekonstruktion oder Rekonstruktion mit erweitertem Gesichtsfeld zu ermöglichen.
  • Es gibt ein wachsendes Interesse an dreidimensionalen Ultraschallbildern. Ein Ansatz ist es, ein zweidimensionales Aufnehmerarray zu verwenden, um dreidimensionale Bildinformation direkt zu erhalten. Ein zweidimensionales Array kann verwendet werden, um elektronisch jede beliebige gewünschte Orientierung abzutasten, und dadurch die gewünschte Information aufzunehmen. Dieser Ansatz bringt beträchtliche Probleme hinsichtlich Herstellungsschwierigkeiten, Schwierigkeiten hinsichtlich des Signal-zu-Rauschen-Verhältnisses und Verarbeitungsschwierigkeiten mit sich.
  • Ein anderer Ansatz ist es, mehrfache zweidimensionale Bilddatenframes unter Verwendung eines eindimensionalen Aufnehmerarrays zusammen mit relativer Positionsinformation unter den Bilddatenframes zu sammeln, so dass diese Frames nachfolgend in einem dreidimensionalen Volumen zusammengesetzt werden, um die gewünschte dreidimensionale Rekonstruktion zu bilden. Ein Ansatz ist es, ein motorisiertes Array zu verwenden, um den gewünschten Satz von Bilddatenframes durch präzise Steuerung/Regelung der Bewegung des Aufnehmerarrays zu sammeln. Ein Beispiel ist der in der U.S. 5,562,096 gezeigte Aufnehmer. Siehe auch Pini, U.S. Patent Nr. 5,159,931. Ein hiermit in Zusammenhang stehender Ansatz ist es, einen großen sich drehenden Aufnehmer zu verwenden, wie in MacCann et al., „Multidimensional Ultcasonic Imaging for Cardiology" (Tätigkeitsberichte der IEEE, 76, 9, Seiten 1063–1072, Sept. 1988) beschrieben ist. Ein anderer Ansatz ist es, manuelle Bewegungserfassungstechniken auf Grundlage von Analysen von Ultraschallbildern zu verwenden. Siehe Sapoznikov et al., „Left Ventricula Shape, Wall Thickness and Function Based on Three-Dimensional Reconstruction Echocardiography" („Computers in Cardiology", IEEE Computer Society Press, Cat. CH 2476-0, Seiten 495–498, 1987) und Taruma et al., „Three-Dimensional Reconstruction of Echocardiograms Based on Orthogonal Sections" (Pattern Recognition, 18, 2, Seiten 115–124, 1985). Manuelle Techniken sind langsam und mühsam und haben daher sehr viele Nachteile.
  • Schwartz U.S. Patent 5,474,073 beschreibt ein qualitatives dreidimensionales Verfahren unter Verwendung eines tragbaren Transducerarrays und einer angenommenen Abtastbewegung. Qualitative Verfahren besitzen Nachteile, und die vorliegende Erfindung ist auf ein quantitatives Verfahren gerichtet.
  • Keller U.S. Patent 5,353,354 offenbart ein mit Beschleunigungssensoren oder magnetischen Sensoren, welche zur Messung der Orientierung des Aufnehmers entworfen sind, ausgestattetes Aufnehmerarray und daher eine Relativbewegung zwischen jeweiligen Bildebenen. Sobald die Positionsinformation der Bildebene bereitgestellt ist, werden Standardverfahren eingesetzt, um die Bildebeneninformation in ein dreidimensionales Volumen zusammenzusetzen und eine geeignete Anzeige, etwa einen Querschnitt, ein Flächenrendering, eine Segmentierung oder dergleichen bereitzustellen. Ein Nachteil des Ansatzes von Keller ist es, dass er auf einer Bewertung der Position des Aufnehmerarrays bezüglich einer festen Fläche außerhalb des Patienten, nicht bezüglich des Patienten oder eines anderen Ziels, beruht. Wenn der Patient sich bewegt, wird die absolute Position aller Zielbereiche bewegt und die Genauigkeit der dreidimensionalen Rekonstruktion verschlechtert sich oder die verschwindet insgesamt. Magnetsensorsysteme besitzen weitere Nachteile, etwa eine potentielle Anfälligkeit gegenüber lokaler magnetischer Interferenz von Metallobjekten und durch elektronische Vorrichtungen, etwa Kathodenstahlröhren, verursachten elektromagnetischen Feldern. Beschleunigersysteme können voluminös und anfällig für kumulative Fehler sein, da sie auf zwei Integrationsstufen beruhen, um Beschleunigungsinformationen in Verlagerungsinformationen umzuwandeln.
  • Die vorliegende Erfindung ist auf ein neues System und einen neuen Aufnehmer gerichtet, welche in einem großen Maß diese oben diskutierten Probleme überwinden können.
  • Zusammenfassung der Erfindung
  • Gemäß der vorliegenden Erfindung wird ein Ultraschallaufnehmer bereitgestellt, wie er in Anspruch 1 definiert ist.
  • Diese Anordnung für einen Ultraschallaufnehmer ermöglicht es, dass sowohl Spurführungsinformation als auch Bildinformation gemeinsam gesammelt werden kann. Die Spurführungsinformation wird zur Bestimmung von Abschätzungen der Bewegung des Aufnehmers und/oder des Ziels zwischen jeweiligen Bilddatenframes verwendet. Diese Information kann beim Registrieren des jeweiligen Bilddatenframes in geeigneter Weise in drei Dimensionen verwendet werden, um die gewünschte dreidimensionale Repräsentierung zu bilden.
  • Weitere Aspekte und Vorteile der Erfindung werden im folgenden im Zusammenhang mit den bevorzugten Ausführungsformen diskutiert.
  • Kurze Beschreibung der Zeichnungen
  • 1 ist ein Blockdiagramm eines Ultraschall-Bilderzeugungssystems, welches eine gegenwärtig bevorzugte Ausführungsform dieser Erfindung enthält.
  • 2 ist eine schematische Perspektivansicht des Aufnehmers von 1.
  • 3 ist eine schematische Seitenansicht des Aufnehmers von 2.
  • 4 ist eine schematische Planansicht des Aufnehmers von 2.
  • 5 ist eine schematische Ansicht eines Abschnitts des Systems von 1.
  • 6 ist eine schematische Perspektivansicht, die die Bewegung von Bildbereichen zeigt, wenn der Aufnehmer von 2 um die Azimuthalachse gedreht wird.
  • 7, 8, 9 und 10 sind schematische Ansichten, die mit dem Aufnehmer von 6 aufgenommene Bilder in vier Drehstellungen des Aufnehmers zeigen.
  • 11 ist eine schematische Perspektivansicht, die die Betriebsweise des Aufnehmers von 2 zeigt.
  • 12 ist eine schematische Planansicht eines Nachführbildbereichs, der bei dem System von 1 erzeugt wurde.
  • 13 ist eine schematische Ansicht, die das Mitteln von Abschätzungen der Bewegung in dem System von 1 zeigt.
  • 14 ist eine schematische Ansicht, die zeigt, wie die Hauptbewegung eines abgebildeten Organs in dem System von 1 erkannt und ignoriert werden kann.
  • 15 ist eine schematische Ansicht, die die Bewegung des Ziels unter Akustiklinien zeigt, wenn der Aufnehmer von 2 um die Azimuthalachse gedreht wird.
  • 16 ist eine andere Ansicht der Rohakustikliniendaten von 15.
  • 17, 18 und 19 sind drei schematische Perspektivansichten, die die Art und Weise zeigen, in der mehrere Bilddatenframes relativ zueinander in drei Dimensionen registriert werden können, um eine dreidimensionale Wiedergabe zu bilden.
  • 20 ist eine Ansicht eines durch das System von 1 erzeugten Displays.
  • 21 ist eine schematische Ansicht einer modifizierten Version des Aufnehmers von 1.
  • 22 ist eine schematische Ansicht eines alternativen Ultraschall-Bilderzeugungssystems.
  • 23 bis 26 sind Planansichten von Aufnehmern, die gekreuzte Arrays verwenden, welche zur Verwendung in ausgewählten Ausführungsformen dieser Erfindung geeignet sind.
  • 27 und 27a bis 27e sind Planansichten von alternativen Aufnehmern, die zur Verwendung in ausgewählten Ausführungsformen dieser Erfindung geeignet sind.
  • 28 und 29 sind Planasichten von anderen Aufnehmern, die zur Verwendung in ausgewählten Ausführungsformen dieser Erfindung geeignet sind.
  • 30 ist ein Blockdiagramm eines Ultraschallbilderzeugungssystems, welches eine bevorzugte Ausführungsform dieser Erfindung enthält.
  • 31 und 32 sind Flussdiagramme von Routinen, die durch das Bilderzeugungssystem von 30 durchgeführt werden.
  • 33 ist ein schematisches Diagramm, welches eine Betriebsweise einer alternativen Ausführungsform zeigt.
  • 34 bis 37 sind Graphen, welche die Betriebsweise eines in einer alternativen Form dieser Erfindung enthaltenen Fuzzylogiksystems zeigen.
  • 38 ist ein Diagramm, das die Art und Weise zeigt, in der zwei Frames gewichtet werden können, um ein erweitertes Gesichtsfeld zu bilden.
  • 39 und 40 sind schematische Ansichten, die ein Einzelblock-Bewegungsabschätzungssystem betreffen.
  • Detaillierte Beschreibung der gegenwärtig bevorzugten Ausführungsformen
  • Erneut Bezug nehmend auf die Zeichnungen ist 1 ein Blockdiagramm eines Ultraschallbilderzeugungssystems 10, welches eine gegenwärtig bevorzugte Ausführungsform dieser Erfindung enthält. Die folgende Diskussion stellt zunächst einen Systemüberblick und danach eine detaillierte Beschreibung ausgewählter Komponenten des Systems vor.
  • Systemüberblick
  • Das System 10 umfasst ein Strahlbildungssystem/Signaldetektor 12, welches sowohl Sende- als auch Empfangsstrahlformer enthält und über einen Multiplexer/Demultiplexer 14 mit einem Ultraschallaufnehmer 16 verbunden ist. Jede geeignete Einrichtung, einschließlich herkömmlicher Einrichtungen, kann ohne weiteres zur Verwendung als die Elemente 12, 14 ausgelegt sein.
  • Der Ultraschallaufnehmer 16 wird unten noch genauer in Verbindung mit 2 bis 4 beschrieben. Hierbei ist es wichtig, zu beachten, dass der Aufnehmer 16 vorzugsweise drei getrennte Aufnehmerarrays 18, 20, 22 enthält. Das Array 18 wird zum Sammeln von Bilddaten verwendet, welche dazu verwendet werden, angezeigte Wiedergaben des Ziels zu konstruieren. Die Arrays 20, 22 sind kleinere Arrays, die in dieser Ausführungsform in rechten Winkeln zu dem Bilddatenarray 18 orientiert sind, um als Nachführarrays zu arbeiten. Die Nachführarrays 20, 22 werden in dieser Ausführungsform zur Abschätzung der Bewegung zwischen jeweiligen Bilddatenframes von dem Bilddatenarray verwendet, um es zu ermöglichen, dass die Bilddatenframes zur Konstruktion geeignet registriert werden.
  • Das Strahlformersystem/Signaldetektor 12 sendet Anregungssignalpulse an die Arrays 18, 20 und 22 und führt aufsummierte Rückkehrechos einem Signaldetektor zu. Die Ausgabe des Signaldetektors wird einem Abtastwandler 24 zugeführt. Das Strahlformersystem/Signaldetektor 12 betreibt die Arrays 18, 20, 22 in der herkömmlichen Weise als phasengesteuerte Arrays durch geeignete Zeitsteuerung der Anregungssignale, die den Arrays 18, 20, 22 zugeführt werden, und durch geeignete Zeitsteuerung und Phasensteuerung der Empfangssignale vor der Summierung. Der Abtastwandler 24 steuert/regelt ein Ausgabedisplay 26 um vorzugsweise drei Bilder anzuzeigen, die durch die drei Arrays 18, 20, 22 erzeugt werden, gemeinsam mit Zusatzinformation wie sie später beschrieben wird.
  • Zusätzlich wird abtastumgewandelte Bildinformation von dem Abtastwandler 24 in einem Datenspeichersystem 28 abgespeichert. In dieser Ausführungsform umfasst dieses Datenspeichersystem 28 drei getrennte Speicherarrays, wobei jedes Daten für Bildframes von einem jeweiligen der Arrays 18, 20, 22 speichert. Auf diese Weise wird Bildinformation von dem Bilddatenaufnehmerarray 18 als Frames von Bilddaten in dem Speicherarray 30 gespeichert, und Bildinformation von Nachführaufnehmerarrays 20, 22 wird jeweils als jeweilige Bildframes von Bilddaten in den Speicherarrays 32, 34 gespeichert. Die Frames von Daten in den Speicherbereichen 30, 32, 34 sind alle hin sichtlich der Zeit markiert, so dass sie einander in geeigneter Weise zugeordnet werden können. Diese Zeitmarkierung kann beispielsweise die Form einer Echtzeittaktinformation oder einer Framenummerinformation haben.
  • Die Frames von Bilddaten in dem Speicherarray 30 werden auf einen Computer 36 angewendet. Es sind diese Frames, die dazu verwendet werden, die angezeigte Wiedergabe des Ziels zu bilden. Die Nachführbildframes, die in den Speicherarrays 32 und 34 gespeichert sind, sind nicht zur Schaffung einer angezeigten Rekonstruktion des Ziels registriert, sondern werden stattdessen zur Bestimmung der relativen Positionen von einzelnen Frames von Bilddaten von dem Bilddatenspeicherarray 30 verwendet.
  • Um die Bewegung dieses Ziels zwischen aufeinander folgenden Frames der Bilddaten abzuschätzen, wird die Bildinformation von den Nachführarraydaten-Speicherarrays 32, 34 einem Bewegungsabschätzer 38 zugeführt. Der Bewegungsabschätzer 38 vergleicht Sequenzen von Bildern von dem Nachführaufnahmerarray 20 und dem Nachführaufnehmerarray 22, um eine Bewegungskomponente des Aufnehmers 16 zwischen den jeweiligen Frames abzuschätzen. Diese Abschätzung der Bewegungskomponente wird in einer Logik 40 geglättet und dann auf einen Berechner 42 angewendet, der einen Vektorwert berechnet, welcher die beste Abschätzung der Bewegung zwischen ausgewählten Frames der in dem Bilddatenspeicherarray 30 gespeicherten Bilddaten definiert. Dieser wird dann als eine andere Eingabe auf dem Computer 36 angewendet.
  • In dem System 10 können die Elemente 28 bis 42 derart entworfen sein, dass sie in Echtzeit arbeiten, und die Bewegungsvektoren können in der Ausgabeanzeige 26 wie in Verbindung mit der 20 diskutiert angezeigt werden. Sobald ein voller Satz von Daten aufgenommen worden ist, können die Bilddatenframes und die Rahmen-zu-Rahmen Translationsvektoren dann zu einem spezialisierten Computer 36 übertragen werden, der entweder mit dem Ultraschall-Bilderzeugungssystem kombiniert sein kann oder extern zu diesem sein kann.
  • Der Computer 36 registriert ausgewählte Rahmen von Bilddaten von dem Bilddatenspeicherarray 30 jeweils bezüglich einander durch geeignete Verwendung der durch den Berechner 42 bereitgestellten Vektoren. Darüber hinaus wird jede notwendige Interpolation erledigt, und die jeweiligen Rahmen von Bilddaten werden in einer geeigneten Registrierung bezüglich einander in einer dreidimensionalen Datenspeichereinrichtung 44 gespeichert. Bei Betrieb in einem Anzeigemodus kann der Computer 36 geeignete Informationen aus der dreidimensionalen Datenspeichereinheit 44 auswählen, um ein gewünschtes Bild auf der Anzeige 46 bereitzustellen. Beispielsweise können Querschnitte in verschiedenen Ebenen genommen werden, einschließlich einer großen Vielzahl von Ebenen, die nicht den Ebenen der Bilddaten entsprechen. Darüber hinaus können Flächenrenderings und Segmentierungsanzeigen erzeugt werden, wenn dies gewünscht ist.
  • In einem Betriebsmodus wird der Aufnehmer 16 durch einen Durchlauf unter direkter manueller Steuerung/Regelung einer Bedienungsperson gedreht, und zwar sanft von einer Seite zur anderen Seite um eine einzelne Drehachse, die entlang der azimuthalen Achse auf der Fläche des Bilddatenarrays 18 liegt. Das im Folgenden beschriebene Verfahren kann den Fehlern im Durchlauf Rechnung tragen. Während der dreidimensionalen Rekonstruktion verschlechtert sich die Qualität der Rekonstruktion bemerkenswert als ein Ergebnis eines Positionsfehlers. Das Ergebnis von fehlerhafter Bewegungserfassung ist eher eine Verzeichnung als eine Unschärfe.
  • Der Ultraschallaufnehmer 16
  • 2 bis 4 stellen drei Ansichten des Ultraschallaufnehmers 16 dar. Wie in 4 gezeigt ist, umfassend die drei Arrays 18, 20, 22 jeweils einen jeweiligen Satz von Aufnehmerelementen 48 50, 52, die alle auf einem gemeinsamen Trägerelement 53 angebracht sind. Die Aufnehmerelemente 48 sind entlang einer Azimuthalachse A angeordnet und das Bilddaten-Aufnehmerarray 18 definiert ein erstes und ein zweites Ende 54, 56.
  • Nachführarrays 20, 22 sind jeweils in der Nähe eines jeweiligen der Enden 54, 56 zentriert auf der Azimuthanachse A angeordnet. Die Aufnehmerelemente 50, 52 sind entlang der jeweiligen Nachführachsen T1, T2 angeordnet und die Nachführachsen T1, T2 sind in dieser bevorzugten Ausführungsform im wesentlichen rechtwinklig zur Azimuthanachse A. Die Nachführarray 20, 22 sind jeweils kürzer als das Bilddatenarray 18 und jedes besitzt weniger Aufnehmerelemente 50, 52. Jedes der Aufnehmerelemente 48 kann um 1/N mal der Teilung der Aufnehmerelemente 50, 52 beabstandet sein. Wie in 3 gezeigt ist, können die Nachführarrays 20, 22 derart orientiert sein, dass sie nach innen zeigen, und zwar zum Bilddatenarray 18 hin. Alternativ können die Nachführarrays 20, 22 mit dem Array 18 coplanar sein, um ein bevorzugtes Profil für den Aufnehmer 16 bereitzustellen.
  • Das Bilddatenarray 18 kann eine herkömmliche Form besitzen, etwa ein ebenes lineares Array mit einer zylindrischen Elevationsfokussierlinse. Alternativ kann das Array im Allgemeinen eben sein, aber die Aufnehmerelemente können in Elevation zum Fokus gekrümmt sein. In diesem Fall kann ein nicht brechendes Füllmaterial, etwa Polyurethan, verwendet werden, da eine Fokussierlinse nicht länger erforderlich ist. Unabhängig davon, ob eine Linse verwendet wird, kann das Bilddatenarray im Azimuth gekrümmt sein, um ein größeres Gesichtsfeld zu erhalten. Die Nachführarrays 20, 22 umfassen typischerweise eine Linse, um den gewünschten Fokus in Elevation zu erreichen. Da die Krümmungen der verschiedenen Linsen oder Arrays in unterschiedlichen Ebenen liegen, kann ein Abschnitt mit einem nicht brechendem Füllmaterial auf dem Aufnehmer 16 ausgebildet sein, um die bevorzugte sanfte Form zu erreichen. Alternativ können die Nachführarrays 20, 22 gekrümmt sein, wobei nicht brechende Fenster auf der Oberseite der gewünschten Form ausgebildet sind. Sowohl das Bilddatenarray 18 als auch die Nachführarrays 20, 22 können als phasengesteuerter Sektor, Vektor®, linear oder krummlinig sein. Alle Bilderzeugungsmodi einschließlich B-Modus, Farbendopplermodus, Farbendopplerenergiemodus und dergleichen werden unterstützt. Ein herkömmlicher TEE-Aufnehmer, etwa der biplanare V510B Aufnehmer von Acuson können in einer Zweiaufnehmer-Ausführungsform verwendet werden.
  • Die in 3 und 4 gezeigte Aufnehmergeometrie kann dazu verwendet werden, Bildebenen zu erhalten, wie in 2 gezeigt ist. Die Bildebene 58 des Bilddatenarrays 18 in dieser Ausführungsform tritt durch die Azimuthalachse A. Mit dem Bilddatenarray 18 gesammelte Bilddaten werden entlang von Abtastlinien 64 in der Bildebene 58 positioniert. Die Bildebenen 60, 62 jeweils der Aufnehmerarrays 20, 22 sind quer zu der Bildebene 58 orientiert. Die Bildebene 58, 60, 62 sind die zentralen Bildebenen der jeweiligen Arrays, das heißt, die einzige Bildebene für ein 1D Array und die zentrale Ebene (d. h. die nicht in Elevation gelenkte Ebene) für ein 1,5D Array.
  • Aus Gründen der Vereinfachung können die Nachführarrays 20, 22 Teilungsabstände der Aufnehmerelemente haben, die zu denjenigen identisch sind, die durch das Bilddatenarray 18 verwendet werden. Dieser Ansatz ermöglicht es, dass dieselben Strahlformerverzögerungen für alle drei Arrays 18, 20, 22 verwendet werden. Es sind jedoch in vielen Anwendungen die Nachführarrays 20, 22 dazu ausgebildet, relativ weniger Akustiklinien zu bilden. Dies ist insbesondere dann der Fall, wenn die Bewegungserfassung in der Nähe der Mittellinie der Bildebenen 60, 62 konzentriert ist. Wenn lediglich ein schmales Gesichtsfeld für die Nachführarrays 20, 22 erforderlich ist, kann der Nachführarray-Teilungsabstand grober sein, beispielsweise zweimal der Teilungsabstand des Bilddatenarrays 18.
  • Durch Einrichten der Nachführarrayteilung als ein ganzzeitiges Vielfaches der Bilddatenarrayteilung können dieselben Strahlformungsverzögerungen verwendet werden, wobei jedoch die geeigneten Kanäle getrennt sind, wie in 5 gezeigt ist. In 5 ist die Elemente-zu-Elementteilung des Nachführarrays zweimal diejenige des Bilddatenarrays 18 und aufeinander folgende Aufnehmerelemente 50 des Nachführarrays 20 sind lediglich mit den geradzahligen oder den ungeradzahligen Signalleitungen für die Aufnehmerelemente 48 des Bilddatenarrays 18 verbunden. Im Grenzfall kann jedes Nachführarray 20, 22 aus lediglich zwei Aufnehmerelementen zusammengesetzt sein, obwohl dies die erreichbare maximale Auflösung begrenzt.
  • Gemeinsame Signalleiter können zwischen dem Strahlformer/Signaldetektor 12 und dem Gehäuse für den Aufnehmer 16 verwendet werden. In dem Gehäuse werden einzelne Signale zwischen den Signalleitern und den Aufnehmerelementen 48, 50, 52 durch Hochspannungsanalogschalter oder Multiplexer, etwa diejenigen, die von Supertex Inc., Sunnyvale, Californien erhältlich sind und die Familienbezeichnung HV2xx besitzen, geleitet.
  • 611 sind schematische Ansichten, die die Art und Weise zeigen, in welcher durch die Nachführarrays 20, 22 erzeugte Bilder zur Abschätzung der Bewegung zwischen mit dem Bilddatenarray 18 erzeugten Bildern verwendet werden können. 6 zeigt eine Perspektivansicht für drei separate Positionen des Aufnehmers 16. Diese drei separaten Positionen des Aufnehmers 16 werden durch Drehen des Aufnehmers 16 um die Azimuthalachse erhalten. Wenn das Bilddatenarray 18 sich um die Azimuthalachse A dreht, drehen sich die Bildebenen 58A, 58B, 58C in einer fächerartigen Weise. Auf diese Weise ist jeder der Bildebenen 58A, 58B, 58C von 6 in einer separaten, jeweiligen Ebene des dreidimensionalen Raums angeordnet.
  • Im Gegensatz hierzu verbleibt die Bildebene 60A, 60B, 60C; 62A, 62B, 62C für jedes Nachführarray 20, 22 koplanar, wenn der Aufnehmer 16 um die Azimuthalachse gedreht wird. Die tatsächlich abgebildeten Bereiche innerhalb der Bildebenen 60A, 60B, 60C; 62A, 62B, 62C drehen sich um die Azimuthalachse A, wenn sich der Aufnehmer 16 dreht. In vielen Anwendungen überlappen oder schneiden sich die abgebildeten Bereiche innerhalb der Bildebenen 58A, 58B, 58C oder die abgebildeten Bereiche innerhalb der Bildebenen 62A, 62B, 62C nicht. Diese Anordnung kann Übersprechen und andere Interferenzprobleme verringern, wie im Folgenden diskutiert wird.
  • 710 zeigen vier Sätze von Bildern. Jeder Satz umfasst ein Bild 66A, B, C, D von dem Bilddatenarray 18 und ein entsprechendes Bild 68A, B, C, D von einem der Nachführarrays 20, 22. In diesem Fall ist das Ziel eine Kugel und die Bilder 66, 68 schneiden einander derart, dass die Kugel in beiden Bildern 66, 68 erscheint. Wie in den Bildern 66A, B, C und D gezeigt ist, werden verschiedene Querschnitte der Kugel angezeigt, wenn sich der Aufnehmer 16 um die Azimuthalachse dreht. Die in den Bildern 66A und 66D gezeigten Querschnitte zeigen kleinere Durchmesserscheiben, die in der Nähe eines Randes der Kugel aufgenommen sind, und die Bilder 66B und 66C zeigen größere Durchmesserscheiben, die in der Nähe des Mittelpunkts der Kugel aufgenommen sind. Daher unterscheiden sich die in den Bildern 66A, B, C und D gezeigten Scheiben in ihren Durchmessern, nach Maßgabe der Bewegungsebene des Bildes (siehe 6). Im Gegensatz hierzu zeigen alle die Bilder 68A, B, C und D Scheiben mit der gleichen Größe. Weil die Ebene der Bilder 66A, B, C und D dieselbe bleibt, wie in Verbindung mit 6 diskutiert wurde, bleibt die in diesen Bildern gezeigte Scheibe in ihrer Größe konstant, aber bewegt sich über die Bildebene hinweg. Die Stelle der Scheibe bei ihrer Bewegung von einem Bild zum nächsten stellt ein Maß einer Bewegungskomponente des Aufnehmers 16 in der Bildebene der Bilder 68A, B, C, D dar.
  • Wenn die Bildebene der Aufnehmerarrays 20, 22 nicht rechtwinklig zu der Oberfläche des Bilddatenarrays 18 ist (beispielsweise weil die Nachführarrays 20, 22 nach innen gerichtet sind, wie in 3 gezeigt ist), kann es bevorzugt sein, einen Kosinus θ Korrekturfaktor zu verwenden, um die Differenz zwischen dem Bildbereich und der physikalischen Tiefe rechtwinklig zum Bilddatenarray 18 zu berücksichtigen.
  • Ein wichtiger Vorteil des Aufnehmers 16 ist der, dass er zwei Nachführarrays 20, 22 enthält, von denen jedes in der Nähe eines benachbarten Endes 54, 56 des Bilddatenarrays 18 angeordnet ist. Diese Anordnung ermöglicht es, dass Komponentendrehungen untersucht werden. In 11 wird der Auf nehmer 16 um eine Drehachse RA gedreht, die wie gezeigt orientiert ist. In 11 bezeichnen die durchgezogenen Kreise das Bild des Ziels zu einem ersten Zeitpunkt und die gestrichelten Kreise bezeichnen das Bild des Ziels zu einem nachfolgenden Zeitpunkt, nach einer Drehung um die Drehachse RA. Man beachte, dass sich die Bilder in entgegengesetzte Richtungen in den Bildebenen 60, 62 in dieser Situation bewegen. Durch Vergleichen der Bewegungskomponente, die separat von den beiden Nachführarrays 20, 22 bestimmt wird, kann die tatsächliche Drehung des Ziels bezüglich des Aufnehmers 16 bestimmt werden.
  • Wenn gewünscht, kann der Aufnehmer 18 ein Absolutsensor für Position, Orientierung oder beides enthalten, etwa einen Magnetsensor 19, wie in 21 gezeigt ist, oder einen Beschleunigungsmesser. Der Sensor 19 kann zur Unterstützung oder Sicherung des unten im Detail beschriebenen Bewegungserfassungsansatzes verwendet werden, und kann einer der im Keller U.S. Patent 5,353,354 beschriebenen Typen sein.
  • Das Strahlformersystem/Signaldetektor 12
  • Wenn der Aufnehmer 16 im wesentlichen um die Azimuthalachse A gedreht wird, werden die Bilddatenarrays 18 und die Nachführarrays 20, 22 aufeinander folgend betrieben. Wenn die Arrays 18, 20, 22 individuell adressierbar sind, sendet der Übertragungsstrahlformer im Element 12 geeignet synchronisierte und phasengesteuerte Anregungssignale an die jeweiligen Aufnehmerelemente 48, 50, 52. In einer Ausführungsform wird ein Datenframe von dem Bilddatenarray 18 gesammelt und dann werden Datenframes von den Nachführarrays 20, 22 gesammelt. Alternativ kann der Obertragungsstrahlformer zwischen dem Bilddatenarray 18 und den Nachführarrays 20, 22 zwischen einzelnen Abtastlinien oder zwischen Gruppen von Abtastlinien wechseln. Wenn die Bildebenen der Arrays 18, 20, 22 sich nicht schneiden, und insbesondere, wenn das Bilddatenarray 18 mit einer anderen Frequenz als die Nachführarrays angeregt wird, ist das Risiko einer Cross-Array-Interferenz klein. Aus diesem Grund kann die Pulswiederholungsrate (die normalerweise durch die Zeit begrenzt ist, die erforderlich ist, dass sich Ultraschallsignale zwischen aufeinander folgenden Abtastlinien im Körper abschwächen) erhöht werden.
  • In einigen Anwendungen können die Arrays 18, 20, 22 gemeinsam mit dem Übertragungsstrahlformer verbunden sein. Typischerweise unterscheiden sich die Bilderzeugungsanforderungen für das Bilddatenarray 18 wesentlich von denjenigen für die Nachführarrays 20, 22. Die Bilddatenqualität sollte auf einem hohen Niveau gehalten werden, aber die Nachführdaten brauchen lediglich ausreichende Qualität besitzen, um ein zuverlässiges Nachführen zu erlauben. Kosten können verringert werden, indem einige Drahtleitungen zwischen dem Array 18 und den Arrays 20, 22 geteilt werden. Typischerweise sind Elemente in der Nähe der Enden des Bilddatenarrays 18 die zum Teilen geeignetsten, da diese weniger wichtig sind als mittlere Elemente.
  • Um Interferenz zwischen den Arrays 18, 20, 22 zu verringern, ist die Kabelführung von den Elementen 48 des Bilddatenarrays 18 zu den Elementen 50, 52 der Nachführarrays 20, 22 vorzugsweise in einer bekannten pseudo zufälligen Weise durcheinander angeordnet. Das Element 12 verwendet das Schema der Durcheinanderanordnung, um die Strahlformerverzögerungen derart zu sortieren, dass ein Satz von Arrays (entweder das Bilddatenarray 18 oder die Nachführarrays 20, 22) bei jeder gegebenen Abtastlinie kohärent betrieben wird. Der andere Satz wird wegen der Anordnung der Kabel durcheinander inkohärent betrieben. Das optimale Schema der Durcheinanderanordnung kann durch routinemäßige Experimente bestimmt werden.
  • Übersprechen kann ferner mit Frequenzkodierungs- und Spannungspegeltechniken reduziert werden. Die Nachführarrays 20, 22 können mit einer verringerten Bildtiefe, etwa wenige Zentimeter, und daher mit einer hohen Frequenz, etwa 10 Mhz, arbeiten. Das Bilddatenarray 18 kann in einem längeren Bereich, bei niedrigerer Frequenz, etwa 5 MHz arbeiten, wodurch Übersprechen verringert wird. Die Aufnehmerelemente 48, 50, 52 können mit ei ner Dicke ausgebildet sein, die die geeigneten Frequenzen auswählt. Darüber hinaus können Bandpassfilter in dem Element 12 verwendet werden, um die gewünschten Frequenzbänder zur Erfassung auszuwählen.
  • Spannungspegel können zwischen zwei Sätzen von Arrays 18, 20, 22 variieren. Beispielsweise kann eine höhere Spannung verwendet werden, wenn die Nachführarrays 20, 22 ausgewählt sind, insbesondere wenn die Nachführarrays 20, 22 eine höhere Spannung erfordern, um effektiv zu arbeiten. In diesem Fall emittieren die Nachführarrays 20, 22 ein relativ kleines Signal, wenn das Bilddatenarray 18 ausgewählt ist und der Spannungspegel verringert ist.
  • 22 zeigt ein alternatives System 10', welches viele derselben Komponenten wie das System 10 verwenden kann. Das System 10' unterscheidet sich darin, dass die Arrays 18, 20, 22 gleichzeitig mit unterschiedlichen Frequenzen durch Strahlformer/Signaldetektoren 12', 12'' betrieben werden. In jedem Fall ist ein jeweiliges Bandpassfilter 13', 13'' vorgesehen, um den interessierenden Bandpass zu isolieren. Wie oben beschrieben wurde, können die Nachführarrays 20, 22 bei 10 MHz arbeiten und das Bilddatenarray 18 kann bei 5 MHz arbeiten. Die oben diskutierte durcheinander angeordnete Kabelführung kann zur Verringerung von Interferenz verwendet werden. Die Bandpassfilter 13', 13'' können für gleichförmig gemachte Signale arbeiten, aber die Anordnung von 22 ist in der Praxis bevorzugt.
  • Wenn der Aufnehmer 16 durch seinen Bereich gefahren wird, indem er um die Azimuthalachse A gedreht wird, ist das bevorzugte Format für das Bilddatenarray das Sektorformat. Akustikliniendaten, die im Sektorformat aufgenommen werden, können bequem in dem Korrelationsprozess ohne Abtastumwandlung verwendet werden, da beispielsweise eine reine Drehung in rechtwinkligen Koordinaten als eine Änderung in einer Winkelkoordinate in einem geeignet gewählten zylindrischen Koordinatensystem wiedergegeben werden kann, sofern die Linie für Linie auftretende Winkelerhöhung bekannt ist, die Winkel der Linien bezüglich der Normallinie (siehe 15) bekannt sind und die Erhöhung von Abtastbereich zu Abtastbereich bekannt ist.
  • Der Bewegungsabschätzer 38
  • Die Bewegungserfassung kann manuell durchgeführt werden, beispielsweise durch Anordnen einer Linie in den Displaydaten bei einem besonderen erkennbaren Merkmal in den Bildebenen 60, 62 und dann Wiederholen dieser Aktivität an nachfolgenden Frames. Das System kann die Linienposition für aufeinander folgende Frames verfolgen, um einen Vektor zu erzeugen, der die Bewegung von Frame zu Frame anzeigt.
  • Ein besseres Verfahren ist es, eine Computeranalyse der Bewegung von Frame zu Frame unter Verwendung einer Kreuzkorrelation oder eines ähnlichen Verfahrens an den mit den Nachführarrays 20, 22 aufgenommenen Bilddaten zu verwenden. Solche Techniken (welche hierin im Folgenden allgemein als Korrelationstechniken bezeichnet werden) sind in der Vergangenheit zum Verfolgen der Blutströmung verwendet worden. Diese Verfahren erfordern es nicht, dass ein erkennbares Merkmal in dem Displaybereich vorhanden ist, und sie können lediglich unter Verwendung von Ultraschall-Speckledaten in geeigneter Weise funktionieren. Speckle ist ein natürlich auftretendes Phänomen in Ultraschallbildern und ist das Ergebnis der kohärenten Natur der von kleinen Streuobjekten im Gewebe reflektierten Wellen.
  • Jede geeignete Korrelationstechnik kann verwendet werden, einschließlich Kreuzkorrelation und des Verfahrens der Summe absoluter Differenzen, das in Bohs und Trahey "A Novel Method For Angle Independent Ultrasonic Imaging Of Blood Flow And Tissue Motion" (IEEE Trans. on Biomed. Eng., 38, 3 Seiten 280–286, März, 1991) diskutiert ist. Kreuzkorrelation ist die wohlbekannte mathematische Operation, welche aufeinander folgende Summen von Multiplikationsoperationen für verschiedene Translationen von Daten in einer Suche für die Translation, für die die beiden Sätze von Daten am bes ten übereinstimmen, verwendet. Das Verfahren der Summe absoluter Differenzen ist eine berechnungsmäßig einfachere Korrelationstechnik, aber erreicht eine ähnliche Nettowirkung. Die Sätze von Daten werden um verschiedene Beträge verschoben. Für jede Translation werden jeweilige Datenwerte in jedem der Sätze subtrahiert und die Summe der absoluten Differenzen wird berechnet. Wenn eine besondere Translation eine Summe absoluter Differenzen ergibt, die nahe bei Null liegt, dann ist es wahrscheinlich, dass die Sätze von Daten um die zugehörige Translation ausgerichtet sind. Diese zum Erzielen einer Ausrichtung erforderliche Translation ist ein Hinweis der Bewegung zwischen den beiden jeweiligen Frames an den Seiten des Bildes, welches am nächsten dem jeweiligen Nachführarray liegt. Wie im Folgenden erläutert wird, kann die Bewegung an anderen Teilen des Bildes unter Verwendung der erfassten Bewegung an beiden Nachführarrays und linearer Interpolationstechniken entlang des Azimuths des Bilddatenarrays 18 ausgewertet werden.
  • Die Größe des bei jedem beliebigen Korrelationstyp verwendeten Datenblocks ist ein Gegenstand zur Optimierung. Größere Blöcke haben eine geringere Wahrscheinlichkeit einer falschen Übereinstimmung, aber erfordern längere Berechnungszeiten. Die maximale erfassbare Translation von Frame zu Frame ist durch die Blockgröße begrenzt. Typischerweise werden Suchen bis zu plus oder minus einer Hälfte der Blockgröße gemacht. Beispielsweise kann ein 16×16 Pixelblock verwendet werden, um eine maximale Translation von plus oder minus 8 Pixeln zu erfassen.
  • Der Bewegungsabschätzer 38 kann jede beliebige effektive Technik zur Bestimmung einer Bewegung auf Grundlage der Datenframes, die in den Arrays 30, 32, 34 gespeichert sind, verwenden. Die Bewegungsabschätzung kann auf dem gesamten Frame oder auf Abschnitten des Frames beruhen. Wenn Abschnitte verwendet werden, können sie derart ausgewählt sein, dass sie einem wohldefinierten Merkmal im Bild entsprechen. Die Bewegungsabschätzung kann auf einen beabstandeten Untersatz von zur Verfügung stehenden Daten angewendet werden, um Zeit zu sparen, sofern dies effizienter ist. Wenn beispielsweise Abtastwerte mit einem Abstand von 0,5 mm zur Verfügung stehen, aber eine optimierte Bewegungserfassung auf Grundlage eines Abstands von 1 mm durchgeführt werden kann, kann Zeit gespart werden, in dem alternierende Abtastwerte gelöscht werden und die Bewegungserfassung lediglich auf Grundlage eines Untersatzes der zur Verfügung stehenden Daten durchgeführt wird.
  • Die zur Bewegungsabschätzung verwendeten Nachführbilddaten können jede beliebige einer Anzahl von Formen haben, einschließlich wenigstens der Folgenden:
    • 1. Benachbarte Pixel in dem Ausgabedisplay (welches von den tatsächlichen Akustikliniendaten interpoliert wird);
    • 2. Ausgewählte Pixel aus einem größeren Gitter, beispielsweise jedes N-te Pixel;
    • 3. Durchschnitte von Gruppen von Pixeln, etwa der Durchschnitt einer Gruppe von vier benachbarten Pixeln;
    • 4. Abtastwerte aus Akustikliniendaten eines pre-scan-Umwandlungsstrahlformers.
  • Die von einem Strahlformer ausgegebenen Linien von akustischen Daten können polares oder kartesisches Format haben. Da die Beziehung zwischen diesen Linien von Daten und den physikalischen Linien der Ausbreitung bekannt sind, können aus diesen akustischen Linien abgeleitete Abtastwerte in der Bewegungserfassung verwendet werden.
  • 15 ist eine schematische Ansicht, die die Position eines Ziels bei Frames N und N+1 bezüglich der akustischen Abtastliniendaten zeigt. In 15 wird das Bezugszeichen 70 für einzelne Punkte verwendet, bei denen die Messungen gemacht wurden. Diese Punkte sind in diskreten Abständen ent lang der Abtastlinien angeordnet. 16 zeigt die Rohakustikliniendaten (vor der Abtastumwandlung), bei denen jede Zeile eine jeweilige Abtastlinie wiedergibt, und die Messpunkte sind in jeweiligen Abständen sind wie gezeigt. In 15 und 16 wird das + Symbol für die Position des Ziels für beide Frames N und N+1 verwendet. Der Bewegungsabschätzer 38 erfasst bei Betrieb an den Frames N und N+1, dass das Ziel sich von der Abtastlinie 1 zur Abtastlinie 3 bewegt hat und der Abstand bei vier Abtastintervallen vom Ursprung aus konstant geblieben ist. Da die Abtastslinien einen Winkelabstand von X Grad haben und der Abstand zwischen benachbarten Punkten 70 in der Mitte des Bewegungsblocks gleich P Millimetern ist, können grundsätzliche geometrische Beziehungen verwendet werden, um zu beweisen, dass der laterale Versatz +8PsinXsinθ beträgt und der Tiefenversatz –8PsinXcosθ beträgt, wobei θ der Winkel in Grad zwischen dem Mittelpunkt des Bewegungserfassungsblocks und der Normallinie ist, die von dem Abtastlinienursprung ausgeht, und wobei das Nachführarray im Sektorformat arbeitet. Diese Berechnungen gelten näherungsweise, aber sie zeigen die Art und Weise, in der die rohen Akustikliniendaten im Bewegungseinschätzer 38 verwendet werden können.
  • Wenn Akustikliniendaten im Bewegungsabschätzer verwendet werden, können sie digitalisierten RF-Signalen, digitalisierten IF-Signalen, digitalisierten Basisbandsignalen oder gleichgerichteten tiefpassgefilterten Einhüllendenerfassungssignalen entsprechen. Als ein Beispiel von Einhüllendenerfassungssignalen können B-Modusdaten verwendet werden. Die Akustikliniendatensignale können reale digitale Abtastwerte sein oder Komplexe (I, Q) Datenabtastwerte sein.
  • In der gegenwärtig bevorzugten Ausführungsform beruht der in Bewegungsabschätzer 38 verwendete Ansatz auf der Summe von Absolutdifferenzen in einem Pixelblock gleich 16×16 Pixeln. Aus Gründen der Effizienz ist es vorteilhaft, einen spezialisierten integrierten Schaltkreis zu verwenden. Der integrierte Schaltkreis LSI Logic 64720 ist zur Durchführung einer 16×16 Bewegungserfassung in Raten von bis zu 396 Blöcken in 1/30 Sekunde entworfen. Diese Schaltungen können kombiniert werden, um einen höheren Durchsatz oder größere Blockgrößen zu erhalten. Wenn die Blockgröße auf 8×8 Pixel reduziert wird, sind noch höhere Raten möglich (4500 Blöcke in 1/30 Sekunde). Dieser integrierte Schaltkreis besitzt den Kostenvorteil einer Herstellung im großen Volumen. Ähnliche alternative integrierte Schaltkreise können ebenso verwendet werden. Alternativ kann der gesamte Vorgang unter Verwendung eines geeignet programmierbaren allgemein einsetzbaren Prozessors durchgeführt werden, etwa das Texas Instruments TMS 320C80.
  • Vorzugsweise sind die Arrays 18, 20 mit dem Array 16 ausgerichtet ausgebildet, so dass die Bildebene 58 mit der vertikalen Achse der Bildebenen 60, 62 ausgerichtet ist. Aus diesem Grund kann eine Bewegung bezüglich der Mittellinie der Bildebenen 60, 62 verwendet werden, um die Relativbewegung der Bildebene 58 zu bestimmen. Datenblöcke sind entlang der Mittellinie liegend definiert.
  • Es sind strikt lediglich zwei Bewegungserfassungsvorgänge pro Nachführarray erforderlich. Jedoch kann durch Durchführen mehrerer Nachführvorgänge über verschiedene Teile des Bilds hinweg (nicht notwendigerweise auf der Mittellinie), ein größerer Vertrauensbereich hinsichtlich der Genauigkeit des Verfahrens erhalten werden. Wie in 13 gezeigt ist, kann eine glatte geradlinige Anpassung verwendet werden, um einen Durchschnitt von mehreren erfassten Abschätzungen der Komponentenbewegung zu erhalten. In 13 geben die gestrichelten Pfeile die angepasste Bewegungskomponente wieder und durchgezogene Pfeile geben die tatsächlichen Messungen der Bewegungskomponente wieder. Durch Nehmen eines Durchschnitts von mehreren Messungen kann eine zuverlässigere Abschätzung erhalten werden. Dieser Durchschnitt kann sowohl bezüglich der Amplitude als auch bezüglich des Winkels der Bewegungskomponentenvektoren verwendet werden.
  • Darüber hinaus können Bewegungsabschätzungen, die sich deutlich von be nachbarten Abschätzungen unterscheiden, als ungenau verworfen werden. Wie in 14 gezeigt ist, kann ein Bild eines der Nachführarrays ein Organ 72 enthalten, welches eine durch die Pfeile 74 angedeutete Bewegung als Ganzes aufweist, die sich von der durch den Speckle des größeren Teils des Bildbereichs angedeuteten Bewegung unterscheidet. In diesem Fall kann die Hauptbewegung des Organs ignoriert werden und der Durchschnitt der verbleibenden Bewegungsabschätzungen, welche durch die kürzeren Pfeile 76 angedeutet sind, kann als eine Abschätzung der Bewegung des Frames verwendet werden. Ein geeigneter Ansatz ist es, die Bewegungsvektoren (Länge und Richtung) zu quantisieren und dann die am meisten auftretende quantisierte Länge und Richtung aufzufinden. Nachfolgend werden die tatsächlichen (nicht quantisierten) Vektoren innerhalb eines Toleranzbandes (z. B. ± 30%) des am meisten gemeinsam auftretenden Wertes ausgewählt und gemittelt, um die gewünschte Abschätzung zu erzeugen.
  • Zusätzlich kann in einer Berechnung einer Summe von Absolutdifferenzen das Verhältnis der minimalen Summe zur durchschnittlichen Summe (nach Entfernen des minimalen Summenwerts) als ein Indikator der Qualität der Bildbewegungserfassung verwendet werden. Wenn die minimale Summe sich nahe beim Durchschnitt befindet, ist die Berechnung anfällig für Fehler, d. h. für eine falsch erfasste Bewegung. Wenn der integrierte Schaltkreis LSI 64720 verwendet wird, ist die Summe der Fehlerwertausgabe ein Indikator eines Ergebnisses mit niedriger Qualität (hohe Fehlerwertsumme entspricht einem Ergebnis mit niedriger Qualität).
  • Eine Nachführung mit niedriger Qualität kann auch durch Vergleichen von Bewegungsabschätzungen erfasst werden. Benachbarte oder aufeinander folgende Bewegungsabschätzungen, die nicht ähnlich zueinander sind, können ein Hinweis auf eine schlechte Qualität der Bewegungsabschätzung sein. Natürlich können zwei oder mehr der oben beschriebenen Ansätze in Kombination verwendet werden.
  • Specklemuster verändern sich schnell, wenn Bewegung auftritt. Insbesondere verändert sich ein Specklemuster, wenn die Elevationsscheibenposition sich bewegt. Dies liegt daran, dass Specklestreuzentren sich in die Bildebene hinein und aus dieser heraus bewegen, anstatt innerhalb der Ebene zu bleiben und sich parallel zu dieser zu bewegen. Aus diesem Grund ist es in vielen Fällen bevorzugt, häufige Bewegungsabschätzungen zu machen, wenn der Aufnehmer 16 bewegt wird. Die genaue Frequenz der Abschätzungen hängt von der Skala des Bewegungserfassungsproblems ab, welches mit der durch die Bedienungsperson vorgegebenen Bewegungsgeschwindigkeit, der Fähigkeit der Bedienungsperson, eine Scheibenperson beizubehalten und der Natur des Speckleziels (welches eine Funktion von Gewebetyp und Ultraschallfrequenz ist) in Zusammenhang steht.
  • Zum Beispiel kann bestimmt werden, dass dreißig Bilddatenframes von dem Bilddatenarray 18 ausreichende Bilderzeugungsdaten für eine gewünschte 3-D Konstruktion bereitstellen. Es kann jedoch bevorzugt sein, fünf Bewegungsabschätzungen zwischen jedem ausgewählten Bilddatenframe durchzuführen und diese Abschätzungen aufzusummieren, um die Nettobewegung zwischen den Bilddatenframes zu berechnen. Da kumulative Fehler minimiert werden müssen, ist ein Weg, um dieses Ziel zu erreichen, der, den Bewegungserfassungsvorgang überabzutasten und die Ergebnisse zu ermitteln, um Quantisierungseffekte aufgrund der Pixelgröße zu reduzieren. Mit diesem Ansatz können beispielsweise fünf Frames für jedes der Nachführarrays 20, 22 für jedes Frame des Bilddatenarrays 18 vorhanden sein.
  • Während die Bewegungserfassung oft am besten funktioniert, wenn sie aus einer Summe kleiner Bewegungserfassungen durchgeführt wird, gibt es Situationen, in denen es von Wert ist, eine Bewegungserfassung zwischen dem Frame N und dem Frame N–M durchzuführen, wobei M eine ganze Zahl größer als 1, etwa 10, ist. Im Prinzip kann dieser Ansatz zur Korrektur kumulativer Fehler verwendet werden. Jedoch ist die Wahrscheinlichkeit, dass eine solch große Bewegung korrekt abgeschätzt wird, geringer. Daher ist der Wert von M ein Gegenstand zur Optimierung.
  • Da die Elevationsscheibe Specklequalität und -stabilität beeinflusst, kann es bevorzugt sein, eine Bewegung am Elevationsfokus der Linse zu verfolgen. Wenn alternativ die Speckleabhängigkeit sogar am Elevationsfokus zu empfindlich ist, kann es bevorzugt sein, diesen Bereich zu vermeiden. Es kann bevorzugt sein, während der Glättungsoperation verschiedene Gewichtungen auf die erfassten Bewegungen anzuwenden, um die Nettogenauigkeit zu maximieren, indem genauere Daten stärker gewichtet werden. Es kann bevorzugt sein, ein elevationsfokussiertes Array (1,5D Array) zu verwenden oder möglicherweise ein nicht fokussiertes Array zu verwenden, wenn sich während des Experimentierens herausstellt, dass dieses die besten Ergebnisse bringt.
  • Die zur Bewegungserfassung verwendeten Daten können viele Formen annehmen. Einhüllendenerfassungsdaten mit Abtastumwandlung sind eine einfache Wahl bei der Auslegung und dies wird gegenwärtig bevorzugt. Alternativen umfassen Einhüllendenerfassungsdaten vor Abtastumwandlung und RF- oder Basisbandstrahlformerausgangssignale vor einer Einhüllendenerfassung.
  • Es ist auch möglich, dass der Benutzer interessierende Bereiche auswählt, wenn aus irgendwelchen Gründen der Benutzer besondere Präferenzen dahingehend hat, welche Bereiche im Nachführdatenbild die beste Bewegungserfassung bieten. Beispielsweise kann ein Benutzer Bereiche von sich bewegendem Blut als Bereiche zur Bewegungserfassung ausschließen.
  • Während des Sammelns von Bilddaten ist das bevorzugte Display im wie es in 20 angezeigt ist. In 20 ist ein Bild von dem Bilddatenarray 18 zentral auf dem Schirm gezeigt und Nachführbilder von den Nachführarrays 20, 22 sind auf jeweiligen Seiten des Schirms gezeigt. Vorzugsweise wird die Bewegungserfassung in Echtzeit durchgeführt, und die ertasste Bewegung wird auf dem Display durch Anzeigen der berechneten Bewegung, wie sie in Echtzeit auftritt, wiedergegeben. Das Display kann die Form von Bewegungsvektoren annehmen, wie in 20 gezeigt ist. Alternativ können numerische Maße von erfasster Bewegung angezeigt werden. Diese Displays zeigen die relative Position des Aufnehmers in dem Durchlauf an und stellen daher für die Bedienungsperson eine Anzeige, wann die gewünschte Winkelbewegung vervollständigt ist, und darüber hinaus eine Anzeige, dass das Bewegungserfassungssystem korrekt arbeitet, bereit. Alternativ können die Bilddaten ohne die Nachführbilder oder ohne Anzeige der erfassten Bewegung angezeigt werden. Für den Fall, dass die im System berechneten Bewegungsvektoren eine Nachführung mit schlechter Qualität anzeigen (beispielsweise erratische Änderungen in dem berechneten Bewegungsvektor innerhalb eines einzelnen Frames oder zwischen aufeinander folgenden Frames) kann das System die Bedienungsperson dazu auffordern, erneut zu beginnen, beispielsweise mittels einer Audioaufforderung, etwa eines Alarms, oder einer visuellen Aufforderung, etwa einer aufleuchtenden Video-Umkehrnachricht.
  • Falls gewünscht, kann das System zur Unterstützung der Bedienungsperson beim Erreichen einer optimalen Durchlaufrate programmiert sein. In vielen Fällen enthält die optimale Verwendung des Bewegungsabschätzers einen Aufruf für eine optimierte Durchlaufrate, das heißt eine Durchlaufrate, die groß genug ist, um eine unakzeptable Fehlerhäufung zu vermeiden, und klein genug ist, um innerhalb des Bewegungsbereichs des Bewegungsabschätzers zu bleiben. Es kann entweder eine akustische oder eine Videoaufforderung verwendet werden.
  • Wenn beispielsweise der Bewegungsabschätzer dazu ausgebildet ist, ±8 Pixel zu erfassen, kann das System einen intermittierenden Ton emittieren, wenn die Durchlaufrate ungefähr korrekt ist (z. B. 4 Pixel der Bewegung pro Abschätzung). Wenn die abgeschätzten Bewegungen zu klein sind (beispielsweise kleiner als 2 Pixel) wird der intermittierende Ton durch einen niedrigen kontinuierlichen Ton ersetzt, welcher sogar noch niedriger wird, wenn die Abtastrate sich weiter verringert. Wenn die abgeschätzten Bewegungen zu groß sind (z. B. größer als 6 Pixel), wird umgekehrt der intermittierende Ton durch einen hohen kontinuierlichen Ton ersetzt, der sogar noch höher wird, wenn die Durchlaufrate schneller wird.
  • Eine geeignete visuelle Aufforderung umfasst einen Pfeil variabler Länge, welcher eine größere Länge aufweisen kann, um zu einer schnelleren Durchlaufrate aufzufordern, sowie eine kürzere Länge aufweisen, um zu einer kürzeren Abtastrate aufzufordern, und der aufleuchten kann, um eine optimale Abtastrate anzuzeigen.
  • Ein anderer Ansatz ist es, den Bewegungsabschätzer derart zu programmieren, dass er die Zeitabstände der einander korrelierten Frames auswählt, um die Bewegungskomponente abzuschätzen. Durch geeignete Auswahl dieses Abstands in einer adaptiven Weise kann die gemessene Bewegungskomponente innerhalb eines optimalen Bereichs für einen weiten Bereich von Durchlaufgeschwindigkeiten gehalten werden. Wenn beispielsweise viele nicht verwendete Nachführframes zwischen jedem Paar von korrelierten Nachführframes vorhanden sind, und wenn 8 Pixel die maximal erfassbare Bewegung ist, kann die Anzahl von nicht verwendeten Nachführframes zwischen jedem Paar von korrelierten Nachführframes in Echtzeit je nach Bedarf erhöht oder erniedrigt werden, um die ertasste Bewegung im Bereich von 4 bis 6 Pixeln zu halten.
  • Bewegungsabschätzungen mit niedriger Qualität können mit einem niedrigen Pegel gewichtet werden und insgesamt entfernt werden. Ein Ansatz zum Auswählen von Bewegungsabschätzungen mit niedriger Qualität ist es zunächst eine Kurve an alle Bewegungsabschätzungen anzupassen (sowohl in der Länge als auch im Winkel). Dann werden die einzelnen Bewegungsabschätzungen mit der angepassten Kurve verglichen und Bewegungsabschätzungen, welche von der Kurve um mehr als einen Schwellenwert, etwa 30%, abweichen, werden als Bewegungsabschätzungen mit niedriger Qualität betrachtet und von der Sammlung von Bewegungsabschätzungen gelöscht. Dann wird die Kurvenanpassungsoperation unter Verwendung lediglich der verbleibenden Bewegungsabschätzungen wiederholt. Wenn mehr als ein bestimmter Anteil, etwa 20%, der Bewegungsabschätzungen als Abschätzungen mit niedriger Qualität klassifiziert werden, kann der Vorgang abgebrochen werden und die Bedienungsperson aufgefordert werden, den Durchlauf zu wiederholen.
  • Im Allgemeinen ist es oft notwendig, lediglich die Bewegungskomponente zu bestimmen, die die Relativpositionen von aufeinander folgenden Bildern betrifft. Wenn erforderlich, ist es auch möglich, die Drehachse durch Ziehen von Linien rechtwinklig zu den bestimmten Bewegungsvektoren zu bestimmen, wie in 12 gezeigt ist. Wenn dies gemacht wird, ist die Länge eines Bewegungsvektors eine Anzeige des Abstands des Bewegungsvektors von der Drehachse.
  • Genauer gesagt, ist es nicht notwendig, dass zwei Nachführarrays 20, 22 vorhanden sind. Wenn jedoch zwei Nachführarrays vorhanden sind, ist die Fähigkeit, mit unsauberer Drehung umzugehen (bei der das eine Ende des Bilddatenarrays 18 mehr gedreht wird als das andere), wesentlich erhöht. Wenn ferner mehrfache Nachführungsarrays verwendet werden und Bewegungen für verschiedene Bereiche jedes Nachführarrays bestimmt worden sind, kann eine Interpolation angewendet werden, um den Mittelpunkt der Drehung zu finden, der für alle Zwischenpunkte in der Bereichsrichtung in jedem Nachführarray gilt.
  • Da die Nachführarrays auf jeder Seite der Bildebene liegen und die exakte Geometrie der Bilddatenebene bezüglich der Nachführarrays bekannt ist, ist es möglich, linear entlang der Azimuthalachse des Bilddatenarrays zu interpolieren, um die genauen Pixeltranslationen für alle Punkte in der Bilddatenebene zu berechnen.
  • Typischerweise werden Bewegungsabschätzungen entlang einer geraden Strecke oder über ein rechtwinkliges Gitter hinweg gesammelt. Aufgrund der Begrenzungen der Arraygeometrie und der Fortbewegung der geraden Akustiklinien von dem Array muss das theoretische Verhalten der Bewegungsvektoren als eine Funktion der Tiefe bestimmte Nebenbedingungen erfüllen. Insbesondere sollte sich die Länge der Bewegungsvektoren linear mit der Tiefe verändern. Diese Nebenbedingungen können verwendet werden, um den Fehler in der Bewegungsabschätzung zu verringern. Beispielsweise kann eine Sequenz von Bewegungsabschätzungen als eine Funktion der Tiefe aufgenommen werden und dann in Bewegungsvektorabschätzungen (Länge und Winkel) umgewandelt werden. Eine gerade Linie wird dann unter Verwendung wohlbekannter Verfahren angepasst, um die beste Anpassungslinie an die tatsächlichen Daten für die Längenkomponente zu bestimmen. Eine zweite gerade Linie wird dann an die tatsächlichen Daten für die Winkel- oder Richtungskomponente angepasst. Diese angepassten Linien (umfassend Länge und Richtung) können entlang der Azimuthalrichtung während einer dreidimensionalen Rekonstruktion an anderen Zwischenstellen als den zur Ableitung der Bewegungsvektoren verwendeten linear interpoliert werden.
  • Man beachte, dass dann, wenn der Patient und der Aufnehmer sich gemeinsam langsam bewegen, nicht notwendigerweise ein Leistungsfähigkeitsverlust das Ergebnis ist, solange die Relativposition des Aufnehmers 16 bezüglich des Patienten grob beibehalten bleibt.
  • Um die Bewegungsabschätzung ferner zu verbessern kann es wünschenswert sein, nicht nur Bilder zu verwenden, die ausgewählten Abschnitten des ECG-Zyklus oder Atmungszyklus entsprechen. Sowohl ECG-Tastung als auch Atmungstastung sind in der dreidimensionalen Rekonstruktion von Bildern wohlbekannt. Siehe beispielsweise Mc Cann et al. "Multidimensional Ultrasonic Imaging for Cardiology" auf Seite 1065. Mit der ECG-Tastung wird ein Fenster zu einer festen Zeitdauer nach dem ECG-Prüfmaximum ausgewählt. Bei der Atmungstastung ist es oft am einfachsten, den Patienten zu bitten, seinen oder ihren Atem für die kurze Dauer des Ultraschallscans anzuhalten. Alternativ kann die Brustbewegung unter Verwendung eines Verlagerungssensors aufgenommen werden und Daten können für einen Abschnitt des Atmungszyklus ausgewählt werden.
  • Verschiedene andere Techniken können verwendet werden, um die Bewegungsabschätzung zu optimieren. Beispielsweise kann die Genauigkeit durch Interpolieren auf feinere und feinere Pixel verbessert werden. Rauschen in den Daten kann unter Verwendung eines Tiefpassfilters oder eines Medianfilters entfernt werden und das Zuordnen von Spannungspegel zur Helligkeit kann für Bewegungsabschätzungszwecke optimiert werden. Typischerweise wird eine logarithmische Komprimierung an den Nachführarrays 20, 22 verwendet und diese logarithmische Komprimierung kann unabhängig von der logarithmischen Komprimierung, die für die Bilddaten von dem Bilddatenarray verwendet wird, optimiert werden. Die verwendete besondere Zuordnung kann gemäß den Wünschen der Bedienungsperson in weitem Maße variieren. Es ist wahrscheinlich, dass in vielen Fällen eine Bewegungsanpassung am effizientesten unter Verwendung anderer Zuordnungen als derjenigen, die durch die Bedienungsperson für die Bilddaten verwendet wird, funktioniert. Falls gewünscht, kann das System 10 die intern für die Daten von den Nachführarrays 20, 22 verwendete Zuordnung variieren, bis eine Zuordnung gefunden wird, die eine Bewegungserfassung mit hoher Qualität bereitstellt.
  • Dreidimensionaler Volumenfüllcomputer 36
  • Viele Ansätze können beim Anordnen der Bilddatenframes gemacht werden, um die gewünschte dreidimensionale Rekonstruktion bereitzustellen. Ein Beispiel ist schematisch in 1719 gezeigt. In diesem Beispiel sind Bilddatenframes vor der Rekonstruktion schematisch in 17 gezeigt. Das Bilddatenframe für die Mittelebene ist in einer Ebene eingefügt, welche zu der Mitte des Volumens ausgerichtet angeordnet ist, wie in 18 gezeigt ist. Sich von dieser Mittelebene nach außen arbeitend sind aufeinander folgende Bilddatenframes an ihren geeigneten XYZ Stellen eingefügt, wie in 19 gezeigt ist. Sobald alle Frames eingefügt sind, werden Zwischenpunkte unter Verwendung dreidimensionaler linearer Interpolationstechniken berechnet, welche auf den acht nächsten bekannten Datenpunkten beruhen, die als ein Quader um den zu interpolierenden Punkt angeordnet sind. Solche dreidimensionalen Manipulationstechniken sind bekannt und daher werden sie hier nicht im Detail beschrieben.
  • Ein Ansatz ist es, das Abtastumwandlungsinterpolationsverfahren zu verwenden, welches durch Leavitt in Hewlett Packard Journal, Oktober, 1983, Seiten 30–34 beschrieben ist, und zwar angewendet zur Verwendung in drei Dimensionen. Der durch Leavitt beschriebene Ansatz arbeitet mit Daten in einer zweidimensionalen Ebene. Daten in drei Dimensionen können als zwei aufeinander folgende zweidimensionale Operationen behandelt werden. Die Bildebenendaten können in einer Abtastung umgewandelt und interpoliert werden, wie durch Leavitt beschrieben ist, unter Verwendung von Pixelabständen, die die Anforderungen an die dreidimensionale Abtastumwandlung erfüllen. Dann kann eine orthogonale zweidimensionale Abtastumwandlung an jeder Azimuthalposition durchgeführt werden, um das Volumen in der rechtwinkligen Richtung auszufüllen. Die Leavitt-Technik nimmt an, dass die Drehachse für aufeinander folgende zweidimensionale Bilder korrekt ausgerichtet ist. Wenn dies nicht der Fall ist, können andere volumetrische Rekonstruktionsverfahren verwendet werden: Geeignete Rekonstruktionsverfahren sind wohlbekannt und werden bei herkömmlichen auf Magnetsensoren basierenden Systemen verwendet.
  • Wenn erfasst wird, dass aufeinander folgende Frames zu eng beieinander liegen, können einige der Framedaten verworten werden. Wenn eine große Anzahl von Frames vorhanden ist, ist es möglich, lediglich diejenigen beizubehalten, welche in der Nähe eines gewünschten einheitlichen Abstands zueinander liegen. Wenn beispielsweise der gewünschte Abstand zur Rekonstruktion 2° beträgt und Daten in 0, 1,2, 2,1, 2,8, 3,9 Grad aufgenommen werden, können die Frames 1,3 und 5 ungefähr als die korrekten Frames angenommen werden, die ungefähr bei 0, 2 und 4 Grad liegen. Der Fehler aus der Approximation ist nicht signifikant und kann zu einer vereinfachten Rekonstruktion führen.
  • Translationstechniken
  • Man beachte, dass eine Bewegungskomponente innerhalb des Bilddatenframes auch unter Verwendung der oben diskutierten Techniken erfasst werden kann. Diese Bewegungskomponente ist parallel zur Azimuthalachse und kann zu der mit den Nachführarrays erfassten Bewegungskomponente addiert werden, welche senkrecht zur Azimuthalachse ist. Da die Bilddaten von dem Bilddatenarray 18 sich signifikant aufgrund der Bewegung der Elevationsebene bewegen, ist es bevorzugt, dass die Bewegungserfassung in dieser Ebene überabgetastet (oover-sampled) ist. Vorzugsweise wird während der Rekonstruktion lediglich eine gemessene Nettobewegung angewendet, wie oben in Verbindung mit 14 diskutiert wurde.
  • Darüber hinaus kann eine Bewegung in der Ebene der Bilddatenframes erfasst werden, wenn der Aufnehmer 18 in Translation entlang der Azimuthalachse bewegt wird, im Gegensatz zu den oben diskutierten Drehdurchläufen. Mit diesem Ansatz kann ein erweitertes Gesichtsfeld bereitgestellt werden, indem der Aufnehmer 16 entlang der Azimuthalachse axial verschoben wird, ohne dass der Aufnehmer 16 gedreht wird. Wenn das einzige Interesse in der Verfolgung einer solchen linearen Translation liegt, sind die Nachführarrays 20, 22 nicht erforderlich.
  • Wie hierin verwendet, bezeichnet ein erweitertes Gesichtsfeld ein System, das Bilddaten von einem Aufnehmerarray speichert, wenn das Aufnehmerarray axial entlang seiner Azimuthalachse bewegt wird. Daten von dem Array in verschiedenen Positionen entlang der Azimuthalachse werden dann zur Rekonstruktion registriert, um ein Bild mit erweitertem Gesichtsfeld zu bilden.
  • Das oben diskutierte erweiterte Gesichtsfeld kann mit Daten von einem beliebigen der Nachführarrays 20, 22 oder dem Bilddatenarray 18 rekonstruiert werden. Es ist logischer, das Bilddatenarray 18 zu verwenden, weil das Bilddatenarray 18 für Bildqualität optimiert ist. Das Bilddatenarray wird dann bezüglich des Zielgewebes translatorisch bewegt, wobei seine Azimuthalachse parallel zur Bewegungslinie orientiert ist. Eine Bildbewegungserfassung unter Verwendung der oben beschriebenen Techniken wird an den Bilddaten von dem Bilddatenarray 18 durchgeführt. Aufeinander folgende Frames von Bilddaten von dem Array 18 werden gespeichert, und zwar gemeinsam mit Verlagerungsinformation, welche die Bewegung zwischen Frames von Bilddaten definiert.
  • Sobald der Durchlauf von Bildframes beendet ist, wird die Verlagerungsinformation verwendet, und zwar beginnend mit dem am wenigsten zurückliegend aufgenommenen Bilddatenframe, um aufeinander folgende der Bilddatenframes bezüglich einander in geeigneter Ausrichtung zu registrieren, und zwar im Sinn des Gewebes. Die älteren Bilddaten werden dann den neueren Bilddaten überlagert. Typischerweise stimmen die meisten der älteren Bilddaten beinahe genau mit den neueren Daten überein, aber ein kleiner nicht überlappender Bereich ist vorhanden, der an der älteren Bildposition aufgenommene Daten wiedergibt, welche durch die neuere Bildposition nicht aufgenommen werden konnten. Vorzugsweise wird während des Schreibens der älteren Daten über die neueren Daten lediglich der nicht überlappende Bereich geschrieben. Dieser Ansatz eliminiert redundante Bildschreiboperationen. Diese Prozedur wird dann für immer weiter fortschreitend frühere Frames von Bilddaten wiederholt, bis alle Bilddaten des Durchlaufs zur Anzeige neu angeordnet sind.
  • Es existiert eine Möglichkeit, dass Versuche gemacht werden, über die Speichergrenzen hinaus zu schreiben. Wenn diese Situation erfasst wird, können die Bilddaten skaliert werden, um diese kleiner zu machen, so dass sie in den zur Verfügung stehenden Bildspeicher zu passen. Die Skalierung kann durch erneute Zuordnung der Pixel zu einem neuen Speicher unter Verwendung geometrischer Transformation und Interpolation erreicht werden, wie es im Gebiet der Computergrafik wohlbekannt ist.
  • Die folgenden Verfahren können entweder allein oder in verschiedenen Unterkombinationen verwendet werden, um die Bewegungserfassung zur erhöhen.
    • 1. Frequenzauswahl: In einem Beispiel wird jedes N'te Frame zur Bewegungserfassung verwendet. An jedem N'ten Frame wird eine unterschiedliche Frequenz verwendet, um die Aufnehmerelemente des Bilddatenarrays 18 anzuregen, um das Specklemuster in einer solchen Weise zu modifizieren, dass die Fähigkeit zur Bewegungserfassung erhöht wird. Da lediglich eine Relativbewegung erforderlich ist, kann es bevorzugt sein, eine höhere Frequenz zu verwenden, um höher aufgelöste Speckledaten an jedem N'ten Frame zu erhalten. Höhere Frequenzen sind mit verringerten Penetrationstiefen assoziiert, aber wie oben diskutiert wurde, muss dies kein Nachteil sein, da lediglich zur Bewegungserfassung lediglich oberflächlich liegende Zieldaten erforderlich sein können. Alternativ können höhere Frequenzen das Speckle sehr positionsempfindlich machen. Dies kann unerwünscht sein, weil es verursacht, dass der Bewegungserfassungsvorgang fehlschlägt aufgrund einer Unfähigkeit, Merkmale zu verfolgen, die sich in die Elevationsebene des Bildes hinein und aus dieser heraus bewegen. In diesem Fall kann es bevorzugt sein, eine niedrigere Frequenz für die Bewegungserfassungsframes zu verwenden.
    • 2. Bandbreiteneinstellung: Wie oben können ausgewählte der Bilddatenframes zur Bewegungserfassung optimiert werden, in diesem Fall durch Optimieren der Bandbreite ebenso wie die oder anstelle der Mittelfrequenz zur. Bewegungserfassung.
    • 3. Elevationsfokussierung: Wenn ein Array mit 1,5 Dimensionierung verwendet wird, kann eine Elevationsfokussierung während des Durchlaufs eingestellt werden, um einige Frames für die Bilddatensammlung oder andere Frames zur Bewegungserfassung zu optimieren. Um beispielsweise den Einfluss von Elevationsbewegung zu reduzieren, kann es bevorzugt sein, den Strahl in denjenigen Bilddatenframes, die zur Bewegungserfassung verwendet werden, geringfügig zu defokussieren.
    • 4. Azimuthalfokussierung: In ähnlicher Weise kann es bevorzugt sein, den akustischen Strahl leicht im Azimuth für ausgewählte Frames zu defokussieren, um die Bewegungserfassung zu stabilisieren ohne die Bewegungserfassung übermäßig zu verschlechtern.
  • Wenn beliebige der oben diskutierten vier Ansätze verwendet werden, brauchen die zur Bewegungserfassung optimierten Bilddatenframes nicht auf dem Schirm angezeigt zu werden. Stattdessen können lediglich die Bilddatenframes angezeigt werden, die zur Bilderzeugung optimiert sind.
  • Da während eines langsamen Durchlaufs redundante Daten vorhanden sind (mehrfache Datenpunkte für einzelne Positionen innerhalb des Gewebes) kann es bevorzugt sein, die Verwendung verschiedener Frequenzen, Bandbreiten und Fokussierverfahren zu mischen, um redundante Bewegungserfassungsdaten zu sammeln. Nachdem mehrfache redundante Daten gesammelt worden sind, können sie gemittelt werden, um zu einer Bewegungsabschätzung zu kommen, welche zuverlässiger ist und weniger anfällig gegenüber einem Fehler ist.
  • Beispielsweise dann, wenn das Array um zwei Millimeter pro Sekunde bewegt wird, wird die erforderlich minimale Bewegung, welche in nutzbarer Weise aufgelöst werden kann, 0,5 Millimeter beträgt, und die Framerate vierzig Frames pro Sekunde beträgt, existieren zehn Frames zwischen Zeiten, zu denen eine nutzbare Bewegungserfassung erhalten werden kann. Darüber hinaus ist lediglich ein Bilddatenframe für jedes dieser zehn Bewegungserfassungsframes erforderlich. Betrachtet man die ersten zwanzig Fra mes, können die Frames 1 und 11 Bilddaten sein, die unter Verwendung von durch den Nutzer bestimmten Mittelfrequenz- und Bandbreiten gesammelt werden. Die Frames 3 und 13 können Bewegungserfassungsframes mit einer ersten alternativen Mittelfrequenz und Bandbreite sein. Die Frames 5 und 15 können Bewegungserfassungsframes mit einer zweiten alternativen Mittelfrequenz und Bandbreite sein, und die Frames 7 und 17 können Bewegungserfassungsframes mit der ersten alternativen Mittelfrequenz und der zweiten alternativen Bandbreite sein. Die Frames 9 und 19 können Bewegungserfassungsframes unter Verwendung eines geänderten Fokussierschemas sein. Die Frames 2, 4, 6, 8, 10, 12, 14, 16, 18 und 20 werden aufgenommen, als ob sie Bildrahmen währen und werden angezeigt, aber nicht gespeichert oder zur Nachführung verwendet. Die erfasste Bewegung von den Frames 1, 3, 5, 7 und 9 bezüglich der Frames 11, 13, 15, 17 und 19, kann dann jeweils gemittelt oder sortiert werden, um die Bewegungsabschätzungen zu eliminieren, welche sich signifikant von anderen Abschätzungen unterscheiden.
  • Alle der Techniken, die oben in Verbindung mit dem erweiterten Gesichtsfeld genannt wurden, können zur Verwendung mit Bewegungserfassung in Winkeldurchläufen wie oben beschrieben verwendet werden.
  • In dem Fall einer komplexen Bewegung, welche sowohl eine Bewegung in den Ebenen der Nachführarrays als auch eine Bewegung in der Ebene des Bilddatenarrays enthalten, kann die tatsächliche Bewegung ungefähr aus der Summe der Nachführarraybewegungen und der Bilddatenarraybewegungen, die jeweils separat gemessen werden, berechnet werden. Wenn nach Erhalten der Summe solcher Bewegungen herausgefunden wird, dass die zweite auszuführende Bewegung verursacht hat, dass die erste Bewegung modifiziert worden ist, kann eine rekursive Operation angewendet werden, bis eine dreidimensionale Bewegung gefunden wird, welche die erfassten Bewegungen in allen Arrays korrekt erfüllt. Ein Monte-Carlo-Verfahren zum Herausfinden der Komponenten, welche eine komplexe Bewegung erfüllen, kann verwendet werden. Weiterhin können neue Bewegungen aus der letzten Frame-zu-Frame-Bewegung, die berechnet wurde, abgeschätzt werden. Als letzter Punkt, kann das System herausfinden, dass es nicht in der Lage ist, einen Satz von Bewegungskomponentenvektoren zu bestimmen, welche die erfassten Bewegungen erfüllen und kann ein Signal an die Bedienungsperson ausgeben, den letzten Durchlauf zu wiederholen. Je einfacher, glatter und reiner die Bildbewegung in jeder gegebenen Bildebene ist, desto einfacher ist es; die Bewegungserfassung zu implementieren.
  • Alternative Ausführungsformen
  • Eine einfache Einrichtung zur Implementierung der oben diskutierten bi-planaren Bilderzeugungstechniken kann wie folgt konstruiert sein. Diese Einrichtung verwendet ebenfalls ein lineares Array für die Bilddatenaufnahme und zwei kleinere lineare Arrays mit gleichem Teilungsabstand, die derart angebracht sind, dass sie sich mit dem größeren linearen Array bewegen. Die beiden kleinen linearen Nachführungsarrays sind mit einem Verbinder gekoppelt, der ähnlich zu demjenigen ist, der bei dem Bilddatenarray verwendet wird, aber die Aufnehmerelemente sind derart unterteilt, dass die Aufnehmerelemente für jedes Nachführarray mit dem Aufnehmerverbinder in der Nähe der gegenüberliegenden Enden des Verbinders gekoppelt sind. Beispielsweise können für einen Verbinder mit 128 Leitern und ein Nachführarray mit 10 Elementen die Leiter 1019 und 100109 als die beiden Nachführarrays verwendet werden. Sowohl das Bilddatenarray als auch das kombinierte Nachführarray sind mit einem Verbinder desselben Typs versehen und zur Zusammenwirkung mit demselben Strahlformer entworfen. Die beiden Verbinder sind in dem linken und rechten Anschluss einer geeigneten Ultraschallbilderzeugungsmaschine eingeführt, etwa den Acuson Model XP, und eine Bildspeichereinrichtung, etwa ein VCR ist vorgesehen. Wenn das Array langsam gedreht wird, drückt die Bedienungsperson den Arrayauswahlschalter (links gegenüber rechts) wiederholt mit einer hohen Rate und die sich ergebenden Bilder werden zur Offline-Analyse gespeichert. Nachfolgende Sätze von Frames, von denen jeder aus einem Frame aus der Bilddatenebene und jeder Nachführbildebene besteht, werden über Standardvideoübertragungstechniken in einen Computerspeicher übertragen. Der Computer ist derart programmiert, dass er die Nachführbildebenendaten zur Bewegungserfassung unter Verwendung der oben diskutierten Verfahren analysiert. Das Nachführbild wird in der Tat als zwei Bilder erscheinen, nämlich eines auf jeder Seite entsprechend den beiden räumlich getrennten Nachführarrays. Die beiden Bilder werden separat analysiert.
  • Als eine bevorzugte Modifikation für das unmittelbar vorangehend beschriebenen vereinfachten System ist die Ultraschallbilderzeugungsmaschine vorzugsweise derart programmiert, dass sie die Arrayschaltoperation durchführt und einen Satz von Frames für jeden aufeinander folgenden Durchlauf an den Computerspeicher oder eine geeignete Speichereinrichtung überträgt.
  • Alternative Aufnehmer
  • Verschiedene Variationen sind zu den oben beschriebenen bevorzugten Aufnehmern möglich. Beispielsweise können gekreuzte Arrays des in dem Hashimoto U.S. Patent 5,327,895 und von Schaulov, et al., Ultrasonics Symposium, Seiten 635–638 (IEEE, 1988) beschriebenen Typs zur Verwendung mit dieser Erfindung ausgebildet sein. Solche gekreuzten Arrays umfassen typischerweise eine PZT Platte, welche in rechtwinkligen Richtungen in Chips aufgeteilt ist. Die Kerben sind mit einem Niedrig-Durometer-Polymer, etwa einem Niedrig-Durometer-Epoxydharz gefüllt. Lineare Elektroden (welche die Arrayelemente definieren) sind auf die obere Fläche und die unter Fläche aufgetragen und die Elektroden auf der oberen Fläche sind rechtwinklig zu den Elektroden auf der unteren Fläche orientiert. Wenn das Array in einer Richtung verwendet wird, sind alle Elektroden auf der oberen Fläche geerdet und die Elektroden auf der unteren Fläche mit den phasengesteuerten Anregungspulsen angeregt. Die Elektroden auf der unteren Fläche werden dann nach erfassten Echos überwacht. Wenn das Array in der anderen Richtung verwendet wird, sind die Elektroden der unteren Fläche geerdet und die Elektroden der oberen Fläche werden in einer phasengesteuerten Weise betrieben.
  • 2326 zeigen schematische Ansichten von vier gekreuzten Arrays, die zur Sammlung sowohl von Bilddaten als auch von Nachführinformation verwendet werden können. In dem Aufnehmer 100 von 23 bilden die Elemente 102 ein herkömmliches eindimensionales Array, das zur Sammlung von Bilddaten verwendet werden kann. Gekreuzte Elemente 104 an beiden Enden des Aufnehmers 100 können wie oben beschrieben, als Nachführarrays verwendet werden. Der Aufnehmer 100' ist ähnlich zu den Aufnehmern 100, außer dass die gekreuzten Elemente 104' lediglich an einem Ende vorgesehen sind.
  • Das gekreuzte Array 100' von 25 ist ebenfalls ähnlich dem Array 100 von 23, außer dass die gekreuzten Elemente 104'' lediglich in der Mitte des Aufnehmers vorgesehen sind. 26 zeigt einen Aufnehmer 100''', der dem Aufnehmer 100'' von 25 ähnlich ist, außer dass die gekreuzten Elemente 104''' über die gesamte Länge des Arrays verlaufen.
  • Wie in 2326 gezeigt ist, können ein oder mehrere Nachführarrays mit einem Bilddatenarray unter Verwendung der Technik gekreuzter Arrays integriert sein. Das gekreuzte Array wird in der normalen Weise entlang der langen Azimuthalachse betrieben, um 2-D Bilddaten zu erhalten. Die gekreuzten Arrays werden betrieben, um Daten entlang der Elevationsrichtung zu erhalten, um die orthogonalen Nachführdaten zu erhalten. Auf diese Weise wird der Empfangsbereich des Aufnehmers minimiert. Falls gewünscht, können die Nachführdaten aus demselben Volumen von Gewebe aufgenommen werden, wie dasjenige, welches zum Erhalten der Bilddaten abgefragt wird.
  • 27 stellt eine schematische Ansicht eines anderen Aufnehmers 110 dar, der ein Bilddatenarray 112 und ein einzelnes Nachführarray 114 auf weist. In diesem Fall ist das Nachführarray 114 rechtwinklig zu dem Bilddatenarray 112 orientiert. Wie in 27 gezeigt ist, ist das Nachführarray 114 lateral von dem Bilddatenarray 112 versetzt und bezüglich diesem zentriert.
  • 27a bis 27e zeigen fünf alternative Aufnehmer, von denen jeder ein einzelnes Bilddatenarray 112 und wenigstens ein Nachführarray 114 umfasst. In dem Aufnehmer von 27a befinden sich zwei Nachführarrays 114, die beide lateral von dem Bilddatenarray 112 versetzt und bezüglich diesem zentriert sind. In dem Aufnehmer von 27b befindet sich ein einzelnes Nachführarray 114, welches mit dem Bilddatenarray 112 co-linear und von diesem axial mit Abstand angeordnet ist.
  • Der Aufnehmer von 27c umfasst zwei Nachführarrays 114, die beide auf derselben Seite des Bilddatenarrays 112 in der Nähe von entgegengesetzten Enden des Bilddatenarrays 112 angeordnet ist. Der Aufnehmer von 27d ist demjenigen von 27c ähnlich, außer dass die beiden Nachführarrays 114 auf entgegengesetzten Seiten des Bilddatenarrays 112 angeordnet sind. Der Aufnehmer von 27e umfasst vier Nachführarrays 114, wobei zwei auf jeder Seite des Bilddatenarrays 112 in der Nähe von jeweiligen Enden des Bilddatenarrays 112 angeordnet sind.
  • Aufnehmergeometrien, bei denen die Nachführarrays entlang des Bilddatenarrays angeordnet sind, können die Gesamtlänge des Aufnehmers verringern, was Vorteile in einigen Anwendungen bringen kann.
  • Wie in 28 und 29 gezeigt ist, kann ein Aufnehmer 120, 120', der zur Verwendung beim Bilden eines erweiterten Gesichtsfelds, wie oben beschrieben, geeignet ist, ein Bilddatenarray 122 und ein Nachführarray 124 verwenden, wobei die Aufnehmerelemente der beiden Arrays 122, 124 parallel zueinander sind. In dem Aufnehmer 120 ist das Nachführarray 124 lateral versetzt von dem Bilddatenarray 122 und bezüglich diesem zentriert angeordnet. Wie in 29 gezeigt ist, sind in dem Aufnehmer 120' das Bilddatenarray 122' und das Nachführarray 124' kollinear und voneinander ge trennt angeordnet. Mit jedem der Aufnehmer 120, 120' kann eine Frame-zu-Frame-Bewegung unter Verwendung der Nachführarrays 124, 124' bestimmt werden und das Verbindungsbild kann von Bilddaten von dem Bilddatenarray 122, 122' zusammengesetzt werden.
  • In jeder der vorangehenden Ausführungsformen können einige oder alle der Nachführarrays und der Bilddatenarrays als nicht planare lineare Arrays, etwa beispielsweise als gekrümmte Lineararrays ausgebildet sein. Separate, orientierte lineare Arrays können für jede Akustiklinie verwendet werden, falls gewünscht.
  • Alternative Optimierungstechniken für Nachführdaten
  • 30 ist ein Blockdiagramm eines alternativen Ultraschallbilderzeugungssystems 10', das in vieler Hinsicht ähnlich zu dem System 10 in 1 ist. In beiden Zeichnungen werden dieselben Bezugszeichen für vergleichbare Elemente verwendet und die folgende Diskussion wird sich auf die Unterschiede konzentrieren. Das System 10' speichert Bilddaten von dem Bilddatenarray 18 oder einem der Nachführarrays 20, 22 in einem Rohbilddatenpuffer 15. Die in dem Puffer 15 gespeicherten Daten können beispielsweise I, Q-Daten oder IF-Daten sein. Selbstverständlich soll der Ausdruck "Bildinformation" in breitem Sinne Information betreffen, die sich mit räumlichen Variationen in dem Ziel verändert, und in vielen Fällen wird Bildinformation niemals als ein Bild angezeigt. Vorzugsweise umfassen die in dem Puffer 15 gespeicherten Rohbilddaten Nachführdaten, die mit dem Breitbandultraschallpulsbetrieb gespeichert werden. Bilddaten von dem Puffer 15 werden zu einem Detektor 21 durch einen von vier alternativen Blocks geführt. Block 17 ist ein Alpassblock, der keine Filterung durchführt, und der typischerweise für Bilddaten von dem Bilddatenarray 18 verwendet wird. Nachführdaten von einem der Nachführarrays 20, 22 können durch einen der eines der drei Filter 19, 19', 19'' geführt werden, welche verschiedene Filtercharakteristiken aufweisen können. Beispielsweise kann das Filter 19 ein Tiefpassfilter sein und das Filter 19' kann ein Hochpassfilter sein. Das Filter 19'' kann ein Bandpassfilter sein, welches an jedem beliebigen gewünschten Abschnitt des Frequenzspektrum zentriert sein kann.
  • Der Detektor 21 kann jeder beliebige herkömmliche Detektor sein und führt ein erfasstes Ausgabesignal dem Abtastumwandler 24 zu. Falls gewünscht, können Nachführdaten von den Nachführarrays 20, 22 mehrere Male verarbeitet werden, und zwar unter Verwendung verschiedener der Filter 19, 19', 19''. Selbstverständlich können mehr oder weniger Filter in alternativen Ausführungsformen verwendet werden.
  • Der Abtastumwandler 24 verwendet vorzugsweise das wohlbekannte Histogrammequalisierungsverfahren, um den Kontrast in den Nachführbilddaten zu maximieren. Histogrammequalisierung wird beispielsweise in Gonzales und Woods, Digital Image Processing, Addison-Wesley, 1993, Seiten 173–178 diskutiert, sowie in dem Kim U.S. Patent 5,492,125. Der Abtastumwandler 24 kann ein 2D-Tiefpassfilter und/oder ein 2D-Hochpassfilter verwenden, um die Nachführbilddaten zu glätten oder in anderer Weise zu verarbeiten.
  • Bildframes von dem Abtastwandler 24 werden in den Framepuffern 30, 32, 34 gespeichert und Nachführsätze von Bilddaten von den Puffern 32, 34 werden selektiv auf den Bewegungsabschätzer 38 angewandt. Der Bewegungsabschätzer 38 schätzt die Relativbewegung zwischen den ausgewählten Nachführbildsätzen ab und wendet diese Bewegungsabschätzungen auf einen Bewegungsglättungs-/Summierblock 40' an.
  • Der Bewegungsglättungs-/Summierblock 40' verarbeitet Bewegungsabschätzungen von mehrfachen Bewegungserfassungsoperationen. Vorzugsweise ist jede Bewegungserfassungsabschätzung einem Qualitätsfaktor zugeordnet, welcher das der Bewegungsabschätzung zugeordnete Vertrauensniveau anzeigt. Beispielsweise kann ein geeigneter Qualitätsfaktor ein Wert der minimalen Summe von absoluten Differenzen sein, die einer besonderen Bewegungsabschätzung zugeordnet sind. Der Block 40' berech net mehrfache Bewegungsabschätzungen unter Verwendung einer gewichteten Summe. Beispielsweise sei die Situation betrachtet, in der drei Bewegungsabschätzungen zur Verfügung stehen, wobei die folgenden Werte und Qualitätsfaktoren Q zugeordnet sind:
    Abschätzung 1: 5 Pixel nach rechts Q = 0,9
    Abschätzung 2: 3 Pixel nach rechts Q = 0,8
    Abschätzung 3: 2 Pixel nach links Q = 0,2
  • In diesem Beispiel ist ein hoher Wert von Q einem hohen Vertrauensniveau zugeordnet. Der Block 40' kann eine gewichtete Summe dieser Bewegungsabschätzungen wie folgt bilden:
    Figure 00420001
  • Die vorangehende Bewegungsspeicherung 41 3 wird zur Speicherung vorangehender Bewegungsabschätzungen verwendet, bis diese beim Bilden der oben beschriebenen gewichteten Summe benötigt werden. Andere Verfahren zur Verwendung mehrfacher Bewegungsabschätzungen werden im Folgenden beschrieben.
  • Andere Techniken, die zur Verbesserung der Qualität der Bewegungsabschätzung verwendet werden können, umfassen die Verwendung von mehrfachen Übertragungszonen, zur Übertragung der Nachführbilddaten bester Qualität und die Verwendung eines frequenzabhängigen Fokusses, wie in Hossack U.S. Patent 5,608,690 beschrieben, welches dem Anmelder der vorliegenden Erfindung zugeordnet ist, um die Nachführbilddaten bester Qualität aufzunehmen.
  • Wie oben ausgeführt wurde, kann die Aufnahme von Bilddaten über das Ar ray 18 im Zeit-Multiplexverfahren mit der Aufnahme von Nachführdaten über die Nachführarrays 20, 22 durchgeführt werden. In einer alternativen Ausführungsform wird die zeitliche Trennung zwischen aufeinander folgenden Nachführdatenframes adaptiv gesteuert/geregelt, um Bewegungsabschätzungen bereitzustellen, die innerhalb eines gewünschten Bereichs fallen. Wie hierin erläutert, existiert dann, wenn die Bewegungsabschätzung (d. h. die Verlagerung) zwischen aufeinander folgenden Nachführframes übermäßig ist, eine Gefahr, dass die Verlagerung die Messungsfähigkeiten des Bewegungsabschätzers 38 überschreiten kann. Umgekehrt kann dann, wenn die Bewegungsabschätzung zwischen aufeinander folgenden Nachführframes zu gering ist, eine übermäßige Rechenzeit beim Erzeugen von Bewegungsabschätzungen verbraucht werden. Wenn die Bewegungsabschätzungen klein sind, sind weiterhin die relativen Fehler groß und Verbindungsfehler können unerwünschte Ausmaße erreichen. Um diese Probleme zu vermeiden, kann eine Steuer-/Regeleinheit wie oben beschrieben, vorgesehen sein, um die Anzahl von Bilddatenframes zu bestimmen, die zwischen aufeinander folgenden Nachführrahmen gesammelt werden und dies kann in einer adaptiven Weise erreicht werden, wie in 31 gezeigt ist.
  • In 31 wird die Variable N zur Angabe der Anzahl von Bilddatenframes verwendet, welche zwischen aufeinander folgenden Nachführrahmen gesammelt werden. Wie in 31 gezeigt ist, ist N anfänglich auf eine Konstante K1 gesetzt, und dann wartet die Steuer-/Regeleinheit auf eine neue Bewegungsabschätzung von dem Bewegungsabschätzer 38 von 3. Wenn diese Bewegungsabschätzung oberhalb eines gewünschten Bereichs liegt, wird N um den Betrag Δ verringert. Wenn umgekehrt die Bewegungsabschätzung unterhalb des gewünschten Bereichs liegt, wird N um Δ erhöht. Sobald N falls nötig korrigiert worden ist, wartet die Steuer-/Regeleinheit auf eine neue Bewegungsabschätzung von dem Bewegungsabschätzer 38. Auf diese Weise wird die Bewegungsabschätzung automatisch innerhalb eines gewünschten Bereichs gehalten und mit übermäßig großen Bewegungsabschätzungen und übermäßig kleinen Bewegungsabschätzungen verbundene Probleme werden vermieden.
  • Bildübertragungsoptimierungstechniken
  • Das System 10' von 30 ist zur Verwendung in Situationen gut geeignet, in denen ein entfernter Computer zur Durchführung der Bewegungsabschätzung, entweder in Echtzeit oder nach einer Verzögerung, verwendet wird. In diesem Zusammenhang kann entfernt bedeuten, dass der Bewegungsabschätzungscomputer über ein Kabel oder eine andere Datenverbindung verbunden ist. Wie in 30 gezeigt ist, können Bilddatenframes von dem Puffer 30 unter Verwendung jeder beliebigen geeigneten Komprimierungstechnik, etwa JPEG, vor der Übertragung an die möglicherweise entfernte Stelle komprimiert werden. Nachdem die Bilddaten an der möglicherweise entfernten Stelle empfangen worden sind, werden sie dekomprimiert, wie in Block 35 gezeigt ist. Ähnliche Komprimierungs- und Dekomprimierungsblöcke können zwischen den Puffern 32, 34 und dem Bewegungsabschätzer 38 eingefügt sein. Beispielsweise kann die entfernte Bewegungsabschätzung und 3D-Volumenrekonstruktion an einer entfernten Workstation, etwa der AEGIS Workstation von Acuson Corporation, der Anmelderin der vorliegenden Erfindung, durchgeführt werden.
  • Alternative Bewegungsabschätzungstechniken
  • Für den Fall, dass die Bewegung zwischen aufeinander folgenden Nachführframes klein ist (kleiner als ein Pixel), existiert eine Gefahr, dass Bewegung falsch eingeschätzt werden kann, wenn jedes Nachführframe mit dem unmittelbar vorangehenden Nachführframe verglichen wird. Wenn beispielsweise die Trennung zwischen benachbarten Nachführframes 1/3 eines Pixels betragen würde, würde der Vergleich jedes Nachführframes mit dem unmittelbar vorangehenden Nachführframe keine Bewegung erfassen. Um dieses Problem zu überwinden, wird der Bewegungsabschätzer 32 von 30 vorzugsweise unter Verwendung des Algorithmus von 32 gesteuert/geregelt. In diesem Algorithmus definiert N die Framenummer des Bildbereichs, der als Referenz bei der Bewegungsabschätzung verwendet wird, und das Symbol N+i wird verwendet, um die Framenummer des Bildbereichs zu bezeichnen, der mit dem Referenzbildbereich verglichen werden soll. Wie in 32 gezeigt ist, ist der erste Schritt, i=1 zu setzen und dann zu bestimmen, ob eine Bewegung zwischen dem Bildbereich N und dem Bildbereich N+i erfasst worden ist. Falls nicht, wird i erhöht und die Steuerung/Regelung kehrt zu Block 130 zurück. Sobald in Block 130 eine Bewegung erfasst worden ist, wird das Referenzbildframe aktualisiert um gleich N+i zu sein, i wird auf 1 zurückgesetzt und die Steuerung/Regelung kehrt zurück zu Block 130.
  • Als Beispiel soll eine Sequenz von Nachführframes 1, 2, 3 und 4 betrachtet werden. Unter der Annahme, dass keine Bewegung zwischen den Frames 1 und 2 erfasst wird, wird Frame 3 mit Frame 1 verglichen. Unter der Annahme, dass keine Bewegung zwischen Frame 3 und Frame 1 erfasst wird, wird Frame 4 ebenfalls mit Frame 1 verglichen. Dieser Prozess wird wiederholt, bis eine Bewegung erfasst wird, und erst dann wird das Referenzframe auf das neue Frame aktualisiert, bei dem Bewegung erfasst worden ist. Auf diese Weise bleiben mehrfache Subpixelbewegungen nicht unerfasst, weil Subpixelbewegungen sich schließlich zu dem Punkt aufsummieren, bei dem sie erfassbar werden.
  • Die Auswahl des Referenzbildbereichs entspricht nicht notwendigerweise einem gesamten Frame. Wenn die Framebewegung an der Oberseite Null ist und am Boden des Frames von Null verschieden ist (wie es bei einem fächerartigen Durchlauf der Fall sein kann), wird der ältere Frameabschnitt vorzugsweise als Referenz für die Bewegungserfassung an der Oberseite des Frames beibehalten, während der Boden des Frames aktualisiert wird, sobald Bewegung in diesem Bereich erfasst wird.
  • Da die Nachführarrays 20, 22 grundsätzlich entlang der Oberfläche durchgefahren werden, wird die Mehrzahl von Bewegungen in der Elevationsrichtung stattfinden, anstatt in der Tiefenrichtung. Während der Suche nach der Minimalsumme von absoluten Differenzen (MSAD) ist es bevorzugt, den Suchbereich rechteckig zu gestalten, anstatt quadratisch. Beispielsweise kann an Stelle des Durchsuchens eines Bereichs von 64×64 Pixeln ein Bereich von 128×32 Pixeln in derselben Zeit durchsucht werden (128 laterale Suchpixel und 32 Tiefensuchpixel). In ähnlicher Weise wird dann, wenn die Maximalbewegung 64 Pixel beträgt, durch Begrenzen des Bereichs der Suche auf 32×64 Pixel die Suchzeit stark verringert.
  • Zusätzlich kann die Framebewegung interpoliert werden, um die Verarbeitungszeit weiter zu reduzieren. Wenn beispielsweise Nachführframes 1, 3 und 5 zur Bewegungserfassung verwendet werden (anstatt 1, 2, 3, 4 und 5), kann die erfasste Bewegung zwischen den Frames 1 und 3 interpoliert werden, um die Bewegung für Frame 2 zu bestimmen. In diesem Fall würde die interpolierte Bewegung für Frame 2 eine Hälfte der erfassten Bewegung zwischen Frame 1 und 3 sein. Dieses Verfahren ermöglicht es, dass eine verringerte Verarbeitungszeit zur Bewegungserfassung verbraucht wird, aber ermöglicht es, dass alle aufgenommen Bilddaten in dem 3-D Bild der höchsten Qualität verwendet werden. Eine Interpolation dieses Typs kann in dem 3D-Volumentranslations-/Interpolationsblock 36 von 30 durchgeführt werden.
  • Verschiedene alternative Ansätze können in dem Bewegungsabschätzer 38 verwendet werden, um die Verarbeitungszeit ferner zu reduzieren. Wenn beispielsweise ein kleiner Satz von Akustiklinien übertragen, empfangen und als eindimensionale RF- oder Basisbandsignale gespeichert werden, können Vektorkomponenten der Bewegung entlang dieser Linien durch Korrelation von aufeinander folgenden Abtastsequenzen entlang der Linien abgeschätzt werden. Auf diese Weise kann die Vektorkomponente der Bewegung in jeder der Linienrichtungen bestimmt werden und diese Vektorkomponenten der Bewegung können aufsummiert werden, um die endgültige zweidimensionale Bewegungsabschätzung zu erzeugen. Falls gewünscht, können mehr als zwei Akustiklinien in dem Satz verwendet werden, aber das folgende Beispiel verwendet zwei rechtwinklige Akustiklinien.
  • Wie in 33 gezeigt ist, kann beispielsweise das Nachführarray 20 zur Speicherung von zwei akustischen Empfangslinien 140, 142, welche rechtwinklig zueinander verlaufen, verwendet werden. Diese Linien können als ein einzelnes Frame von Nachführdaten bildend betrachtet werden. Die Linie 140 kann zwischen zwei separaten Frames von Nachführdaten kreuzkorreliert sein, um die Vektorkomponente der Bewegung entlang der Richtung des Pfeils 144 zu finden, und ähnlich können die Linien 142 in diesen beiden Frames von Nachführdaten verwendet werden, um die Vektorkomponente der Bewegung in der Richtung des Pfeils 146 zu bestimmen. Diese beiden Komponenten der Bewegung können als Vektoren aufsummiert werden um die zweidimensionale Bewegung zwischen den beiden Frames von Nachführdaten abzuschätzen. Kreuzkorrelationstechniken, die zur Anwendung in der gegenwärtigen Aufgabe geeignet sind, sind in Engeler U.S.Patent-Nr. 4,937,775, O'Donnell U.S. Patent-Nr. 4,989,143 und Wright et al. U.S. Patent Nr. 5,570,691 beschrieben. Das Wright et al. Patent ist dem Anmelder der vorliegenden Erfindung zugeordnet.
  • Vorzugsweise wird ein Register verwendet, um die komplexen abgetasteten Strahldaten von einem Auslösen in einer der beiden Richtungen zu speichern. Wenn eine Zeiteinheit später derselbe Strahl erneut gebildet wird, sind die erzeugten abgetasteten Strahldaten mit den Daten im Register kreuzkorreliert. Aus der Position des Kreuzkorrelationspeaks wird die relative Zeitverzögerung zwischen den beiden Signalen bestimmt. Der Kreuzkorrelationsprozess kann auf einem oder mehreren Abschnitten der zur Verfügung stehenden Liniendaten arbeiten. Durch Erfassen einer Bewegung über Kreuzkorrelation an einer Anzahl von Punkten entlang jeder Linie können separate Bewegungen auf der Oberseite und der Unterseite des Bildes bestimmt werden, und folglich können sowohl Drehungen als auch Translationen abgeschätzt werden. Aus der durch den Kreuzkorrelationspeak bestimmten Verzögerungszeit wird die Komponente der Aufnehmerbewegung (parallel zur Strahlachse), die erforderlich ist um die gemessene Zeitverzögerung zu verursachen, aus der bekannten Schallgeschwindigkeit im Gewebe und unter Berücksichtigung der Tatsache, dass die Verzögerung eine Weglänge in zwei Richtungen betrifft, abgeleitet. Dieser Prozess wird für die andere Linie (vorzugsweise rechtwinklig zur ersten Linie orientiert) wiederholt, um die andere Vektorkomponente der Bewegung zu finden. Diese beiden Vektorkomponenten werden dann summiert, um die abgeschätzte tatsächliche Aufnehmerbewegung an diesem Punkt entlang des Arrays zu finden. In ähnlicher Weise wird der Prozess typischerweise bei der zweiten Seite des Arrays für das zweite Nachführarray wiederholt.
  • In einer Ausführungsform sind die beiden Linien (und daher die beiden Strahlen) in ±45 Grad orientiert und es existiert daher eine strikte Anforderung an den Elementabstand, wenn Gitterkeulen vermieden werden sollen. In einer anderen Ausführungsform sind die beiden Linien in ±60 Grad orientiert, um die Genauigkeit der Bewegungserfassung entlang der Haut eines Patienten zu erhöhen. Vorzugsweise sollten die Aufnehmerelemente einem Abstand einer halben Wellenlänge oder weniger angeordnet sein. Diese Anforderung kann die Verwendung einer niedrigeren Frequenz für die Nachführarrays als für das Bilddatenarray befördern. Jedoch ist es möglich, dass die Kreuzkorrelationstechnik in der Lage ist, eine Verzögerung bis einem kleinen Anteil einer Wellenlänge zu verfolgen. Wie oben ist es nicht erforderlich, den Vergleich zwischen dem einen Satz von Nachführdaten und dem nächsten Satz von Nachführdaten an jedem aufgenommenen Satz von Nachführdaten durchzuführen, sondern stattdessen an einem zeitlich beabstandeten Untersatz. Wenn beispielsweise die Bewegung schnell ist, können Bewegungsabschätzungen zwischen jedem aufeinander folgenden Paar von Sätzen von Nachführdaten gemacht werden, aber wenn die Bewegung langsam ist, ist eine längere Zeit zwischen Bewegungsabschätzungen möglich.
  • Suchtechniken für Erfassung schneller Bewegung
  • Eine Vielzahl von Verfahren stehen zur Verfügung, um die Suche nach abgeschätzten Bewegungen zu beschleunigen. Diese Verfahren können mit jeder beliebigen der oben beschriebenen Ausführungsformen verwendet werden.
    • 1. Entweder die Systemsteuer/regeleinheit oder eine Benutzereingabe kann die zu durchsuchende Blockgröße variieren. Große Blockgrößen erfordern mehr Berechnung, aber für bestimmte Bildtypen (z. B. Daten mit Rauschen) ergeben größere Blocks ein qualitativ besseres Ergebnis (d. h. minimales SAD gegenüber mittlerem SAD).
    • 2. Das System verändert adaptiv den Suchbereich auf Grundlage der vorangehenden Bewegungsabschätzung. Wenn die letzte Bewegung 10 Pixel nach rechts war, kann die Suche über einen Bereich von 0 Pixel nach rechts bis 20 Pixel nach rechts durchgeführt werden, das heißt, der Suchbereich wird um die erwartete Bewegung zentriert, wie sie durch die vorangehende Bewegungsmessung angezeigt wird.
    • 3. Wenn die erfassten Bewegungen wenig Variation aufweisen (z.B. 7, 8, 10, 9 Pixel nach rechts in aufeinander folgenden Bewegungsmessungen, im Gegensatz zu 5, 15, 8, 12 Pixeln), kann das System einen kleineren Suchbereich verwenden, da es einen relativ hohen Vertrauensgrad ergibt, dass die Bewegung zwischen 7 und 10 liegt. Wenn aufeinander folgende Bewegungsabschätzungen stark variieren, dann verwendet das System im Gegensatz hierzu vorzugsweise einen größeren Suchbereich, um eine Sicherheit einer erfolgreichen Suche (d.h. die Bewegung geht nicht über die Grenzen des Suchbereichs hinaus) zu maximieren. Wenn in dem obigen Beispiel Pixelbewegungen 7, 8, 10, 9 sind, wird ein 15×15 Suchbereich verwendet, aber wenn die Pixelbewegungen 5, 15, 8, 12 sind, wird ein 30×30 Suchbereich verwendet.
    • 4. Da die meiste Bewegung in der lateralen Richtung statt in der Abstandsrichtung erwartet wird (weil der Aufnehmer über die Hautoberfläche gezogen wird), kann der Suchbereich asymmetrisch sein, z. B. +/– 5 Pixel in der Abstandsrichtung und +/– 20 Pixel in der lateralen Richtung.
    • 5. Die Suche kann mit mehreren Niveaus von räumlicher Auflösung durchgeführt werden. Anfänglich wird die Suche in grober Weise lediglich entlang der lateralen Richtung durchgeführt, z. B. um jede zweite Pixelstelle zu testen. Sobald der geeignete laterale Versatz auf diese Weise erfasst worden ist, wird eine feine Suche (jede Pixelstelle) sowohl in der lateralen als auch in der Abstandsrichtung erfasst.
    • 6. Eine hierarchische Bewegungserfassung kann basierend auf Grundlage mehrfacher Niveaus der Signalpegelauflösung verwendet werden. Anfänglich werden lediglich die am meisten signifikanten 2 oder 4 Bits, die jedem Pixelintensitätspegel zugeordnet sind, zum Auffinden der Position mit der minimalen SAD verwendet. Sobald die Stelle ungefähr gefunden ist, wird ein zweiter Suchpegel in dieser Region unter Verwendung aller Pits, typischerweise 8, durchgeführt. Mehr als zwei Hierarchiepegel können verwendet werden.
  • Nachführtechniken mit höherer Auflösung
  • Das feinste Niveau der Bewegungserfassung kann erhöht werden, indem zusätzliche Pixel zwischen den zur Verfügung stehenden Pixeln interpoliert werden. Ein alternatives Verfahren, welches durch Li und Gonzales, IEEE Trans. on Circuits and Systems for Video Techn., 6, 1 Seite 118 (Feb., 1996) beschrieben wird, berechnet die Bewegungsabschätzung für Subpixelauflösung auf Grundlage der Werte der benachbarten SAD-Werte zu dem einen mit der minimalen SAD.
  • Techniken zum Kombinieren von Bewegungsabschätzungen
  • Die endgültige Abschätzung der Aufnehmerbewegung basiert vorzugsweise auf einer Zusammensetzung mehrerer Eingaben. Vorzugsweise werden die se Eingaben derart gewichtet, dass diejenigen, die scheinbar die größte Qualität (oder Sicherheit) haben, die größte Gewichtung zugeordnet wird. Eingaben, welche im Gegensatz zu der Mehrzahl von Eingaben stehen, werden entweder aus der Zusammensetzungsberechnung eliminiert oder mit sehr kleinen Gewichtungen versehen.
  • Zunächst wird das Verhältnis einer minimalen Summe absoluter Differenzen ("min SAD") zur mittleren Summe von absoluten Differenzen ("mittleres SAD") als ein Qualitätsfaktor verwendet. Ein niedriges Verhältnis zeigt ein Ergebnis mit hoher Qualität an, und ein Ergebnis in der Nähe von 1,0 zeigt eine unzuverlässige Abschätzung an. In der Praxis wird ein gutes Verhältnis selten geringer als 0,3 sein. Unter der Annahme, dass Verhältnisse im Bereich 0,3 bis 1,0 liegen, kann man dieses in eine Gewichtungsfunktion im Bereich von 0,0 bis 1,0 umwandeln, wobei 1,0 ein ideales (hohe Sicherheit) Ergebnis und 0,0 ein nicht brauchbares Ergebnis bedeutet. Gewichtetes_MSAD = 1 – (min_SAD/mittleres_SAD))/0,7.
  • Wenn das minimal beobachtbare SAD < 0,3 ist, kann diese Gleichung modifiziert werden: Gewichtetes_MSAD = (1 – (min_SAD/mittleres_SAD))/(1 – min_beobachtbares_SAD).
  • Ein zweiter Qualitätsfaktor basiert auf der Ähnlichkeit der vorliegenden Bewegungsabschätzung zur vorangehenden Abschätzung. Dieser Ansatz basiert auf der Beobachtung, dass in einer sanften Abtastung, die typisch für die in der Praxis verwendete ist, die tatsächliche Relativbewegung zwischen einem Satz von Nachführdaten und einem nachfolgenden Satz von Nachführdaten ähnlich ist. Wenn eine Bewegungsabschätzung eine Bewegungsumkehr vorhersagt, ist es wahrscheinlich, dass sie eine schlechte Abschätzung ist. Ursache für schlechte Abschätzungen können ein Bild mit starkem Rauschen, ein schwacher Pixelkontrast oder das Vorhandensein von großen Mengen von strömendem Blut sein. Man beachte, dass die vorangehende Bewegungsabschätzung, die als eine Referenz verwendet wird, entweder die Rohabschätzung der Bewegung der MSAD-Operation oder der vorangegangenen geglätteten und gewichteten Abschätzung ist. Vorzugsweise wird geglättete vorangehende Bewegungsabschätzung als die Referenz verwendet, mit der die am wenigsten zurückliegende Rohbewegungsabschätzung verglichen wird.
  • In dem gegenwärtigen Beispiel wird der Ähnlichkeitsgrad zwischen den beiden Abschätzungen der Bewegung wie folgt berechnet. Dieses Beispiel gilt für eine Bewegung in Y (Elevations)-Richtung, aber kann auf eine Bewegung in Z (Tiefen)-Richtung angewendet werden. Gewichts_seq ist der Gewichtungsfaktor, der auf Grundlage eines Vergleichs von aufeinander folgenden Abschätzungen erzeugt wird. Gewichtungs_seq = 1 – [abs(Ycurr-Ylast)/(abs(Ycurr) + abs(Ylast))]wobei
  • Ycurr
    = gegenwärtige Abschätzung der Y-Bewegung und
    Ylast
    = die letzte Abschätzung der Y-Bewegung, geglättet.
  • Für die anfängliche Bewegungsberechnung ist kein Maß einer Ähnlichkeit mit einer vorangehenden Abschätzung möglich, so dass der anfänglichen bewegungsbezogenen Gewichtung ein willkürlicher Wert, etwa 0,5, zugewiesen werden muss.
  • Ein Zusammensetzungs-Gewichtungsfaktor ("Gewichtungs_comp") wird dann gebildet. Abhängig von der Erfahrung mit dem Abtasten von echtem Gewebe kann man eine Auswahl treffen, um die Gewichtung entweder mehr auf die Seite der MSAD-Qualität oder der sequenziellen Qualität vorzuwählen. Gegenwärtig bezieht sich 0,75 der gesamten Gewichtung auf die MSAD-Qualität und 0,25 auf die sequenzielle Qualität. Gewichtungs_comp = 0,75 × Gewichtungs_MSAD + 0,25 × Gewichtungs_seq.
  • Diese Gewichtungen werden für alle Punkte berechnet, für die Bewegungs abschätzungen gemacht werden. In einem Beispiel wurden sechs Bewegungsabschätzungen in der Abstandsrichtung gemacht. Jede verwendet einen 48×48 Pixelblock.
  • Da für eine reale Bewegung die die Bewegung beschreibende Gleichung als eine Funktion der Tiefe einer geraden Linie folgen muss, kann man die erhaltende Bewegungsabschätzung an eine gerade Linie anpassen. Vorzugsweise werden Bewegungen unter Verwendung eines Verfahrens gewichteter kleinster Quadrate angepasst, wobei die Gewichtungen diejenigen sind, die oben für jeden der Abstandspunkte beschrieben wurden, für die eine Bewegungsabschätzung zur Verfügung steht. Dieser Prozess wird sowohl für die Bewegung in Y-Richtung als auch für die Bewegung in Z-Richtung wiederholt.
  • Schließlich erhält man nach Bestimmung der angepassten Bewegungen die in Ausdrücken eines Achsenabschnitts (c) und einer Steigung (m) definierte Linie: Y_Bewegung = mZ + c.
  • In ähnlicher Weise werden die Z-Bewegungen als eine Funktion der Z-Beobachtungspunkte berechnet:
    Z_Bewegung = mZ + c (unterschiedliches m und c).
  • Obwohl man typischerweise erwartet, dass Z Bewegung als eine Funktion von Z eine Konstante ist, ist dies im Fall einer Aufnehmerdrehung um die Azimuthalachse nicht der Fall.
  • Dieser angepasste Wert kann ferner geglättet werden auf Grundlage des Durchschnitts des Parameters Gewichtungs_comp. Daher erfolgt bei Vorhandensein einer Abschätzung mit sehr schlechter Qualität die gegenwärtige Abschätzung grundsätzlich basierend auf der vorangehenden Abschätzung (anstatt der gegenwärtigen Abschätzung): m_mod = fact·(Mittelwert(Gewichtungs_comp))·m + (1–fact·(Mittelwert(Gewichtungs_comp))· m_last c_mod = fact·(Mittelwert(Gewichtungs_comp))·c + (1–fact·(Mittelwert(Gewichtungs_comp))·c last
  • c
    die gegenwärtige Abschätzung des Achsenabschnitts
    c_last
    der Achsenabschnitt der Bewegungsabschätzung für das vorangehende Paar von Frames
    c_mod
    der modifizierte Achsenabschnitt
    m
    die gegenwärtige Abschätzung der Steigung
    m_last
    die Steigung der Bewegungsabschätzung von dem vorangehenden Paar von Frames
    m_mod
    die modifizierte Steigung
    fact
    ein Faktor zur Bestimmung, wieviel Signifikanz an der Gewichtung anzubringen ist (gegenwärtig fact = 1,0)
  • Alternativ kann das endgültige Gewichtungs_comp unter Verwendung von Fuzzylogik bestimmt werden. Ein Fuzzylogik-Steuer-/Regelblock nimmt als Eingaben die Größen Gewichtungs_MSAD und Gewichtungs_seq an und kombiniert dieselben, um eine Ausgabe zu bilden, welche Gewichtungs_comp ist. Den Eingaben Gewichtungs_MSAD und Gewichtungs_seq werden zunächst Klassen (separate Klassen für Gewichtungs_MSAD und Gewichtungs_seq) zugeordnet. Diese Klassen sind "niedrig", "mittel" und "hoch". Die Mitgliedschaft basiert darauf, ob die Eingabe innerhalb jedes von drei dreieckartigen Bereichen liegt, wie sie in 34 gezeigt sind. Die Ableitung von Positionen der Linien, welche definieren, in welche Klasse besondere gemessene Werte fallen, basiert auf Experimenten. Obwohl die gezeigten Bereiche der Zeichnung in ihrer Form dreieckförmig gezeigt sind, sollte beachtet werden, dass diese Bereiche derart geformt sein können, dass sie einer beliebigen stetigen Funktion folgen, für die experimentell bestimmt wird, dass gute Ergebnisse erzielt werden. Die horizontale Achse der Klassenfunktion entspricht dem Eingabewert (Gewichtungs_MSAD oder Gewichtungs_seq) und die vertikale Achse definiert den Grad der Mitgliedschaft der Klasse. In diesem Fall wird dasselbe Klassenmitgliedschaftsdiagramm sowohl für Gewichtungs_MSAD als auch für Gewichtungs_seq verwendet. Eine ähnliche Klasse von Mitgliedschaftsdiagrammen wird für die Fuzzyausgabe Gewichts_comp abgeleitet, wie in 35 gezeigt ist. In diesem Fall besitzt das Diagramm fünf Bereiche- sehr niedrig, niedrig, mittel, hoch und sehr hoch.
  • Die folgenden Fuzzyregeln können angewandt werden, um Gewichtungs_comp zu bestimmen; in diesen Regeln wird ein logisches UND zwischen Gewichtungs_MSAD und Gewichtungs_seq angenommen:
    Figure 00550001
  • Fuzzyregeln werden angewandt, um die Wahrheit der Regeln zu bestimmen. Beispielsweise sei angenommen, dass Gewichts MSAD und Gewichts_seq jeweils 0,35 und 0,9 betragen.
  • Die Eingabe 0,35 führt zu einem 0,5 Grad der Mitgliedschaft zur Klasse "niedrig" und 0,5 Grad der Mitgliedschaft zur Klasse "mittel". Die Eingabe 0,9 führt zu einem 1,0 Grad der Mitgliedschaft zur Klasse "hoch".
  • Daher sind die Regeln 3 und 6 wahr, stellen aber unterschiedliche Werte für die Ausgabe Gewichts_comp (jeweils "mittel" und "hoch") bereit. Die Ausgaben, die für diese Regeln möglich sind, sind in 36 gezeigt.
  • Zunächst Bezug nehmend zu Regel 3, ist der niedrige Wert von Gewichtungs_MSAD mit einem logischen UND mit dem hohen Wert von Gewichtungs_seq kombiniert und der Minimalwert dieser beiden Ausdrücke wird als das Wahrheitsniveau von Regel 3 genommen. Die 0,5 Grad, Mitgliedschaft zu "niedrig" für Gewichtungs_MSAD ist geringer als die 1,0 Grad Mitgliedschaft zu Klasse "hoch" für Gewichts_seq. Daher ist das Wahrheitsniveau der Regel 3 0,5.
  • Bezug nehmend auf Regel 6 ist der Mittelwert von Gewichts MSAD mit einem logischen UND mit dem hohen Wert von Gewichtung_seq kombiniert und der Minimalwert der beiden Ausdrücke wird als das Wahrheitsniveau von Regel 6 genommen. Die 0,5 Grad Mitgliedschaft für Gewichtungungs_MSAD zur Klasse "mittel" ist geringer als die 1,0 Grad Mitgliedschaft für Gewichtungs_seq zur Klasse "hoch". Folglich beträgt das Wahrheitsniveau der Regel 6 0,5.
  • Die "mittel" und "hoch"-Beschriftungen kennzeichnen für die Gewichtungs_comp Funktionsmitgliedschaft in 36 werden bei den durch die obigen Fuzzyregeln definierten Wahrheitsniveaus abgeschnitten. Dies ist in 37 gezeigt.
  • Eine nummerische Ausgabe für Gewichtungs_comp wird unter Verwendung einer Schwerpunkts-Defuzzifikationstechnik („centroid defuzzification technique") abgeleitet. Eine Abschätzung des Schwerpunkts des gesamten schraffierten Bereichs in 37 wird gemacht. In diesem Fall liegt der Schwerpunkt bei 0,625 und folglich wird der Ausgabe Gewichts_comp dieser Wert zugeordnet.
  • Nach Bestimmung von Gewichts_comp kann man das oben gezeigte Verfahren verwenden, um die Anpassung gemäß gewichteter kleinster Quadrate zu bestimmen und zu bestimmen, in welchem Ausmaß die gegenwärtige Bewegung auf der gegenwärtigen Bewegungsabschätzung oder der vorangehenden Bewegungsabschätzung basieren soll.
  • Es wird natürlich aus der vorangehenden Diskussion deutlich, dass die erfassten Bewegungen in der X-, Y- und/oder Z-Richtung lokale Bewegungen sind, d. h. Bewegungen bezüglich der gegenwärtigen Position und Orientierung des Aufnehmers und seiner Arrays. Anfänglich, beim Start der Abtastung, wird typischerweise angenommen, dass die lokalen X-, Y- und Z-Richtungen einem angenommenen globalen Achsensystem entsprechen, welches während der gesamten Bewegung des Aufnehmers hinweg konstant bleibt. Wenn der Aufnehmer um die azimuthale Achse der Bildebene gedreht wird, wie es während eines fächerartigen Durchlaufs sein kann, dreht sich die lokale Z-Bewegung (Tiefenrichtung des Aufnehmers) so lange, bis sie eine signifikante Komponente in der globalen Y- oder Elevationsrichtung aufweist. Mit jeder erfassten Bewegung des Aufnehmers werden die neue Position und Orientierung des Aufnehmers im globalen Achsensystem berechnet. Die Orientierungen der lokalen X-, Y- und Z-Richtungen (d. h. Azimuth, Elevation und Abstand oder Tiefe des Aufnehmers) bezüglich des globalen Achsensystems werden aktualisiert. Daher wird eine nachfolgende Analyse der Bewegung in der lokalen Z-Richtung des Aufnehmers beispielsweise in Komponenten in der globalen Z- und Y-Richtung zerlegt.
  • Als ein Beispiel sei die Situation betrachtet, bei der die Tiefe oder Z-Richtung des Aufnehmers von ihrer anfänglichen nach unten zeigenden Richtung in Übereinstimmung mit der globalen Z-Richtung gedreht wurde, bis sie um 45° bezüglich der globalen Z-Richtung abgewinkelt ist. Eine Bewegung in der lokalen Z-Richtung des Aufnehmers von 10 Pixeln wird nun in 10cos (45°) in der globalen Z-Richtung plus 10cos (45°) in der globalen Y-Richtung zerlegt. In diesem Beispiel ist die lokale Z-Richtung immer noch rechtwinklig bezüglich der globalen X-Richtung orientiert und folglich besitzt eine lokale Z-Bewegung keine Komponente in der globalen X-Richtung.
  • Beispielsweise kann die Beziehung der lokalen Achsenrichtungen bezüglich der globalen Achsenrichtungen unter Verwendung von Kosinus-Funktionen berechnet werden, welche kontinuierlich aktualisiert werden, wenn der Aufnehmer durch das Volumen bewegt wird. Vorzugsweise werden diese Richtungskosinusse kontinuierlich für alle drei Achsen beibehalten.
  • Hierin verwendet, soll der Begriff „Bewegungskomponente" in breitem Maße Translationskomponenten, Drehkomponenten und Kombinationen derselben umfassen.
  • Datenüberlappungstechniken
  • Wenn zwei Bereiche von Bilddaten kombiniert werden, um ein erweitertes Gesichtsfeld zu erhalten, wie oben beschrieben, wird vorzugsweise ein glattes Interpolationsschema an den Grenzen der Daten von unterschiedlichen Bilddatenframes verwendet. Wie in 38 gezeigt ist, können variable Gewichtungsfaktoren verwendet werden, um solche glatten Interpolationsschemata bereitzustellen. In 38 endet die rechte Kante des vorangehenden Frames mit Pixelzahl 3 und der neue Abschnitt des Frames beginnt mit Pixelzahl 4. Der Gewichtungsfaktor für das vorangehende Frame 1 variiert von 1 innerhalb des alten Frames bei Pixel 0 und 1 sanft zurück nach 0 innerhalb des neuen Abschnitts des Frames bei Pixel 5, 6 und 7. Umgekehrt variiert der Gewichtungsfaktor für das nachfolgende Frame 2 von 0 innerhalb des alten Frames bei Pixel 0 und 1 allmählich nach oben zu 1 bei Pixel 5, 6 und 7 des neuen Abschnitts des Frames. Im allgemeinen kann für akkumulierte Bilddaten in Jeder der oben beschriebenen Ausführungsformen eine Zusammensetzung verwendet werden, um Rauschen in dem Bild zu verringern. In ähnlicher Weise können zusammengesetzte Daten mit den Nachführdaten zur Verringerung von Rauschen verwendet werden.
  • Techniken zur Erfassung Inkorrekter Abschätzungen der Bewegungskomponente
  • Es gibt eine Vielzahl von Wegen der Verwendung der Bewegungsabschätzungen entlang der Strahllinien, welche von den Nachführarrays ausgehen, um eine Definition der Ebene des Bildarrays und der 3D-Pixelstellen für Pixel in der Bildarrayebene zu erzeugen.
  • Ein Ansatz ist es, gerade Linien unter Verwendung einer Technik kleinster Quadrate oder gewichteter kleinsten Quadrate, bei denen die Bewegungsqualität als ein Gewichtungsfaktor verwendet wird, anzupassen. Auf Grundlage dieser Linien kann eine Anzahl von Punkten zusammen mit ihren zugeordneten 3D-Bewegungen identifiziert werden. Beispielsweise können vier Punkte im oberen linken, unteren linken, unteren rechten und oberen rechten Abschnitt des Bereichs ausgewählt werden und eine bi-lineare Interpolation kann verwendet werden, um Pixelstellen aufzufinden. Aus den Bewegungsabschätzungen entlang der Linien kann die Gleichung für eine Ebene (Y = a + bX + cZ) angepasst werden. Die Qualität der Anpassung kann durch eine Technik kleinster Quadrate oder gewichteter kleinster Quadrate gemessen werden. Dann wird unter Verwendung der vier zuvor identifizierten Schlüsselpunkte die Gleichung für eine Ebene aufgefunden, d. h. drei Gleichungen Y = a + bX +cZ für drei Punkte angepasst, um a, b, c aufzufinden, beispielsweise unter Verwendung von Matrixinversionstechniken. Dieser Schritt wird für einen unterschiedlichen Satz von drei der vier Schlüsselpunkte wiederholt. Wenn die Verhältnisse a1/a2 (wobei a1 und a2 die „a" Werte sind, die von verschiedenen Sätzen der drei Punkte abgeleitet werden), b1/b2, oder c1/c2 eine Schwelle überschreiten (entweder zu groß oder zu klein) kann das System dazu programmiert sein, den Benutzer über eine Videoausgabe zu warnen, dass die Ebene schräg ist und dass eine erneute Abtastung empfohlen wird.
  • Die Summe von quadrierten Fehlern, im Linien- oder Ebenenfall oder in beiden, kann als ein Maß von geringer Qualität von Bewegungsabschätzungen verwendet werden und entweder dazu verwendet werden, die Bewegungsabschätzung intern anzupassen (d. h. größere Blockgrößen zu verwenden oder mehr Bewegungsabschätzungen zu machen) oder dem Benutzer, beispielsweise als eine Videowarnung oder hörbare Warnung, eine Aufforderung zu einer erneuten Abtastung bereitzustellen. In ähnlicher Weise ist es möglich, die erfassten Bewegungs-fehler zwischen aufeinander folgenden Bewegungsabschätzungen zu akkumulieren und den kumulativen Bewegungsfehler gegenüber einer vorgewählten Schwelle zu vergleichen. Wenn der kumulative Bewegungsfehler diese Schwelle überschreitet, ist das System vorzugsweise dazu programmiert, den Benutzer zu warnen, dass ein kumulativer Positionsfehler unzureichend ist und dass eine erneute Abtastung bevorzugt ist. Optional kann der kumulative Bewegungsfehler (welcher aus der Summe der quadrierten Fehler erhalten werden kann, aber nicht notwendigerweise gleich der Summe der quadrierten Fehler ist) für den Benutzer angezeigt werden.
  • Alternative 3D-Anzeigetechniken
  • Wie oben beschrieben, können mehrfache 2D-Scheiben zu einem festen 3D-Volumensatz rekonstruiert werden. Das heißt, dies ist nicht der einzige Ansatz, der zur Bildung der Ausgabeanzeige 46 verwendet werden kann. Beispielsweise kann eine einfachere Anzeige einen angezeigten Referenzumgrenzungskasten umfassen, welcher eine 3D-Form aufweist, obwohl er als 2D-Projektion angezeigt ist. Unter Verwendung der oben beschriebenen Bewegungserfassungsinformation wird die Position und Winkelorientierung aller Ebenen von Bilddaten berechnet wie zuvor. Jedoch wird bei dieser Alternative eine ausgewählte 2D-Scheibe angezeigt, die innerhalb des 3D-Umgrenzungskastens orientiert ist, welcher auf dem Schirm angezeigt wird. Dies kann unter Verwendung des in Keller, U.S. Patent Nr. 5,353,354 beschriebenen Prozesses gemacht werden. Techniken zum Projizieren von Bilddaten, die in drei Dimensionen definiert sind, auf einen zweidimensionalen Schirm sind wohlbekannt, wie beispielsweise in Kapitel 5 und 6 von Computer Graphics (Foley, et al., Addison-Wesley, 1995) beschrieben. Selbstverständlich ist die Anzeige einer einzelnen 2D-Scheibe innerhalb eines 3D-Rahmens ein Untersatz des allgemeinen 3D-Rekonstruktions- und Visualisionssystems, welches oben beschrieben wurde.
  • Alternative Strahlformungstechniken
  • Die oben beschriebenen Ausführungsformen verwenden Bilddatenframes, um Daten zur Anzeige und Nachführung von Frames zu sammeln, um Daten zur Bestimmung einer Relativbewegung der Aufnehmer zu sammeln. Da die Öffnungen für die Bilddatenframes und Nachführungsframes physikalisch getrennt sind, bildet die Sammlung dieser Frames von Bilddaten in Wirklichkeit zwei unabhängige Strahlformeraufgaben. Wenn gewünscht, können gleichzeitig mehrere Sende- und/oder Empfangsstrahlen verwendet werden, um die zur Akkumulation von Nachführdaten erforderliche Zeit zu verringern. Ein Beispiel eines Mehrfachstrahlübertragungssystems, welches ohne Weiteres zur gleichzeitigen Übertragung von Ultraschallstrahlen für die Bilddatenframes und Nachführframes verwendet werden könnte, ist in der US-A-5,675,554 offenbart. In ähnlicher Weise kann ein Mehrfachempfangsstrahl-Strahlformer verwendet werden, um einen separaten Empfangsstrahl für jeden Übertragungsstrahl bereitzustellen, wodurch die Datenaufnahme beschleunigt wird. Der in der US-A-5,685,308 offenbarte Mehrfachempfangsstrahl-Strahlformer kann für diesen Zweck ausgebildet werden. Siehe auch den Mehrfachempfangsstrahl-Strahlformer, der in O'Donnell U.S. Patent 4,886,069 offenbart ist.
  • Die kohärenten Bildformungstechniken, die in US-A-5,623,928 und US-A-5,667,373 offenbart sind, können vorteilhaft mit ausgewählten Ausführungsformen dieser Erfindung verwendet werden. Das System der Wright-Patentanmeldungen stellt eine Phasenausrichtung zwischen benachbarten Abtastlinien in dem Nahfeld bereit und stellt daher ein verschiebungs-invariantes Specklemuster bereit. Ein solches verschiebungs-invariantes Specklemuster sollte überlegene Bildbewegungserfassungen auf Grundlage der Specklenachführung bereitstellen, gegenüber demjenigen, das mit einem herkömmlichen System erreichbar ist, bei dem das Specklemuster aufgrund des Fehlens einer Phasenausrichtung zwischen Abtastlinien verschiebungsvariabel ist.
  • Alternative Warnmeldungen für die Bedienungsperson
  • Wenn eines der Nachführarrays eine Bewegung erfasst, aber das andere nicht, kann diese Bedingung als ein Hinweis darauf genommen werden, dass das Nachführarray, welches keine Bewegung zeigt, nicht mit Gewebe in Kontakt ist. Vorzugsweise umfasst die Steuer-/Regeleinheit des Systems eine programmierte Logik, die auf diese Bedingung durch Warnen der Bedienungsperson des Systems mit einer Warnmeldung reagiert, etwa einem hörbaren Ton oder einer sichtbaren Nachricht auf einem Anzeigeschirm.
  • Schlussbemerkung
  • Die oben beschriebenen Systeme und Verfahren stellen eine Anzahl von wichtigen Vorteilen bereit. Sie sind unempfindlich gegenüber elektromagnetischer Umgebung und Patientenbewegung im Gegensatz zu Magnetorientierungsverfahren. Die vorliegende Erfindung ist potentiell mit geringeren Kosten implementiert als Magnetverfahren, und Aufnehmerarrays mit geringer Spezifikation können verwendet werden. Potentiell können die oben beschriebenen Techniken eine ausgezeichnete Genauigkeit der Registrierung bereitstellen, da die Genauigkeit durch Bilderzeugungsauflösung bestimmt wird, welche mit der Frequenz skaliert.
  • Abhängig von der Anwendung können die oben beschriebenen verbesserten Aufnehmer mehr und größere Kabel erfordern und der Empfangsbereich des Aufnehmers geringfügig vergrößert sein. Jedoch können diese potentiellen Probleme durch Verwendung der oben beschriebenen Techniken minimiert werden.
  • Es versteht sich selbstverständlich, dass die vorangehende detaillierte Beschreibung als eine Erläuterung von gegenwärtig bevorzugten Formen der Erfindung anstatt einer Beschränkung anzusehen ist.

Claims (10)

  1. Ultraschallaufnehmer (16), umfassend: ein Trägerelement (53), ein erstes Aufnehmerarray (18), das zur Bewegung mit dem Trägerelement (53) gekoppelt ist und eine Mehrzahl von ersten Aufnehmerelementen (48) umfasst, die entlang einer azimutalen Achse (A) angeordnet sind, wobei das erste Aufnehmerarray (18) ein erstes und ein zweites Ende (54, 56) umfasst, die entlang der azimutalen Achse (A) im Abstand voneinander angeordnet sind, und eine erste zentrale Bildebene umfasst, ein zweites Aufnehmerarray (20), das zur Bewegung mit dem Trägerelement (53) gekoppelt ist und eine Mehrzahl von zweiten Aufnehmerelementen (50) umfasst, wobei das zweite Aufnehmerarray (20) in der Nähe des ersten Endes (54) des ersten Aufnehmerarrays (18) angeordnet ist und eine zweite zentrale Bildebene umfasst, und ein drittes Aufnehmerarray (22), das zur Bewegung mit dem Trägerelement (53) gekoppelt ist und eine Mehrzahl von dritten Aufnehmerelementen (52) umfasst, wobei das dritte Aufnehmerarray (22) in der Nähe des zweiten Endes (56) des ersten Aufnehmerarrays (18) angeordnet ist und eine dritte zentrale Bildebene umfasst, wobei die erste und die zweite zentrale Bildebene nicht parallel zueinander sind und wobei die erste und die dritte zentrale Bildebene nicht parallel zueinander sind.
  2. Ultraschallaufnehmer nach Anspruch 1, wobei die erste und die zweite zentrale Bildebene im Wesentlichen orthogonal zueinander sind und wobei die erste und die dritte Bildebene im Wesentlichen orthogonal zueinander sind.
  3. Aufnehmer nach Anspruch 1, wobei das zweite (20) und das dritte (22) Aufnehmerarray im Wesentlichen eine kürzere Länge entlang der jeweiligen Achse aufweisen als das erste Aufnehmerarray (18).
  4. Aufnehmer nach Anspruch 1, wobei das zweite und das dritte Aufnehmerarray (20, 22) jeweils im Wesentlichen weniger der jeweiligen Aufnehmerelemente (48, 50) umfassen als das erste Aufnehmerarray (18).
  5. Aufnehmer nach Anspruch 1, wobei die ersten, zweiten und dritten Aufnehmerelemente (48, 50, 52) jeweils im Abstand voneinander mit einer jeweiligen Teilung angeordnet sind und wobei die Teilung der zweiten Aufnehmerelemente (50) ein erstes ganzzahliges Vielfaches der Teilung der ersten Aufnehmerelemente (48) ist.
  6. Aufnehmer nach Anspruch 1, ferner umfassend eine Sender-Strahlbündelungseinrichtung und eine Empfänger-Strahlbündelungseinrichtung, die mit dem ersten (18), dem zweiten (20) und dem dritten (22) Aufnehmerarray gekoppelt sind.
  7. Aufnehmer nach Anspruch 6, wobei die Sender-Strahlbündelungseinrichtung das erste (18) und das zweite (20) Aufnehmerarray mit unterschiedlichen Ultraschallfrequenzen betreibt.
  8. Aufnehmer nach Anspruch 6, wobei die Sender-Strahlbündelungseinrichtung das erste (18), das zweite (20) und das dritte (22) Aufnehmerarray mit einer gemeinsamen Ultraschallfrequenz betreibt.
  9. Aufnehmer nach Anspruch 6, wobei die Sender-Strahlbündelungseinrichtung das zweite (20) und das dritte (22) Aufnehmerarray mit weniger Abastzeilen als das erste Aufnehmerarray (18) betreibt.
  10. Aufnehmer nach Anspruch 6, wobei die Sender- und die Empfänger-Strahlbündelungseinrichtungen übereinstimmende Bilder von dem ersten (18), dem zweiten (20) und dem dritten (22) Aufnehmer zur Anzeige aufnehmen.
DE69736549T 1996-02-29 1997-02-27 System, verfahren und wandler zum ausrichten mehrerer ultraschallbilder Expired - Lifetime DE69736549T2 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US1257896P 1996-02-29 1996-02-29
US12578P 1996-02-29
US62156196A 1996-03-25 1996-03-25
US621561 1996-03-25
PCT/US1997/003241 WO1997032277A1 (en) 1996-02-29 1997-02-27 Multiple ultrasound image registration system, method and transducer

Publications (2)

Publication Number Publication Date
DE69736549D1 DE69736549D1 (de) 2006-10-05
DE69736549T2 true DE69736549T2 (de) 2007-08-23

Family

ID=26683738

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69736549T Expired - Lifetime DE69736549T2 (de) 1996-02-29 1997-02-27 System, verfahren und wandler zum ausrichten mehrerer ultraschallbilder

Country Status (6)

Country Link
US (6) US6014473A (de)
EP (1) EP0883860B1 (de)
JP (1) JP4237256B2 (de)
AU (1) AU1983397A (de)
DE (1) DE69736549T2 (de)
WO (1) WO1997032277A1 (de)

Families Citing this family (487)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7907793B1 (en) 2001-05-04 2011-03-15 Legend Films Inc. Image sequence depth enhancement system and method
US8396328B2 (en) 2001-05-04 2013-03-12 Legend3D, Inc. Minimal artifact image sequence depth enhancement system and method
AU1983397A (en) 1996-02-29 1997-09-16 Acuson Corporation Multiple ultrasound image registration system, method and transducer
DE19648338C2 (de) * 1996-11-22 2001-02-01 Wolf Gmbh Richard Vorrichtung zur Nachführung einer Zielmarke für ein Therapiegerät
US7108663B2 (en) * 1997-02-06 2006-09-19 Exogen, Inc. Method and apparatus for cartilage growth stimulation
US7789841B2 (en) 1997-02-06 2010-09-07 Exogen, Inc. Method and apparatus for connective tissue treatment
JPH11164833A (ja) * 1997-09-30 1999-06-22 Toshiba Corp 医用画像診断装置
ES2274626T3 (es) * 1998-05-06 2007-05-16 Exogen, Inc. Vendajes con ultrasonido.
US6511426B1 (en) 1998-06-02 2003-01-28 Acuson Corporation Medical diagnostic ultrasound system and method for versatile processing
US6295377B1 (en) * 1998-07-13 2001-09-25 Compaq Computer Corporation Combined spline and block based motion estimation for coding a sequence of video images
US6585647B1 (en) * 1998-07-21 2003-07-01 Alan A. Winder Method and means for synthetic structural imaging and volume estimation of biological tissue organs
DE19838140C1 (de) * 1998-08-21 2000-04-20 Tomtec Imaging Syst Gmbh Verfahren und Vorrichtung zur Aufnahme von Ultraschallbildern
US6117081A (en) * 1998-10-01 2000-09-12 Atl Ultrasound, Inc. Method for correcting blurring of spatially compounded ultrasonic diagnostic images
US6135956A (en) * 1998-10-01 2000-10-24 Atl Ultrasound, Inc. Ultrasonic diagnostic imaging system with spatial compounding of resampled image data
US6544177B1 (en) * 1998-10-01 2003-04-08 Atl Ultrasound, Inc. Ultrasonic diagnostic imaging system and method with harmonic spatial compounding
US6159152A (en) * 1998-10-26 2000-12-12 Acuson Corporation Medical diagnostic ultrasound system and method for multiple image registration
US7837624B1 (en) * 1998-11-20 2010-11-23 Siemens Medical Solutions Usa, Inc. Medical diagnostic ultrasound imaging methods for extended field of view
JP2000126182A (ja) * 1998-10-27 2000-05-09 Mitani Sangyo Co Ltd 腫瘍診断方法
US6364835B1 (en) 1998-11-20 2002-04-02 Acuson Corporation Medical diagnostic ultrasound imaging methods for extended field of view
US6554770B1 (en) * 1998-11-20 2003-04-29 Acuson Corporation Medical diagnostic ultrasound imaging methods for extended field of view
US6358208B1 (en) * 1998-11-21 2002-03-19 Philipp Lang Assessment of cardiovascular performance using ultrasound methods and devices that interrogate interstitial fluid
US6645147B1 (en) * 1998-11-25 2003-11-11 Acuson Corporation Diagnostic medical ultrasound image and system for contrast agent imaging
US6102859A (en) * 1998-12-01 2000-08-15 General Electric Company Method and apparatus for automatic time and/or lateral gain compensation in B-mode ultrasound imaging
US7756304B2 (en) 1998-12-30 2010-07-13 Siemens Medical Solutions Usa, Inc. Medical diagnostic ultrasonic imaging method and system for displaying multi-phase, multi-frame images
US6193657B1 (en) * 1998-12-31 2001-02-27 Ge Medical Systems Global Technology Company, Llc Image based probe position and orientation detection
US6193665B1 (en) * 1998-12-31 2001-02-27 General Electric Company Doppler angle unfolding in ultrasound color flow and Doppler
DE19903332C2 (de) * 1999-01-28 2001-06-07 Tomtec Imaging Syst Gmbh Verfahren zur Bewegungskompensation bei Ultraschallaufnahmen eines Objekts
US6238345B1 (en) 1999-06-30 2001-05-29 Atl Ultrasound Image memory for extended field of view ultrasonic diagnostic imaging
US6442289B1 (en) 1999-06-30 2002-08-27 Koninklijke Philips Electronics N.V. Extended field of view ultrasonic diagnostic imaging
US6299579B1 (en) * 1999-06-30 2001-10-09 Atl Ultrasound Extended field of view ultrasonic diagnostic imaging with image reacquisition
US6458082B1 (en) * 1999-09-29 2002-10-01 Acuson Corporation System and method for the display of ultrasound data
US6418334B1 (en) * 1999-10-19 2002-07-09 General Electric Company Method and apparatus for logging and dynamically configuring performance analysis of a medical diagnostic imaging system
JP2003513691A (ja) * 1999-10-25 2003-04-15 シーラス、コーポレイション 血管を封止するための集束超音波の使用
US6775400B1 (en) * 1999-10-29 2004-08-10 Acuson Corporation Medical diagnostic ultrasonic imaging method and apparatus for suppressing electronic noise
US6277075B1 (en) * 1999-11-26 2001-08-21 Ge Medical Systems Global Technology Company, Llc Method and apparatus for visualization of motion in ultrasound flow imaging using continuous data acquisition
US6626855B1 (en) * 1999-11-26 2003-09-30 Therus Corpoation Controlled high efficiency lesion formation using high intensity ultrasound
US6618493B1 (en) 1999-11-26 2003-09-09 Ge Medical Systems Global Technology Company, Llc Method and apparatus for visualization of motion in ultrasound flow imaging using packet data acquisition
US6499348B1 (en) * 1999-12-03 2002-12-31 Scimed Life Systems, Inc. Dynamically configurable ultrasound transducer with integral bias regulation and command and control circuitry
US6361500B1 (en) * 2000-02-07 2002-03-26 Scimed Life Systems, Inc. Three transducer catheter
EP1123687A3 (de) * 2000-02-10 2004-02-04 Aloka Co., Ltd. Diagnostisches Ultraschallgerät
US6728394B1 (en) * 2000-02-14 2004-04-27 Siemens Medical Solutions Usa, Inc. Dynamic measurement of object parameters
US6612992B1 (en) 2000-03-02 2003-09-02 Acuson Corp Medical diagnostic ultrasound catheter and method for position determination
US6607488B1 (en) 2000-03-02 2003-08-19 Acuson Corporation Medical diagnostic ultrasound system and method for scanning plane orientation
US6527717B1 (en) 2000-03-10 2003-03-04 Acuson Corporation Tissue motion analysis medical diagnostic ultrasound system and method
US6511427B1 (en) 2000-03-10 2003-01-28 Acuson Corporation System and method for assessing body-tissue properties using a medical ultrasound transducer probe with a body-tissue parameter measurement mechanism
US7369973B2 (en) 2000-06-29 2008-05-06 Object Reservoir, Inc. Method and system for representing reservoir systems
US6482161B1 (en) 2000-06-29 2002-11-19 Acuson Corporation Medical diagnostic ultrasound system and method for vessel structure analysis
US6517488B1 (en) 2000-06-29 2003-02-11 Acuson Corporation Medical diagnostic ultrasound system and method for identifying constrictions
US7006951B2 (en) * 2000-06-29 2006-02-28 Object Reservoir, Inc. Method for solving finite element models using time slabbing
US6503202B1 (en) 2000-06-29 2003-01-07 Acuson Corp. Medical diagnostic ultrasound system and method for flow analysis
US6569097B1 (en) * 2000-07-21 2003-05-27 Diagnostics Ultrasound Corporation System for remote evaluation of ultrasound information obtained by a programmed application-specific data collection device
US6468216B1 (en) * 2000-08-24 2002-10-22 Kininklijke Philips Electronics N.V. Ultrasonic diagnostic imaging of the coronary arteries
US6682482B1 (en) * 2000-08-30 2004-01-27 Acuson Corporation Medical ultrasonic imaging pulse transmission method
US6582367B1 (en) 2000-09-15 2003-06-24 Koninklijke Philips Electronics N.V. 2D ultrasonic transducer array for two dimensional and three dimensional imaging
FR2815724B1 (fr) * 2000-10-24 2004-04-30 Thomson Csf Systeme d'echographie et sonde acoustique pour un tel systeme
JP4126228B2 (ja) * 2000-10-25 2008-07-30 エクソジェン インコーポレイテッド 変換器取付用組立体
GB0028491D0 (en) * 2000-11-22 2001-01-10 Isis Innovation Detection of features in images
US6540681B1 (en) 2000-11-24 2003-04-01 U-Systems, Inc. Extended view ultrasound imaging system
US6765964B1 (en) 2000-12-06 2004-07-20 Realnetworks, Inc. System and method for intracoding video data
JP3871267B2 (ja) * 2000-12-22 2007-01-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 検査される物体の体積表示を有するデータセットを解析する方法
US7914453B2 (en) * 2000-12-28 2011-03-29 Ardent Sound, Inc. Visual imaging system for ultrasonic probe
EP1360649A2 (de) * 2001-02-02 2003-11-12 Koninklijke Philips Electronics N.V. Messung der zuverlässigkeit einer ortungszurückstellung
WO2002061660A2 (en) * 2001-02-02 2002-08-08 Koninklijke Philips Electronics N.V. Method of and system for the automatic registration of anatomically corresponding positions for perfusion measurements
US7697744B2 (en) * 2001-03-06 2010-04-13 Kabushiki Kaisha Toshiba X-ray diagnostic apparatus and image processor
US6872181B2 (en) * 2001-04-25 2005-03-29 Siemens Medical Solutions Usa, Inc. Compound image display system and method
MXPA03010039A (es) 2001-05-04 2004-12-06 Legend Films Llc Sistema y metodo para mejorar la secuencia de imagen.
US9031383B2 (en) 2001-05-04 2015-05-12 Legend3D, Inc. Motion picture project management system
US8897596B1 (en) 2001-05-04 2014-11-25 Legend3D, Inc. System and method for rapid image sequence depth enhancement with translucent elements
US9286941B2 (en) 2001-05-04 2016-03-15 Legend3D, Inc. Image sequence enhancement and motion picture project management system
US8401336B2 (en) * 2001-05-04 2013-03-19 Legend3D, Inc. System and method for rapid image sequence depth enhancement with augmented computer-generated elements
EP1260834B1 (de) * 2001-05-21 2005-11-30 Shigeo Ohtsuki Gerät und Verfahren zur Echobilderzeugung
US6690386B2 (en) 2001-05-31 2004-02-10 Dynapel Systems, Inc. Medical image display system
US6524254B2 (en) 2001-06-20 2003-02-25 Bae Systems Information And Electronic Systems Integration, Inc. Orthogonally reconfigurable integrated matrix acoustical array
DE60226325T2 (de) * 2001-08-09 2009-07-09 Koninklijke Philips Electronics N.V. Verfahren zur korrektur von inhomogenitäten bzw. diskontinuierlichen sprungstellen in mr-perfusionsbildern
US6605042B2 (en) * 2001-08-10 2003-08-12 Ge Medical Systems Global Technology Company, Llc Method and apparatus for rotation registration of extended field of view ultrasound images
KR100470207B1 (ko) * 2001-08-13 2005-02-04 엘지전자 주식회사 평면 전계방출 표시소자의 구동장치 및 방법
US6517486B1 (en) * 2001-08-16 2003-02-11 Computed Ultrasound Global, Inc. Compounding method for reducing speckle noise
JP4958348B2 (ja) * 2001-09-06 2012-06-20 株式会社日立メディコ 超音波撮像装置
US6450962B1 (en) * 2001-09-18 2002-09-17 Kretztechnik Ag Ultrasonic diagnostic methods and apparatus for generating images from multiple 2D slices
US6503201B1 (en) * 2001-10-03 2003-01-07 Koninklijke Philips Electronics N.V. Correction of extended field of view images for distortion due to scanhead motion
FI20012115A (fi) * 2001-11-01 2003-05-02 Oplayo Oy Kuvan interpolointi
US6690458B2 (en) * 2001-11-30 2004-02-10 Bae Systems Information And Electronics Systems Integration Inc. Methods and apparatuses for reconstructing angle information
US6572549B1 (en) 2001-12-18 2003-06-03 Koninklijke Philips Electronics Nv High frame rate extended field of view ultrasound imaging system and method
US6656123B2 (en) * 2001-12-19 2003-12-02 Koninklijke Philips Electronics N.V. Combined fundamental and harmonic ultrasonic imaging at low MI or deeper depths
US20080146943A1 (en) * 2006-12-14 2008-06-19 Ep Medsystems, Inc. Integrated Beam Former And Isolation For An Ultrasound Probe
US20050124898A1 (en) * 2002-01-16 2005-06-09 Ep Medsystems, Inc. Method and apparatus for isolating a catheter interface
US7648462B2 (en) 2002-01-16 2010-01-19 St. Jude Medical, Atrial Fibrillation Division, Inc. Safety systems and methods for ensuring safe use of intra-cardiac ultrasound catheters
US6755789B2 (en) * 2002-02-05 2004-06-29 Inceptio Medical Technologies, Llc Ultrasonic vascular imaging system and method of blood vessel cannulation
US7806828B2 (en) * 2002-02-05 2010-10-05 Inceptio Medical Technologies, Lc Multiplanar ultrasonic vascular sensor assembly and apparatus for movably affixing a sensor assembly to a body
US6890301B2 (en) 2002-03-05 2005-05-10 Koninklijke Philips Electronics Nv Diagnostic ultrasonic imaging system having combined scanhead connections
EP1489972B2 (de) * 2002-03-15 2013-04-10 Bjorn A. J. Angelsen Ultraschalldarstellung von objekten in mehreren scanebenen
US7182083B2 (en) * 2002-04-03 2007-02-27 Koninklijke Philips Electronics N.V. CT integrated respiratory monitor
US6730033B2 (en) 2002-05-16 2004-05-04 Siemens Medical Systems, Inc. Two dimensional array and methods for imaging in three dimensions
JP4018450B2 (ja) * 2002-05-27 2007-12-05 キヤノン株式会社 文書管理システム、文書管理装置、認証方法、コンピュータ読み取り可能なプログラム、及び記憶媒体
US7520857B2 (en) * 2002-06-07 2009-04-21 Verathon Inc. 3D ultrasound-based instrument for non-invasive measurement of amniotic fluid volume
US20060025689A1 (en) * 2002-06-07 2006-02-02 Vikram Chalana System and method to measure cardiac ejection fraction
US7819806B2 (en) * 2002-06-07 2010-10-26 Verathon Inc. System and method to identify and measure organ wall boundaries
US20070276247A1 (en) * 2002-06-07 2007-11-29 Vikram Chalana Systems and methods for ultrasound imaging using an inertial reference unit
GB2391625A (en) * 2002-08-09 2004-02-11 Diagnostic Ultrasound Europ B Instantaneous ultrasonic echo measurement of bladder urine volume with a limited number of ultrasound beams
US8221322B2 (en) * 2002-06-07 2012-07-17 Verathon Inc. Systems and methods to improve clarity in ultrasound images
US20080262356A1 (en) * 2002-06-07 2008-10-23 Vikram Chalana Systems and methods for ultrasound imaging using an inertial reference unit
US8221321B2 (en) * 2002-06-07 2012-07-17 Verathon Inc. Systems and methods for quantification and classification of fluids in human cavities in ultrasound images
US20090062644A1 (en) * 2002-06-07 2009-03-05 Mcmorrow Gerald System and method for ultrasound harmonic imaging
US20040127797A1 (en) * 2002-06-07 2004-07-01 Bill Barnard System and method for measuring bladder wall thickness and presenting a bladder virtual image
US20090112089A1 (en) * 2007-10-27 2009-04-30 Bill Barnard System and method for measuring bladder wall thickness and presenting a bladder virtual image
US20100036252A1 (en) * 2002-06-07 2010-02-11 Vikram Chalana Ultrasound system and method for measuring bladder wall thickness and mass
JP4515721B2 (ja) * 2002-06-21 2010-08-04 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 灌流画像を分析するための方法、装置及びソフトウェア
US6843770B2 (en) * 2002-06-26 2005-01-18 Acuson Corporation Compound tuning method and system
US6780152B2 (en) 2002-06-26 2004-08-24 Acuson Corporation Method and apparatus for ultrasound imaging of the heart
US6994674B2 (en) * 2002-06-27 2006-02-07 Siemens Medical Solutions Usa, Inc. Multi-dimensional transducer arrays and method of manufacture
US6891311B2 (en) * 2002-06-27 2005-05-10 Siemens Medical Solutions Usa, Inc Ultrasound transmit pulser with receive interconnection and method of use
US6806623B2 (en) * 2002-06-27 2004-10-19 Siemens Medical Solutions Usa, Inc. Transmit and receive isolation for ultrasound scanning and methods of use
US6875178B2 (en) 2002-06-27 2005-04-05 Siemens Medical Solutions Usa, Inc. Receive circuit for ultrasound imaging
US20070083118A1 (en) * 2002-07-22 2007-04-12 Ep Medsystems, Inc. Method and System For Estimating Cardiac Ejection Volume Using Ultrasound Spectral Doppler Image Data
US20050245822A1 (en) * 2002-07-22 2005-11-03 Ep Medsystems, Inc. Method and apparatus for imaging distant anatomical structures in intra-cardiac ultrasound imaging
US20070167809A1 (en) * 2002-07-22 2007-07-19 Ep Medsystems, Inc. Method and System For Estimating Cardiac Ejection Volume And Placing Pacemaker Electrodes Using Speckle Tracking
US7314446B2 (en) * 2002-07-22 2008-01-01 Ep Medsystems, Inc. Method and apparatus for time gating of medical images
US7927275B2 (en) * 2002-08-26 2011-04-19 The Cleveland Clinic Foundation System and method of aquiring blood-vessel data
WO2004032747A1 (ja) * 2002-10-09 2004-04-22 Matsushita Electric Industrial Co., Ltd. 超音波診断装置
DE10247150B4 (de) * 2002-10-09 2007-08-02 Siemens Ag Verfahren zum Bearbeiten von Magnetresonanzrohdaten
US7255678B2 (en) * 2002-10-10 2007-08-14 Visualsonics Inc. High frequency, high frame-rate ultrasound imaging system
US7474792B2 (en) * 2002-12-02 2009-01-06 Ricoh Company, Ltd. Image processing apparatus for using distortion amount information
US8388540B2 (en) * 2002-12-13 2013-03-05 Boston Scientific Scimed, Inc. Method and apparatus for orienting a medical image
US7778490B2 (en) * 2003-01-13 2010-08-17 Koninklijke Philips Electronics N.V. Method of image registration and medical image data processing apparatus
GB0300921D0 (en) * 2003-01-15 2003-02-12 Mirada Solutions Ltd Improvements in or relating to dynamic medical imaging
US7090643B2 (en) * 2003-01-23 2006-08-15 3G Ultrasound, Inc. Ultrasonic imaging device, system and method of use
DE10305603B4 (de) * 2003-02-11 2009-12-03 Siemens Ag Einrichtung zum Erzeugen eines dreidimensionalen Ultraschallbildes
US20040186381A1 (en) * 2003-03-20 2004-09-23 Siemens Medical Solutions Usa, Inc. Volume flow rate with medical ultrasound imaging
US6858010B2 (en) * 2003-05-06 2005-02-22 Siemens Medical Solutions Usa, Inc. Identifying clinical markers in spatial compounding ultrasound imaging
US7909766B2 (en) * 2003-05-21 2011-03-22 Scimed Life Systems, Inc. Systems and methods for improving the imaging resolution of an imaging transducer
US7303530B2 (en) * 2003-05-22 2007-12-04 Siemens Medical Solutions Usa, Inc. Transducer arrays with an integrated sensor and methods of use
US8064979B2 (en) * 2003-06-09 2011-11-22 General Electric Company Tempero-spatial physiological signal detection method and apparatus
JP2005027752A (ja) * 2003-07-08 2005-02-03 Toshiba Corp 圧電振動子、圧電振動子の製造方法、超音波探触子および超音波診断装置
US7731660B2 (en) * 2003-07-25 2010-06-08 Siemens Medical Solutions Usa, Inc. Phase selection for cardiac contrast assessment
US20050033123A1 (en) * 2003-07-25 2005-02-10 Siemens Medical Solutions Usa, Inc. Region of interest methods and systems for ultrasound imaging
US7033320B2 (en) * 2003-08-05 2006-04-25 Siemens Medical Solutions Usa, Inc. Extended volume ultrasound data acquisition
US7108658B2 (en) * 2003-08-29 2006-09-19 General Electric Company Method and apparatus for C-plane volume compound imaging
US20050049495A1 (en) * 2003-09-03 2005-03-03 Siemens Medical Solutions Usa, Inc. Remote assistance for medical diagnostic ultrasound
WO2005027491A2 (en) * 2003-09-05 2005-03-24 The Regents Of The University Of California Global motion estimation image coding and processing
JP4729491B2 (ja) * 2003-09-09 2011-07-20 ゼネラル・エレクトリック・カンパニイ 超音波ドップラー・カラーフロー・イメージングのための運動適応型フレーム平均化
DE602004017028D1 (de) * 2003-09-10 2008-11-20 Koninkl Philips Electronics Nv Ultraschall-kompoundierung mit aussenden multipler simultaner strahlen
US20050075572A1 (en) * 2003-10-01 2005-04-07 Mills David M. Focusing micromachined ultrasonic transducer arrays and related methods of manufacture
US7066887B2 (en) * 2003-10-21 2006-06-27 Vermon Bi-plane ultrasonic probe
US20050101867A1 (en) * 2003-10-28 2005-05-12 Johnson Jeremy A. Apparatus and method for phased subarray imaging
US7972271B2 (en) * 2003-10-28 2011-07-05 The Board Of Trustees Of The Leland Stanford Junior University Apparatus and method for phased subarray imaging
US20050096538A1 (en) 2003-10-29 2005-05-05 Siemens Medical Solutions Usa, Inc. Image plane stabilization for medical imaging
US7658714B2 (en) * 2003-10-31 2010-02-09 Siemens Medical Solutions Usa, Inc. Intelligent ultrasound examination storage system
US20050096543A1 (en) * 2003-11-03 2005-05-05 Jackson John I. Motion tracking for medical imaging
WO2005046443A2 (en) * 2003-11-07 2005-05-26 Georgia Tech Research Corporation Combination catheter devices, methods, and systems
US7367953B2 (en) * 2003-11-26 2008-05-06 Ge Medical Systems Global Technology Company Method and system for determining a period of interest using multiple inputs
US7844317B2 (en) * 2003-11-26 2010-11-30 General Electric Company Method and system for estimating three-dimensional respiratory motion
US20050113673A1 (en) * 2003-11-26 2005-05-26 Avinash Gobal B. Method and system to reduce motion-related image artifacts during breath holding
US8064983B2 (en) * 2003-11-26 2011-11-22 General Electric Company Method and system for prospective gating using multiple inputs
US7833163B2 (en) * 2003-12-10 2010-11-16 Siemens Medical Solutions Usa, Inc. Steering angle varied pattern for ultrasound imaging with a two-dimensional array
US7105981B2 (en) * 2003-12-10 2006-09-12 Siemens Medical Solutions Usa, Inc. Medical imaging transmit spectral control using aperture functions
JP3867080B2 (ja) * 2003-12-11 2007-01-10 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 超音波診断装置
US8562531B2 (en) * 2003-12-16 2013-10-22 Hitachi Medical Corporation Ultrasonic motion detecting device, and image producing device and ultrasonic therapeutic using the detecting device
US7431698B2 (en) * 2004-01-13 2008-10-07 Ge Medical Systems Global Technology Company, Llc Apparatus and method for controlling an ultrasound probe
US8126224B2 (en) * 2004-02-03 2012-02-28 Ge Medical Systems Global Technology Company, Llc Method and apparatus for instrument tracking on a scrolling series of 2D fluoroscopic images
EP1713399A4 (de) * 2004-02-06 2010-08-11 Georgia Tech Res Inst Cmut-vorrichtungen und herstellungsverfahren
US8008835B2 (en) * 2004-02-27 2011-08-30 Georgia Tech Research Corporation Multiple element electrode cMUT devices and fabrication methods
JP2007531357A (ja) * 2004-02-27 2007-11-01 ジョージア テック リサーチ コーポレイション ハーモニックcmut素子及び製造方法
US20050203410A1 (en) * 2004-02-27 2005-09-15 Ep Medsystems, Inc. Methods and systems for ultrasound imaging of the heart from the pericardium
US7646133B2 (en) * 2004-02-27 2010-01-12 Georgia Tech Research Corporation Asymmetric membrane cMUT devices and fabrication methods
EP1728098A2 (de) * 2004-03-01 2006-12-06 Sunnybrook and Women's College Health Sciences Centre System und verfahren für ekg-gesteuerte retrospektive farbfluss-ultraschallabbildung
US7261695B2 (en) * 2004-03-09 2007-08-28 General Electric Company Trigger extraction from ultrasound doppler signals
US7983835B2 (en) 2004-11-03 2011-07-19 Lagassey Paul J Modular intelligent transportation system
US7507205B2 (en) * 2004-04-07 2009-03-24 St. Jude Medical, Atrial Fibrillation Division, Inc. Steerable ultrasound catheter
US7654958B2 (en) * 2004-04-20 2010-02-02 St. Jude Medical, Atrial Fibrillation Division, Inc. Method and apparatus for ultrasound imaging with autofrequency selection
US20050273009A1 (en) * 2004-06-02 2005-12-08 Harald Deischinger Method and apparatus for co-display of inverse mode ultrasound images and histogram information
US20050273010A1 (en) * 2004-06-02 2005-12-08 Shi William T Method and system for ultrasound contrast-imaging
US20060058651A1 (en) * 2004-08-13 2006-03-16 Chiao Richard Y Method and apparatus for extending an ultrasound image field of view
US8083679B1 (en) 2004-09-03 2011-12-27 Hitachi Medical Corporation Ultrasonic imaging apparatus
AU2005205820B2 (en) * 2004-09-04 2011-04-14 Smith & Nephew Plc Ultrasound device and method of use
US8535228B2 (en) 2004-10-06 2013-09-17 Guided Therapy Systems, Llc Method and system for noninvasive face lifts and deep tissue tightening
US10864385B2 (en) 2004-09-24 2020-12-15 Guided Therapy Systems, Llc Rejuvenating skin by heating tissue for cosmetic treatment of the face and body
US8444562B2 (en) 2004-10-06 2013-05-21 Guided Therapy Systems, Llc System and method for treating muscle, tendon, ligament and cartilage tissue
US7806823B2 (en) * 2004-09-27 2010-10-05 Aloka Co., Ltd. Ultrasonic diagnostic apparatus
US7293400B2 (en) * 2004-09-30 2007-11-13 General Electric Company System and method for sensor validation and fusion
US9694212B2 (en) 2004-10-06 2017-07-04 Guided Therapy Systems, Llc Method and system for ultrasound treatment of skin
US8690778B2 (en) 2004-10-06 2014-04-08 Guided Therapy Systems, Llc Energy-based tissue tightening
US11235179B2 (en) 2004-10-06 2022-02-01 Guided Therapy Systems, Llc Energy based skin gland treatment
US11883688B2 (en) 2004-10-06 2024-01-30 Guided Therapy Systems, Llc Energy based fat reduction
DK1855759T3 (en) 2004-10-06 2017-06-06 Guided Therapy Systems Llc Tissue Ultrasound Treatment System
US8133180B2 (en) 2004-10-06 2012-03-13 Guided Therapy Systems, L.L.C. Method and system for treating cellulite
US20060111744A1 (en) 2004-10-13 2006-05-25 Guided Therapy Systems, L.L.C. Method and system for treatment of sweat glands
US9827449B2 (en) 2004-10-06 2017-11-28 Guided Therapy Systems, L.L.C. Systems for treating skin laxity
US11724133B2 (en) 2004-10-07 2023-08-15 Guided Therapy Systems, Llc Ultrasound probe for treatment of skin
US11207548B2 (en) 2004-10-07 2021-12-28 Guided Therapy Systems, L.L.C. Ultrasound probe for treating skin laxity
WO2006044996A2 (en) * 2004-10-15 2006-04-27 The Trustees Of Columbia University In The City Of New York System and method for automated boundary detection of body structures
WO2006044997A2 (en) * 2004-10-15 2006-04-27 The Trustees Of Columbia University In The City Of New York System and method for localized measurement and imaging of viscosity of tissues
US20090030324A1 (en) * 2004-10-19 2009-01-29 Makoto Kato Ultrasonic diagnostic apparatus and method for controlling the same
US20060100527A1 (en) * 2004-10-26 2006-05-11 Giovanni Gregori Speckle noise removal in optical coherence tomography
US20060098897A1 (en) * 2004-11-10 2006-05-11 Agfa-Gevaert Method of superimposing images
US7713210B2 (en) 2004-11-23 2010-05-11 St. Jude Medical, Atrial Fibrillation Division, Inc. Method and apparatus for localizing an ultrasound catheter
EP2712553A3 (de) 2005-01-11 2014-09-17 Volcano Corporation Co-Registrierung von Gefäßabbildungen
US9814439B2 (en) * 2005-01-19 2017-11-14 Siemens Medical Solutions Usa, Inc. Tissue motion comparison display
US20060184034A1 (en) * 2005-01-27 2006-08-17 Ronen Haim Ultrasonic probe with an integrated display, tracking and pointing devices
JP5038289B2 (ja) * 2005-03-11 2012-10-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 位相収差訂正のためのマイクロバブル生成技術
US8834371B2 (en) * 2005-03-31 2014-09-16 Kabushiki Kaisha Toshiba Ultrasound diagnostic apparatus and ultrasound image processing program
US20060241454A1 (en) * 2005-04-05 2006-10-26 Siemens Medical Solutions Usa, Inc. Transmit multibeam for compounding ultrasound data
US20060253028A1 (en) * 2005-04-20 2006-11-09 Scimed Life Systems, Inc. Multiple transducer configurations for medical ultrasound imaging
JP4618676B2 (ja) * 2005-04-28 2011-01-26 株式会社リコー 構造化文書符号の転送方法、画像処理システム、サーバ装置、プログラム及び情報記録媒体
US7922674B2 (en) * 2005-05-06 2011-04-12 Artann Laboratories Inc Method and device for real time mechanical imaging of prostate
WO2006120608A2 (en) * 2005-05-10 2006-11-16 Koninklijke Philips Electronics, N.V. Optimization of user settings for an ultrasonic imaging system
WO2006124603A2 (en) * 2005-05-12 2006-11-23 The Trustees Of Columbia University In The City Of New York System and method for electromechanical wave imaging of body structures
US10687785B2 (en) 2005-05-12 2020-06-23 The Trustees Of Columbia Univeristy In The City Of New York System and method for electromechanical activation of arrhythmias
US8068647B2 (en) 2005-06-14 2011-11-29 General Electric Company Method and apparatus for real-time motion correction for ultrasound spatial compound imaging
EP1903944B1 (de) 2005-06-24 2017-04-19 Volcano Corporation Ko-aufzeichnung grafischer bilddaten mit darstellung dreidimensionaler gefässmerkmale
US8303510B2 (en) 2005-07-01 2012-11-06 Scimed Life Systems, Inc. Medical imaging device having a forward looking flow detector
US20070194658A1 (en) * 2005-07-13 2007-08-23 Jimin Zhang Systems and methods for performing acoustic hemostasis of deep bleeding trauma in limbs
US20070016058A1 (en) * 2005-07-15 2007-01-18 Scott Kerwin System and method for controlling ultrasound probe having multiple transducer arrays
US20070034011A1 (en) * 2005-07-25 2007-02-15 Pai-Chi Li Method and apparatus for dynamic focusing in ultrasonic imaging
US8784336B2 (en) 2005-08-24 2014-07-22 C. R. Bard, Inc. Stylet apparatuses and methods of manufacture
EP1937151A4 (de) * 2005-09-19 2011-07-06 Univ Columbia Systeme und verfahren zur öffnung der blut-hirn-schranke einer person mit ultraschall
WO2007046047A1 (en) * 2005-10-17 2007-04-26 Koninklijke Philips Electronics N.V. Motion estimation and compensation of image sequences
US20070233185A1 (en) 2005-10-20 2007-10-04 Thomas Anderson Systems and methods for sealing a vascular opening
US8303505B2 (en) * 2005-12-02 2012-11-06 Abbott Cardiovascular Systems Inc. Methods and apparatuses for image guided medical procedures
US20090221916A1 (en) * 2005-12-09 2009-09-03 The Trustees Of Columbia University In The City Of New York Systems and Methods for Elastography Imaging
US8070684B2 (en) * 2005-12-14 2011-12-06 St. Jude Medical, Atrial Fibrillation Division, Inc. Method and system for evaluating valvular function
US20070167793A1 (en) * 2005-12-14 2007-07-19 Ep Medsystems, Inc. Method and system for enhancing spectral doppler presentation
US8035637B2 (en) * 2006-01-20 2011-10-11 3M Innovative Properties Company Three-dimensional scan recovery
US7511286B2 (en) * 2006-01-26 2009-03-31 Siemens Medical Solutions Usa, Inc. Image-based flat panel alignment
WO2007092054A2 (en) 2006-02-06 2007-08-16 Specht Donald F Method and apparatus to visualize the coronary arteries using ultrasound
US20070232949A1 (en) * 2006-03-31 2007-10-04 Ep Medsystems, Inc. Method For Simultaneous Bi-Atrial Mapping Of Atrial Fibrillation
US20090112094A1 (en) * 2006-04-13 2009-04-30 The Research Foundation Of State University Of New York Phased Apply Ultrasound With Electronically Controlled Focal Point For Assessing Bone Quality Via Acoustic Topology And Wave Transmit Functions
US20070255137A1 (en) * 2006-05-01 2007-11-01 Siemens Medical Solutions Usa, Inc. Extended volume ultrasound data display and measurement
US8425418B2 (en) * 2006-05-18 2013-04-23 Eigen, Llc Method of ultrasonic imaging and biopsy of the prostate
US20070299479A1 (en) * 2006-06-27 2007-12-27 Ep Medsystems, Inc. Method for Reversing Ventricular Dyssynchrony
US20080009733A1 (en) * 2006-06-27 2008-01-10 Ep Medsystems, Inc. Method for Evaluating Regional Ventricular Function and Incoordinate Ventricular Contraction
WO2008010500A1 (fr) * 2006-07-18 2008-01-24 Hitachi Medical Corporation Dispositif de diagnostic à ultrasons
US8107694B2 (en) * 2006-07-20 2012-01-31 Ultrasound Medical Devices, Inc. Method of tracking speckle displacement between two images
US20080021319A1 (en) * 2006-07-20 2008-01-24 James Hamilton Method of modifying data acquisition parameters of an ultrasound device
US20100138191A1 (en) * 2006-07-20 2010-06-03 James Hamilton Method and system for acquiring and transforming ultrasound data
US20080021945A1 (en) * 2006-07-20 2008-01-24 James Hamilton Method of processing spatial-temporal data processing
US20080021317A1 (en) * 2006-07-24 2008-01-24 Siemens Medical Solutions Usa, Inc. Ultrasound medical imaging with robotic assistance for volume imaging
US8233712B2 (en) * 2006-07-28 2012-07-31 University Of New Brunswick Methods of segmenting a digital image
US8150128B2 (en) * 2006-08-30 2012-04-03 The Trustees Of Columbia University In The City Of New York Systems and method for composite elastography and wave imaging
JP4881112B2 (ja) * 2006-09-19 2012-02-22 株式会社東芝 超音波診断装置及び画像データ生成方法
US8064664B2 (en) * 2006-10-18 2011-11-22 Eigen, Inc. Alignment method for registering medical images
US7794407B2 (en) 2006-10-23 2010-09-14 Bard Access Systems, Inc. Method of locating the tip of a central venous catheter
US8388546B2 (en) 2006-10-23 2013-03-05 Bard Access Systems, Inc. Method of locating the tip of a central venous catheter
EP2088932B1 (de) 2006-10-25 2020-04-08 Maui Imaging, Inc. Verfahren und vorrichtung zur herstellung von ultraschallbildern mithilfe mehrerer öffnungen
US7804989B2 (en) * 2006-10-30 2010-09-28 Eigen, Inc. Object recognition system for medical imaging
US8206305B2 (en) * 2006-11-28 2012-06-26 Siemens Medical Solutions Usa, Inc. Multi-twisted acoustic array for medical ultrasound
US20080146942A1 (en) * 2006-12-13 2008-06-19 Ep Medsystems, Inc. Catheter Position Tracking Methods Using Fluoroscopy and Rotational Sensors
US20080146940A1 (en) * 2006-12-14 2008-06-19 Ep Medsystems, Inc. External and Internal Ultrasound Imaging System
US8187190B2 (en) * 2006-12-14 2012-05-29 St. Jude Medical, Atrial Fibrillation Division, Inc. Method and system for configuration of a pacemaker and for placement of pacemaker electrodes
US20080161692A1 (en) * 2006-12-29 2008-07-03 Podmore Jonathan L Devices and methods for ablation
US20080161687A1 (en) * 2006-12-29 2008-07-03 Suri Jasjit S Repeat biopsy system
US8175350B2 (en) * 2007-01-15 2012-05-08 Eigen, Inc. Method for tissue culture extraction
US20080186378A1 (en) * 2007-02-06 2008-08-07 Feimo Shen Method and apparatus for guiding towards targets during motion
JP4909115B2 (ja) * 2007-02-21 2012-04-04 富士フイルム株式会社 超音波用探触子
US7856130B2 (en) * 2007-03-28 2010-12-21 Eigen, Inc. Object recognition system for medical imaging
US7832114B2 (en) * 2007-04-04 2010-11-16 Eigen, Llc Tracker holder assembly
US10201324B2 (en) 2007-05-04 2019-02-12 Delphinus Medical Technologies, Inc. Patient interface system
US8167803B2 (en) * 2007-05-16 2012-05-01 Verathon Inc. System and method for bladder detection using harmonic imaging
US8241220B2 (en) * 2007-05-21 2012-08-14 Siemens Medical Solutions Usa, Inc. Biplane ultrasound imaging and corresponding transducer
US7780601B2 (en) 2007-06-05 2010-08-24 Siemens Medical Solutions Usa, Inc. Adaptive clinical marker preservation in spatial compound ultrasound imaging
US8317711B2 (en) * 2007-06-16 2012-11-27 St. Jude Medical, Atrial Fibrillation Division, Inc. Oscillating phased-array ultrasound imaging catheter system
JP5099681B2 (ja) * 2007-06-29 2012-12-19 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 超音波探触子、超音波診断装置および超音波探触子の表面温度推定方法
US8057394B2 (en) 2007-06-30 2011-11-15 St. Jude Medical, Atrial Fibrillation Division, Inc. Ultrasound image processing to render three-dimensional images from two-dimensional images
US20100185093A1 (en) * 2009-01-19 2010-07-22 James Hamilton System and method for processing a real-time ultrasound signal within a time window
US20100185085A1 (en) * 2009-01-19 2010-07-22 James Hamilton Dynamic ultrasound processing using object motion calculation
US9275471B2 (en) 2007-07-20 2016-03-01 Ultrasound Medical Devices, Inc. Method for ultrasound motion tracking via synthetic speckle patterns
US20090048515A1 (en) * 2007-08-14 2009-02-19 Suri Jasjit S Biopsy planning system
JP2009066074A (ja) * 2007-09-11 2009-04-02 Olympus Medical Systems Corp 超音波診断装置
US9282945B2 (en) 2009-04-14 2016-03-15 Maui Imaging, Inc. Calibration of ultrasound probes
US8571277B2 (en) * 2007-10-18 2013-10-29 Eigen, Llc Image interpolation for medical imaging
US7942829B2 (en) * 2007-11-06 2011-05-17 Eigen, Inc. Biopsy planning and display apparatus
US20090227874A1 (en) * 2007-11-09 2009-09-10 Eigen, Inc. Holder assembly for a medical imaging instrument
JP2011502687A (ja) * 2007-11-16 2011-01-27 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3d造影超音波を使用する介入ナビゲーション
CN101438967B (zh) * 2007-11-22 2012-09-05 Ge医疗系统环球技术有限公司 超声成像设备
US9521961B2 (en) 2007-11-26 2016-12-20 C. R. Bard, Inc. Systems and methods for guiding a medical instrument
US10751509B2 (en) 2007-11-26 2020-08-25 C. R. Bard, Inc. Iconic representations for guidance of an indwelling medical device
US8781555B2 (en) 2007-11-26 2014-07-15 C. R. Bard, Inc. System for placement of a catheter including a signal-generating stylet
US10449330B2 (en) 2007-11-26 2019-10-22 C. R. Bard, Inc. Magnetic element-equipped needle assemblies
ES2832713T3 (es) 2007-11-26 2021-06-11 Bard Inc C R Sistema integrado para la colocación intravascular de un catéter
US10524691B2 (en) 2007-11-26 2020-01-07 C. R. Bard, Inc. Needle assembly including an aligned magnetic element
US8849382B2 (en) 2007-11-26 2014-09-30 C. R. Bard, Inc. Apparatus and display methods relating to intravascular placement of a catheter
US9649048B2 (en) * 2007-11-26 2017-05-16 C. R. Bard, Inc. Systems and methods for breaching a sterile field for intravascular placement of a catheter
US7938778B2 (en) * 2007-12-26 2011-05-10 Aloka Co., Ltd. Ultrasound diagnosis apparatus
US20090324041A1 (en) * 2008-01-23 2009-12-31 Eigen, Llc Apparatus for real-time 3d biopsy
US20090204003A1 (en) * 2008-02-07 2009-08-13 Guracar Ismayil M Tracking selection for medical diagnostic ultrasound imaging
US8478382B2 (en) 2008-02-11 2013-07-02 C. R. Bard, Inc. Systems and methods for positioning a catheter
US8641620B2 (en) * 2008-02-21 2014-02-04 Imperium, Inc. Hand-held ultrasound imaging device and techniques
US20100001996A1 (en) * 2008-02-28 2010-01-07 Eigen, Llc Apparatus for guiding towards targets during motion using gpu processing
US20090292208A1 (en) * 2008-03-03 2009-11-26 Jeffrey Jr R Brooke Automated detection of asymptomatic carotid stenosis
US20090264760A1 (en) * 2008-04-21 2009-10-22 Siemens Medical Solutions Usa, Inc. Compounding in medical diagnostic ultrasound for infant or adaptive imaging
US8052607B2 (en) 2008-04-22 2011-11-08 St. Jude Medical, Atrial Fibrillation Division, Inc. Ultrasound imaging catheter with pivoting head
JP5508401B2 (ja) * 2008-06-05 2014-05-28 コーニンクレッカ フィリップス エヌ ヴェ 誘導efov走査による拡張視野の超音波イメージング
EP2288934A2 (de) * 2008-06-05 2011-03-02 Koninklijke Philips Electronics N.V. Ultraschallabbildung mit erweitertem sichtfeld und einer zweidimensionalen arraysonde
CN104545998B (zh) 2008-06-06 2020-07-14 奥赛拉公司 用于美容处理和成像的系统和方法
US8023359B2 (en) * 2008-06-30 2011-09-20 Texas Instruments Incorporated System and method for converting scan data
US8225998B2 (en) * 2008-07-11 2012-07-24 Es&S Innovations Llc Secure ballot box
DE102008034258B4 (de) * 2008-07-17 2012-01-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Gesinterter Werkstoff und Verfahren zu dessen Herstellung
WO2010014977A1 (en) 2008-08-01 2010-02-04 The Trustees Of Columbia University In The City Of New York Systems and methods for matching and imaging tissue characteristics
JP5658151B2 (ja) * 2008-08-07 2015-01-21 ベラソン インコーポレイテッドVerathon Inc. 腹部大動脈瘤の直径を測定するための装置、システム、方法
JP5666446B2 (ja) * 2008-08-08 2015-02-12 マウイ イマギング,インコーポレーテッド マルチアパーチャ方式の医用超音波技術を用いた画像形成方法及びアドオンシステムの同期方法
CN102123666B (zh) * 2008-08-15 2013-09-25 皇家飞利浦电子股份有限公司 用于采集材料的声弹性成像数据和超声数据的换能器装置和方法
US9901714B2 (en) 2008-08-22 2018-02-27 C. R. Bard, Inc. Catheter assembly including ECG sensor and magnetic assemblies
JP2010051729A (ja) * 2008-08-29 2010-03-11 Toshiba Corp 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
WO2010030819A1 (en) 2008-09-10 2010-03-18 The Trustees Of Columbia University In The City Of New York Systems and methods for opening a tissue
WO2010039555A1 (en) * 2008-09-23 2010-04-08 Ultrasound Medical Devices, Inc. System and method for flexible rate processing of ultrasound data
US20100081937A1 (en) * 2008-09-23 2010-04-01 James Hamilton System and method for processing a real-time ultrasound signal within a time window
JP2012503501A (ja) 2008-09-25 2012-02-09 シーエーイー ヘルスケア インク 医用画像診断のシミュレーション
US8437833B2 (en) 2008-10-07 2013-05-07 Bard Access Systems, Inc. Percutaneous magnetic gastrostomy
JP5271029B2 (ja) * 2008-10-16 2013-08-21 株式会社東芝 超音波診断装置
KR20110101204A (ko) 2008-12-24 2011-09-15 가이디드 테라피 시스템스, 엘.엘.씨. 지방 감소 및/또는 셀룰라이트 치료 방법 및 시스템
US7961134B2 (en) * 2009-03-18 2011-06-14 The United States Of America As Represented By The Secretary Of The Army Metric and self-calibration for an automatic, surveillance-based change detection system operating on noisy imagery
US8469890B2 (en) * 2009-03-24 2013-06-25 General Electric Company System and method for compensating for motion when displaying ultrasound motion tracking information
US9560350B2 (en) * 2009-03-31 2017-01-31 Texas Instruments Incorporated Intra/inter mode decision for predictive frame encoding
JP2012523920A (ja) * 2009-04-14 2012-10-11 マウイ イマギング,インコーポレーテッド ユニバーサルな複数開口の医療用超音波探触子
JP5485373B2 (ja) * 2009-04-14 2014-05-07 マウイ イマギング,インコーポレーテッド 複数開口の超音波アレイ位置合せ装置
US9286691B2 (en) * 2009-04-17 2016-03-15 The Hong Kong University Of Science And Technology Motion estimation and compensation of feature-motion decorrelation
JP5141633B2 (ja) * 2009-04-24 2013-02-13 ソニー株式会社 画像処理方法及びそれを用いた画像情報符号化装置
US20100286527A1 (en) * 2009-05-08 2010-11-11 Penrith Corporation Ultrasound system with multi-head wireless probe
JP5459832B2 (ja) * 2009-06-02 2014-04-02 東芝メディカルシステムズ株式会社 超音波診断装置
US9532724B2 (en) 2009-06-12 2017-01-03 Bard Access Systems, Inc. Apparatus and method for catheter navigation using endovascular energy mapping
CN102802514B (zh) 2009-06-12 2015-12-02 巴德阿克塞斯系统股份有限公司 导管末端定位设备
US9445734B2 (en) 2009-06-12 2016-09-20 Bard Access Systems, Inc. Devices and methods for endovascular electrography
US9654792B2 (en) 2009-07-03 2017-05-16 Intel Corporation Methods and systems for motion vector derivation at a video decoder
US8917769B2 (en) 2009-07-03 2014-12-23 Intel Corporation Methods and systems to estimate motion based on reconstructed reference frames at a video decoder
US20110002387A1 (en) * 2009-07-03 2011-01-06 Yi-Jen Chiu Techniques for motion estimation
US8462852B2 (en) 2009-10-20 2013-06-11 Intel Corporation Methods and apparatus for adaptively choosing a search range for motion estimation
US10058837B2 (en) 2009-08-28 2018-08-28 The Trustees Of Columbia University In The City Of New York Systems, methods, and devices for production of gas-filled microbubbles
US8617892B2 (en) 2009-09-01 2013-12-31 The Trustees Of Columbia University In The City Of New York Microbubble devices, methods and systems
US8428340B2 (en) * 2009-09-21 2013-04-23 Microsoft Corporation Screen space plane identification
EP2480144B1 (de) 2009-09-21 2024-03-06 The Trustees of Columbia University in the City of New York Systeme zur öffnung einer gewebebarriere
US20110075896A1 (en) * 2009-09-25 2011-03-31 Kazuhiko Matsumoto Computer readable medium, systems and methods for medical image analysis using motion information
AU2010300677B2 (en) 2009-09-29 2014-09-04 C.R. Bard, Inc. Stylets for use with apparatus for intravascular placement of a catheter
US11103213B2 (en) * 2009-10-08 2021-08-31 C. R. Bard, Inc. Spacers for use with an ultrasound probe
US10639008B2 (en) 2009-10-08 2020-05-05 C. R. Bard, Inc. Support and cover structures for an ultrasound probe head
US9174065B2 (en) 2009-10-12 2015-11-03 Kona Medical, Inc. Energetic modulation of nerves
US8517962B2 (en) 2009-10-12 2013-08-27 Kona Medical, Inc. Energetic modulation of nerves
US8295912B2 (en) 2009-10-12 2012-10-23 Kona Medical, Inc. Method and system to inhibit a function of a nerve traveling with an artery
US20110092880A1 (en) 2009-10-12 2011-04-21 Michael Gertner Energetic modulation of nerves
US8986211B2 (en) 2009-10-12 2015-03-24 Kona Medical, Inc. Energetic modulation of nerves
US8469904B2 (en) 2009-10-12 2013-06-25 Kona Medical, Inc. Energetic modulation of nerves
US8986231B2 (en) 2009-10-12 2015-03-24 Kona Medical, Inc. Energetic modulation of nerves
US20110118600A1 (en) 2009-11-16 2011-05-19 Michael Gertner External Autonomic Modulation
US9119951B2 (en) 2009-10-12 2015-09-01 Kona Medical, Inc. Energetic modulation of nerves
US20160059044A1 (en) 2009-10-12 2016-03-03 Kona Medical, Inc. Energy delivery to intraparenchymal regions of the kidney to treat hypertension
JP6148010B2 (ja) 2009-11-25 2017-06-14 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 焦束されたスキャンラインビーム形成での超音波剪断波撮像
US9445780B2 (en) 2009-12-04 2016-09-20 University Of Virginia Patent Foundation Tracked ultrasound vessel imaging
US10010709B2 (en) 2009-12-16 2018-07-03 The Trustees Of Columbia University In The City Of New York Composition for on-demand ultrasound-triggered drug delivery
CN102573649B (zh) 2009-12-18 2015-07-22 柯尼卡美能达株式会社 超声波诊断装置及使用该装置的检测对象部位的图像显示方法和测量方法
CN102821679B (zh) 2010-02-02 2016-04-27 C·R·巴德股份有限公司 用于导管导航和末端定位的装置和方法
US9144403B2 (en) 2010-02-12 2015-09-29 Delphinus Medical Technologies, Inc. Method of characterizing the pathological response of tissue to a treatment plan
CN102869301B (zh) 2010-02-12 2016-06-29 戴尔菲纳斯医疗科技公司 表征病人的组织的方法
JP6274724B2 (ja) 2010-02-18 2018-02-07 マウイ イマギング,インコーポレーテッド 多開口超音波撮像を用いた点音源送信及び音速補正
EP4122385A1 (de) 2010-05-28 2023-01-25 C. R. Bard, Inc. Einsatzführungssystem für nadeln und medizinische komponenten
EP2912999B1 (de) 2010-05-28 2022-06-29 C. R. Bard, Inc. Vorrichtung zur Verwendung mit einem Nadeleinsatz-Führungssystem
WO2011153268A2 (en) 2010-06-01 2011-12-08 The Trustees Of Columbia University In The City Of New York Devices, methods, and systems for measuring elastic properties of biological tissues
JP5499938B2 (ja) 2010-06-25 2014-05-21 セイコーエプソン株式会社 超音波センサー、測定装置、プローブ、および測定システム
US8768101B1 (en) 2010-06-30 2014-07-01 The United States Of America As Represented By The Secretary Of The Air Force Target image registration and fusion
WO2012019172A1 (en) 2010-08-06 2012-02-09 The Trustees Of Columbia University In The City Of New York Medical imaging contrast devices, methods, and systems
KR101856267B1 (ko) 2010-08-20 2018-05-09 씨. 알. 바드, 인크. Ecg-기반 카테터 팁 배치의 재확인
WO2012051305A2 (en) 2010-10-13 2012-04-19 Mau Imaging, Inc. Multiple aperture probe internal apparatus and cable assemblies
EP3563768A3 (de) 2010-10-13 2020-02-12 Maui Imaging, Inc. Konkave ultraschallwandler und 3d-arrays
WO2012058461A1 (en) 2010-10-29 2012-05-03 C.R.Bard, Inc. Bioimpedance-assisted placement of a medical device
TWI491244B (zh) * 2010-11-23 2015-07-01 Mstar Semiconductor Inc 調整物件三維深度的方法與裝置、以及偵測物件三維深度的方法與裝置
US9224240B2 (en) * 2010-11-23 2015-12-29 Siemens Medical Solutions Usa, Inc. Depth-based information layering in medical diagnostic ultrasound
EP2656610A4 (de) 2010-12-21 2015-05-20 Intel Corp System und verfahren für verbesserte dmvd-verarbeitung
US8730232B2 (en) 2011-02-01 2014-05-20 Legend3D, Inc. Director-style based 2D to 3D movie conversion system and method
US9288476B2 (en) 2011-02-17 2016-03-15 Legend3D, Inc. System and method for real-time depth modification of stereo images of a virtual reality environment
US9407904B2 (en) 2013-05-01 2016-08-02 Legend3D, Inc. Method for creating 3D virtual reality from 2D images
US9113130B2 (en) 2012-02-06 2015-08-18 Legend3D, Inc. Multi-stage production pipeline system
US9282321B2 (en) 2011-02-17 2016-03-08 Legend3D, Inc. 3D model multi-reviewer system
US9241147B2 (en) 2013-05-01 2016-01-19 Legend3D, Inc. External depth map transformation method for conversion of two-dimensional images to stereoscopic images
WO2012137431A1 (ja) * 2011-04-05 2012-10-11 パナソニック株式会社 超音波診断装置、及び、超音波診断画像の出力方法
US9320491B2 (en) 2011-04-18 2016-04-26 The Trustees Of Columbia University In The City Of New York Ultrasound devices methods and systems
WO2012162664A1 (en) 2011-05-26 2012-11-29 The Trustees Of Columbia University In The City Of New York Systems and methods for opening of a tissue barrier in primates
US20130131510A1 (en) * 2011-05-30 2013-05-23 Tadamasa Toma Ultrasound image generation apparatus and ultrasound image generation method
JP6129831B2 (ja) * 2011-07-01 2017-05-17 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 超音波ビームフォーマの対象姿勢に基づく初期化
EP2729073A4 (de) 2011-07-06 2015-03-11 Bard Inc C R Nadellängenbestimmung und -kalibrierung für ein einsatzführungssystem
US20130018268A1 (en) * 2011-07-12 2013-01-17 Nivasonix, Llc Scanning Speed Detection for Freehand High Frequency Ultrasound Transducers
JP5848539B2 (ja) * 2011-07-26 2016-01-27 日立アロカメディカル株式会社 超音波データ処理装置
DE102011080180B4 (de) * 2011-08-01 2013-05-02 Sirona Dental Systems Gmbh Verfahren zur Registrierung mehrerer dreidimensionaler Aufnahmen eines dentalen Objektes
JP5976441B2 (ja) * 2011-08-03 2016-08-23 東芝メディカルシステムズ株式会社 超音波プローブ及び超音波診断装置
USD699359S1 (en) 2011-08-09 2014-02-11 C. R. Bard, Inc. Ultrasound probe head
USD724745S1 (en) 2011-08-09 2015-03-17 C. R. Bard, Inc. Cap for an ultrasound probe
TWI446897B (zh) * 2011-08-19 2014-08-01 Ind Tech Res Inst 超音波影像對齊裝置及其方法
US9202278B2 (en) 2011-08-19 2015-12-01 Adobe Systems Incorporated Plane-based self-calibration for structure from motion
GB201119005D0 (en) * 2011-11-03 2011-12-14 Univ Dundee Ultrasound probe
WO2014113530A1 (en) * 2013-01-17 2014-07-24 Tractus Corporation Method, apparatus and system for complete examination of tissue with hand-held imaging devices having mounted cameras
CN104168837A (zh) * 2011-10-10 2014-11-26 神经束公司 用手持图像设备对组织进行全面检查的方法、装置和系统
US9211107B2 (en) 2011-11-07 2015-12-15 C. R. Bard, Inc. Ruggedized ultrasound hydrogel insert
KR101883947B1 (ko) * 2011-11-14 2018-07-31 현대모비스 주식회사 주차 보조 시스템의 수신 장치 및 수신 방법
WO2013082455A1 (en) 2011-12-01 2013-06-06 Maui Imaging, Inc. Motion detection using ping-based and multiple aperture doppler ultrasound
EP2599444B1 (de) * 2011-12-01 2017-08-02 Theraclion SA Verfahren und Vorrichtung zur Bestimmung des Elastizitätsmoduls eines biologischen Gewebes
KR101456923B1 (ko) * 2011-12-28 2014-11-03 알피니언메디칼시스템 주식회사 애퍼처 컴파운딩을 이용한 초음파 촬영 방법과 그를 위한 초음파 진단 장치
CN104080407B (zh) 2011-12-29 2017-03-01 毛伊图像公司 任意路径的m模式超声成像
KR20130080306A (ko) * 2012-01-04 2013-07-12 삼성전자주식회사 탄성 영상 생성 방법 및 장치
US8891840B2 (en) 2012-02-13 2014-11-18 Siemens Medical Solutions Usa, Inc. Dynamic steered spatial compounding in ultrasound imaging
JP6438769B2 (ja) 2012-02-21 2018-12-19 マウイ イマギング,インコーポレーテッド 多数開口超音波を用いた物質の硬度の決定
US8655040B2 (en) * 2012-03-01 2014-02-18 Empire Technology Development Llc Integrated image registration and motion estimation for medical imaging applications
IN2014DN07243A (de) 2012-03-26 2015-04-24 Maui Imaging Inc
US9081097B2 (en) 2012-05-01 2015-07-14 Siemens Medical Solutions Usa, Inc. Component frame enhancement for spatial compounding in ultrasound imaging
RU2638967C2 (ru) * 2012-05-09 2017-12-19 Конинклейке Филипс Н.В. Матрицы ультразвуковых преобразователей с переменными геометриями участков поверхности
WO2013173369A2 (en) * 2012-05-14 2013-11-21 Delphinus Medical Technologies, Inc. System and method for performing an image-guided biopsy
WO2013188833A2 (en) 2012-06-15 2013-12-19 C.R. Bard, Inc. Apparatus and methods for detection of a removable cap on an ultrasound probe
JP6270843B2 (ja) 2012-08-10 2018-01-31 マウイ イマギング,インコーポレーテッド 多数開口超音波プローブの校正
WO2014031642A1 (en) 2012-08-21 2014-02-27 Maui Imaging, Inc. Ultrasound imaging system memory architecture
US9763641B2 (en) 2012-08-30 2017-09-19 Delphinus Medical Technologies, Inc. Method and system for imaging a volume of tissue with tissue boundary detection
US9510802B2 (en) 2012-09-21 2016-12-06 Guided Therapy Systems, Llc Reflective ultrasound technology for dermatological treatments
WO2014059170A1 (en) 2012-10-10 2014-04-17 The Trustees Of Columbia University In The City Of New York Systems and methods for mechanical mapping of cardiac rhythm
US9007365B2 (en) 2012-11-27 2015-04-14 Legend3D, Inc. Line depth augmentation system and method for conversion of 2D images to 3D images
CN103845081B (zh) * 2012-11-28 2018-04-10 深圳迈瑞生物医疗电子股份有限公司 超声弹性成像系统和方法、实时动态帧间处理方法
US9547937B2 (en) 2012-11-30 2017-01-17 Legend3D, Inc. Three-dimensional annotation system and method
US9131922B2 (en) 2013-01-29 2015-09-15 Eigen, Inc. Calibration for 3D reconstruction of medical images from a sequence of 2D images
US9958420B2 (en) * 2013-02-06 2018-05-01 Bwxt Technical Services Group, Inc. Synthetic data collection method for full matrix capture using an ultrasound array
US9504445B2 (en) * 2013-02-28 2016-11-29 General Electric Company Ultrasound imaging system and method for drift compensation
CN204637350U (zh) 2013-03-08 2015-09-16 奥赛拉公司 美学成像与处理系统、多焦点处理系统和执行美容过程的系统
US9510806B2 (en) 2013-03-13 2016-12-06 Maui Imaging, Inc. Alignment of ultrasound transducer arrays and multiple aperture probe assembly
US10123770B2 (en) 2013-03-13 2018-11-13 Delphinus Medical Technologies, Inc. Patient support system
US20140277035A1 (en) * 2013-03-14 2014-09-18 SonaCare Medical, LLC System and method for r-mode imaging and treatment planning
US9007404B2 (en) 2013-03-15 2015-04-14 Legend3D, Inc. Tilt-based look around effect image enhancement method
US20140293736A1 (en) * 2013-03-31 2014-10-02 National Taiwan University Low complexity motion compensating beamforming system and method thereof
WO2014179277A1 (en) * 2013-04-30 2014-11-06 Tractus Corporation Hand-held imaging devices with position and/or orientation sensors for complete examination of tissue
US9438878B2 (en) 2013-05-01 2016-09-06 Legend3D, Inc. Method of converting 2D video to 3D video using 3D object models
WO2014194291A2 (en) * 2013-05-31 2014-12-04 eagleyemed, Inc. Ultrasound image enhancement and super-resolution
US9247921B2 (en) 2013-06-07 2016-02-02 The Trustees Of Columbia University In The City Of New York Systems and methods of high frame rate streaming for treatment monitoring
WO2014208199A1 (ja) * 2013-06-26 2014-12-31 オリンパスメディカルシステムズ株式会社 超音波観測システム、超音波観測システムの作動方法
WO2014210430A1 (en) 2013-06-27 2014-12-31 Tractus Corporation Systems and methods for tissue mapping
KR102256703B1 (ko) * 2013-07-02 2021-05-27 삼성전자주식회사 초음파 진단 장치 및 그 동작방법
US10945702B2 (en) * 2013-07-24 2021-03-16 Koninklijke Philips N.V. Doppler ultrasound system for diagnosing carotid stenosis
US10034657B2 (en) 2013-07-26 2018-07-31 Siemens Medical Solutions Usa, Inc. Motion artifact suppression for three-dimensional parametric ultrasound imaging
US10322178B2 (en) 2013-08-09 2019-06-18 The Trustees Of Columbia University In The City Of New York Systems and methods for targeted drug delivery
US10028723B2 (en) 2013-09-03 2018-07-24 The Trustees Of Columbia University In The City Of New York Systems and methods for real-time, transcranial monitoring of blood-brain barrier opening
US9883848B2 (en) 2013-09-13 2018-02-06 Maui Imaging, Inc. Ultrasound imaging using apparent point-source transmit transducer
KR102185362B1 (ko) * 2013-10-08 2020-12-02 삼성전자주식회사 초음파 프로브 및 이를 포함한 의료 장치
JP2014100590A (ja) * 2014-01-14 2014-06-05 Seiko Epson Corp 超音波プローブ、超音波センサー、測定装置、および測定システム
EP3073910B1 (de) 2014-02-06 2020-07-15 C.R. Bard, Inc. Systeme zur führung und platzierung einer intravaskulären vorrichtung
SG11201608691YA (en) 2014-04-18 2016-11-29 Ulthera Inc Band transducer ultrasound therapy
US10194889B2 (en) * 2014-04-23 2019-02-05 Duke University Methods, systems and computer program products for multi-resolution imaging and analysis
US10143443B2 (en) 2014-05-05 2018-12-04 Delphinus Medical Technologies, Inc. Method for representing tissue stiffness
WO2015173716A1 (en) * 2014-05-12 2015-11-19 Imagistx, Inc. Medical-imaging system and method thereof
EP3155445A1 (de) * 2014-06-13 2017-04-19 B-K Medical ApS Dreidimensionale (3d) und/oder vierdimensionale (4d) ultraschallbildgebung
US10743837B2 (en) 2014-08-04 2020-08-18 Delphinus Medical Technologies, Inc. Ultrasound waveform tomography method and system
US10285667B2 (en) 2014-08-05 2019-05-14 Delphinus Medical Technologies, Inc. Method for generating an enhanced image of a volume of tissue
JP6722656B2 (ja) 2014-08-18 2020-07-15 マウイ イマギング,インコーポレーテッド ネットワークベース超音波イメージングシステム
KR20160032586A (ko) * 2014-09-16 2016-03-24 삼성전자주식회사 관심영역 크기 전이 모델 기반의 컴퓨터 보조 진단 장치 및 방법
KR20160041442A (ko) * 2014-10-07 2016-04-18 삼성전자주식회사 진단 지원 장치 및 방법
US9844360B2 (en) * 2014-10-27 2017-12-19 Clear Guide Medical, Inc. System and devices for image targeting
US10925579B2 (en) 2014-11-05 2021-02-23 Otsuka Medical Devices Co., Ltd. Systems and methods for real-time tracking of a target tissue using imaging before and during therapy delivery
ES2692368T3 (es) * 2014-11-07 2018-12-03 Photrack Ag Método y sistema para determinar la velocidad y nivel de una superficie de fluido en movimiento
CN107106124B (zh) 2014-11-18 2021-01-08 C·R·巴德公司 具有自动图像呈现的超声成像系统
US10905396B2 (en) 2014-11-18 2021-02-02 C. R. Bard, Inc. Ultrasound imaging system having automatic image presentation
KR20160066927A (ko) * 2014-12-03 2016-06-13 삼성전자주식회사 컴퓨터 보조 진단 지원 장치 및 방법
US10973584B2 (en) * 2015-01-19 2021-04-13 Bard Access Systems, Inc. Device and method for vascular access
US10117642B2 (en) * 2015-02-24 2018-11-06 Fujifilm Sonosite, Inc. Ultrasound transducer with sealed, active cooling
HU231249B1 (hu) 2015-06-26 2022-05-28 Dermus Kft. Eljárás ultrahangkép előállítására és számítógépes adathordozó
US10349890B2 (en) 2015-06-26 2019-07-16 C. R. Bard, Inc. Connector interface for ECG-based catheter positioning system
US10849650B2 (en) 2015-07-07 2020-12-01 Eigen Health Services, Llc Transperineal needle guidance
JP6078732B1 (ja) * 2015-08-04 2017-02-15 本多電子株式会社 超音波プローブ
US9609307B1 (en) 2015-09-17 2017-03-28 Legend3D, Inc. Method of converting 2D video to 3D video using machine learning
US10716544B2 (en) 2015-10-08 2020-07-21 Zmk Medical Technologies Inc. System for 3D multi-parametric ultrasound imaging
AU2017208980B2 (en) 2016-01-18 2022-03-31 Ulthera, Inc. Compact ultrasound device having annular ultrasound array peripherally electrically connected to flexible printed circuit board and method of assembly thereof
CN108778530B (zh) 2016-01-27 2021-07-27 毛伊图像公司 具有稀疏阵列探测器的超声成像
US11000207B2 (en) 2016-01-29 2021-05-11 C. R. Bard, Inc. Multiple coil system for tracking a medical device
JP6675599B2 (ja) * 2016-02-24 2020-04-01 国立大学法人 名古屋工業大学 生体内超音波三次元画像生成装置およびそれを用いた生体動脈血管形状検出装置
EP3435875B1 (de) * 2016-03-30 2023-05-17 Koninklijke Philips N.V. Phasengesteuerte intravaskuläre vorrichtungen, systeme mit fotoakustischen und ultraschalltechniken
US10509097B2 (en) * 2016-03-31 2019-12-17 Hughes Network Systems, Llc Correcting satellite pointing direction
US11744468B2 (en) * 2016-04-27 2023-09-05 The Johns Hopkins University General B-mode surface imaging
WO2017200515A1 (en) * 2016-05-16 2017-11-23 Analogic Corporation 3-d us volume from 2-d images from freehand rotation and/or translation of ultrasound probe
US11123045B2 (en) * 2016-05-26 2021-09-21 Canon Medical Systems Corporation Ultrasonic diagnostic apparatus and medical image processing apparatus
CN107689072A (zh) * 2016-06-12 2018-02-13 中慧医学成像有限公司 一种三维图像成像方法和系统
KR102593310B1 (ko) 2016-08-16 2023-10-25 얼테라, 인크 이미징 오정렬을 감소시키도록 구성된 초음파 이미징 시스템, 초음파 이미징 모듈 및 이미징 오정렬을 감소시키는 방법
US11147539B2 (en) * 2017-09-18 2021-10-19 General Electric Company Methods and systems for blood speckle imaging
EP3727158B1 (de) * 2017-12-19 2022-02-09 Koninklijke Philips N.V. Kombination von bildbasierter und trägheitssondenverfolgung
US11944849B2 (en) 2018-02-20 2024-04-02 Ulthera, Inc. Systems and methods for combined cosmetic treatment of cellulite with ultrasound
WO2019199781A1 (en) * 2018-04-09 2019-10-17 Butterfly Network, Inc. Methods and apparatus for configuring an ultrasound system with imaging parameter values
EP3852622A1 (de) 2018-10-16 2021-07-28 Bard Access Systems, Inc. Sicherheitsausgerüstete verbindungssysteme und verfahren dafür zur herstellung von elektrischen verbindungen
JP6739501B2 (ja) * 2018-11-19 2020-08-12 ゼネラル・エレクトリック・カンパニイ 超音波プローブ及び超音波装置
CN109752691B (zh) * 2018-12-13 2022-12-23 中国船舶重工集团公司第七一0研究所 一种分布式基阵联合定位方法
JP2022530506A (ja) 2019-05-01 2022-06-29 バード・アクセス・システムズ,インコーポレーテッド 穿刺装置、穿刺装置を含む穿刺システム、およびそれらの方法
EP3748397A1 (de) * 2019-06-03 2020-12-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und anordnung zur ortsaufgelösten erfassung von schallemissionen, insbesondere ultraschallemissionen
US11123046B1 (en) 2020-05-05 2021-09-21 Techsomed Medical Technologies Ltd. Monitoring thermal ablation using registration of B-mode ultrasound images
CN111596544B (zh) * 2020-07-22 2020-10-27 四川大学 一种基于模糊pd的频率跟踪搜索方法
US20220031281A1 (en) * 2020-07-29 2022-02-03 Liminal Sciences, Inc. Methods and apparatus for pulsatility-mode sensing
JP7461246B2 (ja) 2020-08-08 2024-04-03 日本電波工業株式会社 超音波探触子及びその製造方法
JP7461247B2 (ja) 2020-08-08 2024-04-03 日本電波工業株式会社 超音波探触子
CN112014817B (zh) * 2020-08-24 2023-06-02 中国电子科技集团公司第三十八研究所 一种空间自旋目标三维重构方法
US20220117584A1 (en) * 2020-10-20 2022-04-21 GE Precision Healthcare LLC System And Method Of Signal Processing For Ultrasound Arrays With Mechanically Adjustable Transducer Shapes
JPWO2022230379A1 (de) * 2021-04-30 2022-11-03
CN115795230A (zh) * 2022-10-20 2023-03-14 广东工业大学 一种压电换能器的全状态频率跟踪方法及系统

Family Cites Families (179)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US30397A (en) * 1860-10-16 Window-blind fastener
US3640271A (en) * 1969-06-30 1972-02-08 Ibm Blood flow pressure measurement technique employing injected bubbled and ultrasonic frequency scanning
US3888238A (en) * 1973-09-28 1975-06-10 Univ Stanford Ultrasonic blood vessel imaging system and method
US4219811A (en) * 1975-02-07 1980-08-26 Hughes Aircraft Company Synthetic array autofocus system
USRE30397E (en) 1976-04-27 1980-09-09 Three-dimensional ultrasonic imaging of animal soft tissue
US4140022B1 (en) * 1977-12-20 1995-05-16 Hewlett Packard Co Acoustic imaging apparatus
US4241608A (en) * 1978-01-24 1980-12-30 Unirad Corporation Ultrasonic scanner
US4244026A (en) * 1978-11-06 1981-01-06 General Electric Company Velocity measuring correlation sonar
JPS5769847A (en) * 1980-10-17 1982-04-28 Olympus Optical Co Ultrasonic diagnostic device
JPS57161672A (en) * 1981-03-31 1982-10-05 Fujitsu Ltd Measuring method utilizing ultrasonic wave
US4339247A (en) 1981-04-27 1982-07-13 Battelle Development Corporation Acoustic degasification of pressurized liquids
US4580219A (en) * 1983-05-02 1986-04-01 General Electric Company Method for reducing image artifacts due to projection measurement inconsistencies
JP2531605B2 (ja) * 1984-02-24 1996-09-04 株式会社東芝 画像の位置合せ装置
NL8501908A (nl) * 1985-07-03 1987-02-02 Tno Tastsensor.
US5000185A (en) * 1986-02-28 1991-03-19 Cardiovascular Imaging Systems, Inc. Method for intravascular two-dimensional ultrasonography and recanalization
DE3637926C1 (de) * 1986-11-05 1987-11-26 Schering Ag Ultraschall-Manometrieverfahren in einer Fluessigkeit mittels Mikroblaeschen
US5111823A (en) * 1989-04-20 1992-05-12 National Fertility Institute Apparatus and method for generating echographic images
US4841977A (en) * 1987-05-26 1989-06-27 Inter Therapy, Inc. Ultra-thin acoustic transducer and balloon catheter using same in imaging array subassembly
US4917097A (en) * 1987-10-27 1990-04-17 Endosonics Corporation Apparatus and method for imaging small cavities
GB2212267B (en) * 1987-11-11 1992-07-29 Circulation Res Ltd Methods and apparatus for the examination and treatment of internal organs
US5040537A (en) * 1987-11-24 1991-08-20 Hitachi, Ltd. Method and apparatus for the measurement and medical treatment using an ultrasonic wave
DE3741201A1 (de) * 1987-12-02 1989-06-15 Schering Ag Ultraschallarbeitsverfahren und mittel zu dessen durchfuehrung
US5064290A (en) * 1987-12-12 1991-11-12 Renishaw Plc Opto-electronic scale-reading apparatus wherein phase-separated secondary orders of diffraction are generated
US5425366A (en) * 1988-02-05 1995-06-20 Schering Aktiengesellschaft Ultrasonic contrast agents for color Doppler imaging
US5158071A (en) * 1988-07-01 1992-10-27 Hitachi, Ltd. Ultrasonic apparatus for therapeutical use
US5410516A (en) * 1988-09-01 1995-04-25 Schering Aktiengesellschaft Ultrasonic processes and circuits for performing them
DE3829999A1 (de) 1988-09-01 1990-03-15 Schering Ag Ultraschallverfahren und schaltungen zu deren durchfuehrung
US5014710A (en) * 1988-09-13 1991-05-14 Acuson Corporation Steered linear color doppler imaging
US4947852A (en) * 1988-10-05 1990-08-14 Cardiometrics, Inc. Apparatus and method for continuously measuring volumetric blood flow using multiple transducer and catheter for use therewith
US4937775A (en) * 1988-11-21 1990-06-26 General Electric Company Apparatus for the cross-correlation of a pair of complex sampled signals
US5159931A (en) * 1988-11-25 1992-11-03 Riccardo Pini Apparatus for obtaining a three-dimensional reconstruction of anatomic structures through the acquisition of echographic images
JP2898644B2 (ja) * 1988-12-26 1999-06-02 株式会社日立メディコ 超音波断層装置
FR2643252B1 (fr) * 1989-02-21 1991-06-07 Technomed Int Sa Appareil de destruction selective de cellules incluant les tissus mous et les os a l'interieur du corps d'un etre vivant par implosion de bulles de gaz
JP2964147B2 (ja) * 1989-03-20 1999-10-18 株式会社日立メディコ 超音波診断装置
US4972199A (en) * 1989-03-30 1990-11-20 Hughes Aircraft Company Low cross-polarization radiator of circularly polarized radiation
JP2758199B2 (ja) * 1989-03-31 1998-05-28 株式会社東芝 超音波探触子
US5107844A (en) * 1989-04-06 1992-04-28 Olympus Optical Co., Ltd. Ultrasonic observing apparatus
GB2233094B (en) * 1989-05-26 1994-02-09 Circulation Res Ltd Methods and apparatus for the examination and treatment of internal organs
US5435311A (en) * 1989-06-27 1995-07-25 Hitachi, Ltd. Ultrasound therapeutic system
JP3086693B2 (ja) * 1989-07-06 2000-09-11 株式会社東芝 超音波診断装置
JPH0368349A (ja) * 1989-08-07 1991-03-25 Hitachi Medical Corp 体腔内挿入用超音波バイプレーン探触子
JPH0341410U (de) * 1989-08-30 1991-04-19
US5315512A (en) * 1989-09-01 1994-05-24 Montefiore Medical Center Apparatus and method for generating image representations of a body utilizing an ultrasonic imaging subsystem and a three-dimensional digitizer subsystem
US5107837A (en) * 1989-11-17 1992-04-28 Board Of Regents, University Of Texas Method and apparatus for measurement and imaging of tissue compressibility or compliance
US5070879A (en) * 1989-11-30 1991-12-10 Acoustic Imaging Technologies Corp. Ultrasound imaging method and apparatus
US5580575A (en) 1989-12-22 1996-12-03 Imarx Pharmaceutical Corp. Therapeutic drug delivery systems
US5916210A (en) 1990-01-26 1999-06-29 Intraluminal Therapeutics, Inc. Catheter for laser treatment of atherosclerotic plaque and other tissue abnormalities
US5161537A (en) * 1990-03-26 1992-11-10 Matsushita Electric Industrial Co., Ltd. Ultrasonic diagnostic system
JPH04285546A (ja) * 1991-03-15 1992-10-09 Toshiba Corp 超音波診断装置
US5186176A (en) * 1990-04-11 1993-02-16 Kabushiki Kaisha Toshiba Ultrasonic diagnosis apparatus
JPH03297475A (ja) * 1990-04-16 1991-12-27 Ken Ishihara 共振音波により薬物の放出を制御する方法
GB9009529D0 (en) 1990-04-27 1990-06-20 Ici Plc Biocide composition and use
US5215680A (en) * 1990-07-10 1993-06-01 Cavitation-Control Technology, Inc. Method for the production of medical-grade lipid-coated microbubbles, paramagnetic labeling of such microbubbles and therapeutic uses of microbubbles
US5123415A (en) * 1990-07-19 1992-06-23 Advanced Technology Laboratories, Inc. Ultrasonic imaging by radial scan of trapezoidal sector
US5103129A (en) * 1990-07-26 1992-04-07 Acoustic Imaging Technologies Corporation Fixed origin biplane ultrasonic transducer
JP3108426B2 (ja) * 1990-07-26 2000-11-13 株式会社東芝 超音波プローブ
JP3180958B2 (ja) * 1990-08-17 2001-07-03 株式会社東芝 超音波診断装置
US5231483A (en) * 1990-09-05 1993-07-27 Visionary Products, Inc. Smart tracking system
JP3178829B2 (ja) * 1990-09-06 2001-06-25 株式会社東芝 超音波プローブ
JP2553787Y2 (ja) * 1990-09-10 1997-11-12 株式会社島津製作所 体腔内用超音波プローブ
JPH04126137A (ja) * 1990-09-17 1992-04-27 Aloka Co Ltd 超音波ドプラ診断装置
IL95743A (en) * 1990-09-19 1993-02-21 Univ Ramot Method of measuring blood flow
US5197477A (en) * 1990-10-12 1993-03-30 Advanced Technology Laboratories, Inc. Ultrasonic doppler flow measurement system with tissue motion discrimination
JPH0467410U (de) * 1990-10-22 1992-06-15
JPH0793927B2 (ja) * 1990-11-02 1995-10-11 富士通株式会社 超音波カラードプラ診断装置
GB9025431D0 (en) * 1990-11-22 1991-01-09 Advanced Tech Lab Three dimensional ultrasonic imaging
JP2715762B2 (ja) * 1990-11-30 1998-02-18 富士写真光機株式会社 超音波検査装置
JPH04256739A (ja) * 1991-02-07 1992-09-11 Hitachi Ltd 超音波診断装置
US5156154A (en) * 1991-03-08 1992-10-20 Telectronics Pacing Systems, Inc. Monitoring the hemodynamic state of a patient from measurements of myocardial contractility using doppler ultrasound techniques
JP2530424Y2 (ja) * 1991-03-15 1997-03-26 アロカ 株式会社 経食道超音波探触子
DE4209394C2 (de) * 1991-03-26 1996-07-18 Hitachi Ltd Ultraschallabbildungsgerät
US5358466A (en) * 1991-04-15 1994-10-25 Kabushiki Kaisha Toshiba Apparatus for destroying a calculus
JP2592201Y2 (ja) * 1991-04-25 1999-03-17 ジーイー横河メディカルシステム株式会社 超音波診断装置
US5127409A (en) * 1991-04-25 1992-07-07 Daigle Ronald E Ultrasound Doppler position sensing
US5233994A (en) * 1991-05-13 1993-08-10 Advanced Technology Laboratories, Inc. Detection of tissue abnormality through blood perfusion differentiation
US5903319A (en) * 1991-05-13 1999-05-11 Interactive Pictures Corporation Method for eliminating temporal and spacial distortion from interlaced video signals
JPH04347147A (ja) * 1991-05-23 1992-12-02 Fujitsu Ltd 超音波診断装置
AU687723B2 (en) * 1991-06-12 1998-03-05 Florida Atlantic University Research Corp. Detecting atherosclerosis in humans
US5161535A (en) * 1991-06-24 1992-11-10 Hewlett-Packard Company Medical ultrasound imaging system having a partitioned menu
US5327895A (en) * 1991-07-10 1994-07-12 Kabushiki Kaisha Toshiba Ultrasonic probe and ultrasonic diagnosing system using ultrasonic probe
GB2258364A (en) * 1991-07-30 1993-02-03 Intravascular Res Ltd Ultrasonic tranducer
US5608849A (en) 1991-08-27 1997-03-04 King, Jr.; Donald Method of visual guidance for positioning images or data in three-dimensional space
US5377682A (en) * 1991-09-05 1995-01-03 Matsushita Electric Industrial Co., Ltd. Ultrasonic probe for transmission and reception of ultrasonic wave and ultrasonic diagnostic apparatus including ultrasonic probe
US5199437A (en) * 1991-09-09 1993-04-06 Sensor Electronics, Inc. Ultrasonic imager
US5409688A (en) * 1991-09-17 1995-04-25 Sonus Pharmaceuticals, Inc. Gaseous ultrasound contrast media
US5713363A (en) 1991-11-08 1998-02-03 Mayo Foundation For Medical Education And Research Ultrasound catheter and method for imaging and hemodynamic monitoring
US5704361A (en) 1991-11-08 1998-01-06 Mayo Foundation For Medical Education And Research Volumetric image ultrasound transducer underfluid catheter system
US5325860A (en) * 1991-11-08 1994-07-05 Mayo Foundation For Medical Education And Research Ultrasonic and interventional catheter and method
US5313948A (en) * 1991-11-28 1994-05-24 Aloka Co., Ltd. Ultrasonic diagnostic apparatus
US5186177A (en) * 1991-12-05 1993-02-16 General Electric Company Method and apparatus for applying synthetic aperture focusing techniques to a catheter based system for high frequency ultrasound imaging of small vessels
EP0546623B1 (de) * 1991-12-11 1997-09-24 Laboratoires D'electronique Philips S.A.S. Ultraschallechograph zur Messung hoher Geschwindigkeiten von Blutströmungen
JPH0680964A (ja) * 1991-12-27 1994-03-22 Sogo Yatsukou Kk 活性酸素消去剤
US5255683A (en) * 1991-12-30 1993-10-26 Sound Science Limited Partnership Methods of and systems for examining tissue perfusion using ultrasonic contrast agents
US5287753A (en) * 1992-05-02 1994-02-22 Advanced Technology Laboratories, Inc. Continuous display of peak and mean blood flow velocities
JPH05317309A (ja) * 1992-05-21 1993-12-03 Hitachi Medical Corp 穿刺用超音波探触子
US5305104A (en) * 1992-07-27 1994-04-19 The Trustees Of Columbia University In The City Of New York Digitally assisted motion compensated deinterlacing for enhanced definition television
US5320099A (en) * 1992-08-07 1994-06-14 Trustees Of The University Of Penna. MR angiography using steady-state transport-induced adiabatic fast passage
JP3429761B2 (ja) * 1992-09-16 2003-07-22 株式会社 日立製作所 超音波照射装置及びそれによる処理装置
US5622174A (en) * 1992-10-02 1997-04-22 Kabushiki Kaisha Toshiba Ultrasonic diagnosis apparatus and image displaying system
US5285788A (en) * 1992-10-16 1994-02-15 Acuson Corporation Ultrasonic tissue imaging method and apparatus with doppler velocity and acceleration processing
JP2572906Y2 (ja) * 1992-11-02 1998-05-25 ジーイー横河メディカルシステム株式会社 超音波診断装置
US5368037A (en) * 1993-02-01 1994-11-29 Endosonics Corporation Ultrasound catheter
US5410205A (en) * 1993-02-11 1995-04-25 Hewlett-Packard Company Ultrasonic transducer having two or more resonance frequencies
US5381067A (en) * 1993-03-10 1995-01-10 Hewlett-Packard Company Electrical impedance normalization for an ultrasonic transducer array
JP3354619B2 (ja) * 1993-03-12 2002-12-09 オリンパス光学工業株式会社 超音波診断装置
US5396285A (en) * 1993-05-07 1995-03-07 Acuson Corporation Ultrasound imaging method and apparatus with dynamic non-linear filtering
US5417213A (en) * 1993-06-07 1995-05-23 Prince; Martin R. Magnetic resonance arteriography with dynamic intravenous contrast agents
US5433202A (en) * 1993-06-07 1995-07-18 Westinghouse Electric Corporation High resolution and high contrast ultrasound mammography system with heart monitor and boundary array scanner providing electronic scanning
US5469849A (en) * 1993-06-14 1995-11-28 Kabushiki Kaisha Toshiba Ultrasound diagnosis apparatus
US5434827A (en) * 1993-06-15 1995-07-18 Hewlett-Packard Company Matching layer for front acoustic impedance matching of clinical ultrasonic tranducers
US5456255A (en) * 1993-07-12 1995-10-10 Kabushiki Kaisha Toshiba Ultrasonic diagnosis apparatus
US5379642A (en) * 1993-07-19 1995-01-10 Diasonics Ultrasound, Inc. Method and apparatus for performing imaging
US5497776A (en) * 1993-08-05 1996-03-12 Olympus Optical Co., Ltd. Ultrasonic image diagnosing apparatus for displaying three-dimensional image
US5398691A (en) * 1993-09-03 1995-03-21 University Of Washington Method and apparatus for three-dimensional translumenal ultrasonic imaging
US5558091A (en) 1993-10-06 1996-09-24 Biosense, Inc. Magnetic determination of position and orientation
US5386830A (en) * 1993-10-25 1995-02-07 Advanced Technology Laboratories, Inc. Ultrasonic pulsed doppler flow measurement system with two dimensional autocorrelation processing
US5433207A (en) * 1993-11-15 1995-07-18 Pretlow, Iii; Robert A. Method and apparatus to characterize ultrasonically reflective contrast agents
US5402793A (en) * 1993-11-19 1995-04-04 Advanced Technology Laboratories, Inc. Ultrasonic transesophageal probe for the imaging and diagnosis of multiple scan planes
US5471988A (en) * 1993-12-24 1995-12-05 Olympus Optical Co., Ltd. Ultrasonic diagnosis and therapy system in which focusing point of therapeutic ultrasonic wave is locked at predetermined position within observation ultrasonic scanning range
JP3202124B2 (ja) * 1994-02-15 2001-08-27 松下電器産業株式会社 超音波診断装置
US5349262A (en) * 1994-02-22 1994-09-20 Hewlett-Packard Company Phased array ultrasound imaging system with dynamic elevation focusing
JP3378082B2 (ja) * 1994-04-12 2003-02-17 富士通株式会社 超音波診断用プローブ
JPH0824257A (ja) * 1994-07-15 1996-01-30 Toshiba Corp 超音波診断装置
JPH0838473A (ja) * 1994-07-29 1996-02-13 Hitachi Medical Corp 超音波診断装置
US5549111A (en) * 1994-08-05 1996-08-27 Acuson Corporation Method and apparatus for adjustable frequency scanning in ultrasound imaging
US5570691A (en) * 1994-08-05 1996-11-05 Acuson Corporation Method and apparatus for real-time, concurrent adaptive focusing in an ultrasound beamformer imaging system
US5469851A (en) * 1994-08-09 1995-11-28 Hewlett-Packard Company Time multiplexed digital ultrasound beamformer
US5517537A (en) * 1994-08-18 1996-05-14 General Electric Company Integrated acoustic leak detection beamforming system
GB2293240B (en) 1994-09-15 1998-05-20 Intravascular Res Ltd Ultrasonic visualisation method and apparatus
US5606975A (en) 1994-09-19 1997-03-04 The Board Of Trustees Of The Leland Stanford Junior University Forward viewing ultrasonic imaging catheter
US5526816A (en) * 1994-09-22 1996-06-18 Bracco Research S.A. Ultrasonic spectral contrast imaging
US5540909A (en) 1994-09-28 1996-07-30 Alliance Pharmaceutical Corp. Harmonic ultrasound imaging with microbubbles
US5443071A (en) * 1994-10-11 1995-08-22 Siemens Medical Systems, Inc. Quantitative color flow
US5487388A (en) * 1994-11-01 1996-01-30 Interspec. Inc. Three dimensional ultrasonic scanning devices and techniques
US5474073A (en) * 1994-11-22 1995-12-12 Advanced Technology Laboratories, Inc. Ultrasonic diagnostic scanning for three dimensional display
US5456257A (en) * 1994-11-23 1995-10-10 Advanced Technology Laboratories, Inc. Ultrasonic detection of contrast agents
US5531224A (en) * 1994-11-23 1996-07-02 General Electric Company Framem interpolator for increasing apparent acoustic frame rate in ultrasound imaging
US5482046A (en) * 1994-11-23 1996-01-09 General Electric Company Acoustic power control technique
US5471990A (en) * 1994-11-23 1995-12-05 Advanced Technology Laboratories, Inc. Ultrasonic doppler power measurement and display system
US5568813A (en) * 1994-11-23 1996-10-29 General Electric Company Method for combining ultrasound vector data from multiple firings to improve image quality
US5724976A (en) 1994-12-28 1998-03-10 Kabushiki Kaisha Toshiba Ultrasound imaging preferable to ultrasound contrast echography
US5612713A (en) * 1995-01-06 1997-03-18 Texas Instruments Incorporated Digital micro-mirror device with block data loading
FR2729266A1 (fr) * 1995-01-10 1996-07-12 France Telecom Procede d'interpolation d'images
US5492125A (en) * 1995-02-10 1996-02-20 University Of Washington Ultrasound signal processing apparatus
US5538004A (en) * 1995-02-28 1996-07-23 Hewlett-Packard Company Method and apparatus for tissue-centered scan conversion in an ultrasound imaging system
US5678554A (en) 1996-07-02 1997-10-21 Acuson Corporation Ultrasound transducer for multiple focusing and method for manufacture thereof
US5608690A (en) 1995-03-02 1997-03-04 Acuson Corporation Transmit beamformer with frequency dependent focus
US5479926A (en) * 1995-03-10 1996-01-02 Acuson Corporation Imaging system display processor
US5579768A (en) 1995-03-21 1996-12-03 Acuson Corporation Automatic gain compensation in an ultrasound imaging system
US5515853A (en) * 1995-03-28 1996-05-14 Sonometrics Corporation Three-dimensional digital ultrasound tracking system
US5797849A (en) 1995-03-28 1998-08-25 Sonometrics Corporation Method for carrying out a medical procedure using a three-dimensional tracking and imaging system
US5899861A (en) 1995-03-31 1999-05-04 Siemens Medical Systems, Inc. 3-dimensional volume by aggregating ultrasound fields of view
US5655535A (en) 1996-03-29 1997-08-12 Siemens Medical Systems, Inc. 3-Dimensional compound ultrasound field of view
US5575286A (en) 1995-03-31 1996-11-19 Siemens Medical Systems, Inc. Method and apparatus for generating large compound ultrasound image
US5920660A (en) * 1995-04-05 1999-07-06 Hitachi Medical Corporation Tomogram interpolation method for executing interpolation calculation by using pixel values on projection line
US5617862A (en) 1995-05-02 1997-04-08 Acuson Corporation Method and apparatus for beamformer system with variable aperture
US5579770A (en) 1995-05-02 1996-12-03 Acuson Corporation Multiple transmit zone splicing
US5601086A (en) 1995-05-12 1997-02-11 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Beat frequency ultrasonic microsphere contrast agent detection system
US5560364A (en) 1995-05-12 1996-10-01 The Board Of Regents Of The University Of Nebraska Suspended ultra-sound induced microbubble cavitation imaging
JP3865800B2 (ja) 1995-05-15 2007-01-10 株式会社東芝 超音波診断装置
US5558092A (en) 1995-06-06 1996-09-24 Imarx Pharmaceutical Corp. Methods and apparatus for performing diagnostic and therapeutic ultrasound simultaneously
JP2001504603A (ja) 1995-06-15 2001-04-03 ザ・リージエント・オブ・ザ・ユニバーシテイ・オブ・ミシガン 二次元超音波から三次元画像を構成し表示する方法および装置
US5566674A (en) 1995-06-30 1996-10-22 Siemens Medical Systems, Inc. Method and apparatus for reducing ultrasound image shadowing and speckle
US5503153A (en) * 1995-06-30 1996-04-02 Siemens Medical Systems, Inc. Noise suppression method utilizing motion compensation for ultrasound images
US5575290A (en) 1995-06-30 1996-11-19 Siemens Medical Systems, Inc. Coarse-fine ultrasound transducer array for medical imaging
US5582173A (en) 1995-09-18 1996-12-10 Siemens Medical Systems, Inc. System and method for 3-D medical imaging using 2-D scan data
US5601085A (en) 1995-10-02 1997-02-11 Nycomed Imaging As Ultrasound imaging
US5588435A (en) 1995-11-22 1996-12-31 Siemens Medical Systems, Inc. System and method for automatic measurement of body structures
JP3691895B2 (ja) 1996-01-19 2005-09-07 株式会社日立メディコ 超音波診断装置
US5577505A (en) 1996-02-06 1996-11-26 Hewlett-Packard Company Means for increasing sensitivity in non-linear ultrasound imaging systems
AU1983397A (en) 1996-02-29 1997-09-16 Acuson Corporation Multiple ultrasound image registration system, method and transducer
US5699805A (en) 1996-06-20 1997-12-23 Mayo Foundation For Medical Education And Research Longitudinal multiplane ultrasound transducer underfluid catheter system
US5632277A (en) 1996-06-28 1997-05-27 Siemens Medical Systems, Inc. Ultrasound imaging system employing phase inversion subtraction to enhance the image
US5735281A (en) 1996-08-09 1998-04-07 Hewlett-Packard Company Method of enhancing and prolonging the effect of ultrasound contrast agents
US5724978A (en) 1996-09-20 1998-03-10 Cardiovascular Imaging Systems, Inc. Enhanced accuracy of three-dimensional intraluminal ultrasound (ILUS) image reconstruction
US5956418A (en) 1996-12-10 1999-09-21 Medsim Ltd. Method of mosaicing ultrasonic volumes for visual simulation
FR2759892A1 (fr) 1996-12-31 1998-08-28 Philips Electronics Nv Systeme d'echographie ultrasonore pour l'examen des arteres
US5876345A (en) * 1997-02-27 1999-03-02 Acuson Corporation Ultrasonic catheter, system and method for two dimensional imaging or three-dimensional reconstruction
US5876342A (en) 1997-06-30 1999-03-02 Siemens Medical Systems, Inc. System and method for 3-D ultrasound imaging and motion estimation

Also Published As

Publication number Publication date
US6222948B1 (en) 2001-04-24
US6201900B1 (en) 2001-03-13
US6014473A (en) 2000-01-11
JP2001521404A (ja) 2001-11-06
EP0883860B1 (de) 2006-08-23
US6132376A (en) 2000-10-17
EP0883860A4 (de) 2002-03-06
WO1997032277A1 (en) 1997-09-04
DE69736549D1 (de) 2006-10-05
JP4237256B2 (ja) 2009-03-11
AU1983397A (en) 1997-09-16
US6360027B1 (en) 2002-03-19
EP0883860A1 (de) 1998-12-16
US6102865A (en) 2000-08-15

Similar Documents

Publication Publication Date Title
DE69736549T2 (de) System, verfahren und wandler zum ausrichten mehrerer ultraschallbilder
DE19828947B4 (de) System und Verfahren zur dreidimensionalen (3-D) Ultraschallbildgabe und Bewegungsabschätzung
DE19819801B4 (de) Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung unter Verwendung eines Wandlerarrays mit gleichförmiger Erhebungsbündelweite
DE60309486T2 (de) Zwei-EBENEN ULTRASCHALLABBILDUNG MIT EINEM DIE GEGENSEITIGE EBENENORIENTIERUNG ABBILDENDEN SYMBOL
DE10141516B4 (de) Medizinische Diagnostische Ultraschallabbildungsverfahren für ein erweitertes Betrachtungsfeld
DE19819832B4 (de) Verfahren zum Verbessern der Segmentierung bei einer dreidimensionalen Ultraschall-Bildgebung
DE69923764T2 (de) Diagnostisches Ultraschall-Bilderzeugungssystem mit adaptiver, räumlicher Bildzusammensetzung
DE69915926T2 (de) Verfahren und Echographiegerät zur Erfassung von Elastizitätsveränderungen
DE69831138T2 (de) System zur darstellung eines zweidimensionalen ultraschallbildes in einer dreidimensionalen bildbetrachtungsumgebung
DE60222476T2 (de) Ultraschallwandler
DE19819892B4 (de) Verfahren und Einrichtung zum Segmentieren von B-Mode-Intensitätsdaten unter Verwendung von Doppler-Verschiebungsdaten bei dreidimensionaler Ultraschall-Bildgebung
DE69931647T2 (de) Zoom- ultraschall- bilderzeugung mit verwendung von unabhängigen bearbeitungs- kanälen
DE69933851T2 (de) Verfahren zur Reduzierung der Bildschärfeverzerrung in räumlich vermehrten Diagnostikbildern
DE69936418T2 (de) Vorrichtung für dreidimensionale Ultraschall-Abbildung mit Kontrastmitteln und harmonischen Echos
DE69729400T2 (de) Dreidimensionale Ultraschallabtastung von bewegtem Gewebe
DE19611990C2 (de) Verfahren und Vorrichtung zur Erzeugung von großen, zusammengesetzten Ultraschallbildern
DE60122991T2 (de) Verfahren und Gerät zur Verriegelung des abgetasteten Volumens auf einem beweglichen Blutgefäss in Doppler- Impuls- Ultrachallbilderzeugung
DE102005037806A1 (de) Verfahren und Vorrichtung zur Vergrösserung des Sichtfelds bei der Ultraschallbildgebung
DE10243152A1 (de) Ultraschalldiagnoseverfahren und Gerät zur Bilderzeugung aus mehreren 2D-Schnitten
DE10238747A1 (de) Verfahren und Gerät zur verbesserten Orts- und Zeitauflösung bei der Ultraschallabbildung
DE202004021722U1 (de) Vorrichtung zum Gewinnen eines Volumenscans eines sich periodisch bewegenden Objekts
DE69932763T2 (de) Verfahren und Geräte zur dreidimensionalen Ultraschall-Bilderzeugung
DE19910771A1 (de) Verfahren und Einrichtung zum Nachfolgen einer Abtastebenentbewegung beim dreidimensionalen Freihand-Ultraschall-Abtasten unter Verwendung adaptiver Flecken-Korrelation
DE10058452B4 (de) Verfahren und Gerät zur Bewegungsdarstellung bei Ultraschall-Fluss-Bilddarstellung unter Verwendung von Paketdatenerfassung
DE102010061577A1 (de) Verfahren und System zur Verarbeitung von Ultraschalldaten

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
R082 Change of representative

Ref document number: 883860

Country of ref document: EP